Lineare Algebra - Mathematisches Institut

Werbung
Hans-Peter Gittel
Lineare Algebra
(für Informatiker/Grundschullehrer)
Sommersemester 2014
Universität Leipzig, Institut für Mathematik
Version vom 9. Juli 2014
Es wird keinerlei Gewähr für die Richtigkeit und Vollständigkeit der hier vorliegenden Mitschrift gegeben.
Diese Mitschrift wurde ursprünglich von Roy Mennicke mit Hilfe von LATEX 2ε im Wintersemester 2003/2004 gesetzt. Die jeweils aktuellste Version ist erhältlich unter:
http://www.math.uni-leipzig.de/∼gittel/LinAlg14.html
Inhaltsübersicht
1 Algebraische Grundbegriffe
1
2 Algebraische Strukturen in Zahlbereichen
11
3 Vektorräume und lineare Abbildungen
25
4 Matrizen und lineare Gleichungssysteme
55
5 Euklidische Vektorräume
87
6 Eigenwerttheorie
107
iii
Inhaltsverzeichnis
1 Algebraische Grundbegriffe
1.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.0.0.1 Beispiel: . . . . . . . . . . . . .
1.1.0.0.2 Beispiel: . . . . . . . . . . . . .
1.1.1 Grundlegende Bezeichnungen . . . . . . . . . . .
1.2 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.0.0.1 Definition einer Relation: . . .
1.2.1 Wichtige Relationen . . . . . . . . . . . . . . . .
1.2.1.0.1 Äquivalenzrelation: . . . . . . .
1.2.1.0.2 Ordnungsrelation: . . . . . . . .
1.2.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . .
1.2.3 Satz über Äquivalenzklassen . . . . . . . . . . . .
1.2.3.0.3 Folgerung: . . . . . . . . . . . .
1.2.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . .
1.3 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Definition (Gruppenaxiome) . . . . . . . . . . . .
1.3.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . .
1.3.3 Eindeutigkeit von neutralen und inversen Element
1.3.4 Abbildung von Gruppen . . . . . . . . . . . . . .
1.3.4.1 Beispiel . . . . . . . . . . . . . . . . . .
1.4 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.0.1.1 Bemerkung: . . . . . . . . . . .
1.4.0.1.2 Beispiele: . . . . . . . . . . . .
1.4.0.2 Bezeichung . . . . . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
in (G, ∗)
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1
2
4
4
4
5
5
5
5
6
7
7
7
7
8
8
9
9
9
9
10
10
2 Algebraische Strukturen in Zahlbereichen
2.1 Permutationen . . . . . . . . . . . . . . .
2.1.0.0.1 Behauptung: . .
2.1.1 Definitionen . . . . . . . . . . . . .
2.1.1.1 Eigenschaften von τ . . .
2.2 Ring der ganzen Zahlen . . . . . . . . . .
2.2.1 Definition eines Rings . . . . . . .
2.2.1.0.1 Satz: . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
11
12
12
12
13
13
v
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2.2.2
2.2.3
Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . .
Definition des größten gemeinsamen Teilers . . . . . . . . .
2.2.3.0.1 Beispiel: . . . . . . . . . . . . . . . . . .
2.2.4 Euklidischer Algorithmus in der einfachen Form . . . . . .
2.2.4.0.1 Beispiel: . . . . . . . . . . . . . . . . . .
2.2.4.0.2 Behauptung: . . . . . . . . . . . . . . .
2.2.4.0.3 Folgerung: . . . . . . . . . . . . . . . . .
2.2.5 Anwendung (Konstruktion von endlichen Körpern) . . . .
2.2.5.0.1 Beispiel: . . . . . . . . . . . . . . . . . .
2.2.5.0.2 Satz über die Existenz endlicher Körper:
Körper der komplexen Zahlen . . . . . . . . . . . . . . . . . . . .
2.3.1 Einführung der komplexen Zahlen . . . . . . . . . . . . . .
2.3.1.0.1 Geometrische Darstellung: . . . . . . . .
2.3.2 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . .
2.3.2.1 Bestimmung von z −1 . . . . . . . . . . . . . . . .
2.3.2.1.1 Folgerung: . . . . . . . . . . . . . . . . .
2.3.2.1.2 Beispiel: . . . . . . . . . . . . . . . . . .
2.3.2.2 Division . . . . . . . . . . . . . . . . . . . . . . .
2.3.2.2.1 Beispiel: . . . . . . . . . . . . . . . . . .
2.3.3 Geometrische Deutung der Rechenoperationen in C . . . .
2.3.3.1 Trignometrische Darstellung komplexer Zahlen .
2.3.3.1.1 Beispiel: . . . . . . . . . . . . . . . . . .
2.3.3.1.2 Beispiel: . . . . . . . . . . . . . . . . . .
2.3.4 Konvergenzbegriff in C . . . . . . . . . . . . . . . . . . . .
2.3.4.1 Definitionen . . . . . . . . . . . . . . . . . . . . .
2.3.4.1.1 Folgerung: . . . . . . . . . . . . . . . . .
2.3.4.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . .
2.3.4.2.1 Bemerkung: . . . . . . . . . . . . . . . .
2.3.5 Komplexe Reihen . . . . . . . . . . . . . . . . . . . . . . .
2.3.5.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
13
13
14
14
14
14
15
15
15
15
15
16
16
16
17
17
18
18
18
19
20
20
22
22
22
23
23
23
23
23
3 Vektorräume und lineare Abbildungen
3.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Definition des Vektorraums . . . . . . . . . . . . . . . . .
3.1.1.0.1 Verknüpfung von Vektoren: . . . . . . .
3.1.1.0.2 Verknüpfung von Skalaren und Vektoren:
3.1.1.1 Bemerkungen . . . . . . . . . . . . . . . . . . . .
3.1.1.2 Folgerungen . . . . . . . . . . . . . . . . . . . . .
3.1.1.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . .
3.1.2 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . .
3.1.2.0.1 Folgerung: . . . . . . . . . . . . . . . . .
3.1.2.0.2 Unterraumkriterium: . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
25
25
26
26
26
26
28
28
28
2.3
3.2
3.3
3.4
3.1.2.0.3 Bemerkung: . . . . . . . . . . . . . . . . . . . . .
3.1.2.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2.1.1 Beispiele: . . . . . . . . . . . . . . . . . . . . . .
3.1.3 Operationen mit Unterräumen . . . . . . . . . . . . . . . . . . . . .
3.1.3.0.1 Durchschnitt: . . . . . . . . . . . . . . . . . . . .
3.1.3.0.2 Summe: . . . . . . . . . . . . . . . . . . . . . . .
3.1.3.0.3 Beispiele: . . . . . . . . . . . . . . . . . . . . . .
3.1.3.0.4 Behauptung: . . . . . . . . . . . . . . . . . . . .
3.1.3.0.5 Folgerung: . . . . . . . . . . . . . . . . . . . . . .
Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Definition der linearen Unabhängigkeit . . . . . . . . . . . . . . . .
3.2.1.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 Charakterisierung der linearen Abhängigkeit . . . . . . . . . . . . .
3.2.2.1 Weitere Folgerungen . . . . . . . . . . . . . . . . . . . . .
3.2.3 Definition eines Erzeugendensystems . . . . . . . . . . . . . . . . .
3.2.3.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.4 Eigenschaften einer Basis . . . . . . . . . . . . . . . . . . . . . . . .
3.2.4.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . .
3.2.4.0.2 Satz über die Existenz einer Basis: . . . . . . . .
3.2.4.0.3 Bemerkung: . . . . . . . . . . . . . . . . . . . . .
3.2.4.1 Wieviele Elemente hat eine Basis? . . . . . . . . . . . . .
3.2.4.1.1 Austauschlemma: . . . . . . . . . . . . . . . . . .
3.2.4.1.2 Ergänzung zum Austauschlemma: . . . . . . . . .
3.2.4.1.3 Beispiel: . . . . . . . . . . . . . . . . . . . . . . .
3.2.4.1.4 Austauschsatz von Steinitz (1913): . . . . . . . .
3.2.4.2 Wichtige Folgerungen aus dem Austauschsatz . . . . . . .
Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.3 Weitere wichtige lineare Abbildung . . . . . . . . . . . . . . . . . .
3.3.3.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . .
3.3.4 Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.5 Bestimmung von linearen Abbildungen . . . . . . . . . . . . . . . .
3.3.6 Dimensionsformel für lineare Abbildungen . . . . . . . . . . . . . .
3.3.6.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . .
Affine Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1 Eigenschaften affiner Unterräume . . . . . . . . . . . . . . . . . . .
3.4.1.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . .
3.4.1.0.2 Beispiele: . . . . . . . . . . . . . . . . . . . . . .
3.4.1.0.3 Satz über die Gleichheit von affinen Unterräumen:
3.4.1.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1.1.1 Parameterdarstellung von A = a0 + U: . . . . . .
3.4.2 Parallele Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . .
29
29
29
30
30
30
31
31
31
32
32
32
33
34
34
34
35
35
35
36
36
36
37
37
37
38
43
43
44
45
45
46
47
49
50
50
50
50
51
51
52
52
52
3.4.3
3.4.2.0.1 Definition: .
3.4.2.1 Beispiele . . . . . . .
Erzeugung affiner Unterräume
3.4.3.0.1 Folgerung: .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Matrizen und lineare Gleichungssysteme
4.1 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Definition einer Matrix . . . . . . . . . . . . . . . . . . . . . .
4.1.1.0.1 Spezialfälle: . . . . . . . . . . . . . . . . . .
4.1.1.0.2 Bemerkung: . . . . . . . . . . . . . . . . . .
4.1.2 Operationen mit Matrizen . . . . . . . . . . . . . . . . . . . .
4.1.3 Zusammenhang zwischen linearen Abbildungen und Matrizen
4.1.3.0.1 Darstellungssatz: . . . . . . . . . . . . . . .
4.1.3.1 Interpretation der Matrizenoperationen . . . . . . . .
4.1.3.2 Spezialfälle . . . . . . . . . . . . . . . . . . . . . . .
4.1.3.3 Folgerungen . . . . . . . . . . . . . . . . . . . . . . .
4.1.3.3.1 Beispiel: . . . . . . . . . . . . . . . . . . . .
4.1.3.3.2 Anwendung: . . . . . . . . . . . . . . . . . .
4.2 Rangbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Definition des Rangs einer Matrix . . . . . . . . . . . . . . . .
4.2.1.0.1 Definition: . . . . . . . . . . . . . . . . . . .
4.2.1.0.2 Satz: . . . . . . . . . . . . . . . . . . . . . .
4.2.1.0.3 Bemerkung: . . . . . . . . . . . . . . . . . .
4.2.1.0.4 Hilfssatz: . . . . . . . . . . . . . . . . . . .
4.2.1.0.5 Bedeutung des Hilfssatzes: . . . . . . . . . .
4.2.1.0.6 Beispiel: . . . . . . . . . . . . . . . . . . . .
4.2.2 Elementare Umformungen von Matrizen . . . . . . . . . . . .
4.2.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . .
4.2.2.0.2 Eigenschaft: . . . . . . . . . . . . . . . . . .
4.2.2.0.3 Anwendung: . . . . . . . . . . . . . . . . . .
4.2.2.1 Behauptungen . . . . . . . . . . . . . . . . . . . . .
4.3 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1.0.1 Fragen: . . . . . . . . . . . . . . . . . . . .
4.3.2 Struktur der Lösungsräume . . . . . . . . . . . . . . . . . . .
4.3.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . .
4.3.3 Lösbarkeitskriterium . . . . . . . . . . . . . . . . . . . . . . .
4.3.4 Dimension des Lösungsraumes . . . . . . . . . . . . . . . . . .
4.3.4.0.1 Folgerungen: . . . . . . . . . . . . . . . . .
4.3.5 Gaußscher Algorithmus zum Lösen linearer Gleichungssysteme
4.3.5.0.1 Bemerkung: . . . . . . . . . . . . . . . . . .
4.3.5.0.2 Beispiel: . . . . . . . . . . . . . . . . . . . .
4.3.6 Numerische Lösung linearer Gleichungssysteme . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
52
53
54
54
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
55
55
55
55
55
56
59
59
60
61
61
62
62
62
62
62
62
63
63
64
64
65
65
65
65
66
67
67
68
68
69
70
70
71
71
73
73
74
4.4
4.3.6.0.1 Idee: . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.6.0.2 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 74
4.3.6.1 Wahl von P . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.6.1.1 Konvergenzsatz: . . . . . . . . . . . . . . . . . . . 76
Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.4.0.1.1 Zur Erinnerung: . . . . . . . . . . . . . . . . . . . 76
4.4.1 Definition einer Determinante . . . . . . . . . . . . . . . . . . . . . 76
4.4.1.0.1 Beispiele: . . . . . . . . . . . . . . . . . . . . . . 77
4.4.2 Eigenschaften von Det(A) . . . . . . . . . . . . . . . . . . . . . . . 77
4.4.2.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4.2.1.1 Determinante einer oberen Dreiecksmatrix: . . . . 80
4.4.2.1.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 81
4.4.3 Multiplikationssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.4.3.0.1 Determinante einer regulären (invertierbaren) Matrix: 82
4.4.3.0.2 Ergänzung: . . . . . . . . . . . . . . . . . . . . . 83
4.4.4 Adjungierte Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.4.4.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 83
4.4.4.1 Laplacesche Entwicklungssatz (Laplace 1749-1827) . . . . 83
4.4.4.1.1 Anwendung: . . . . . . . . . . . . . . . . . . . . . 84
4.4.4.1.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 84
4.4.4.2 Definition der adjungierten Matrix . . . . . . . . . . . . . 84
4.4.4.2.1 Satz: . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.4.4.2.2 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 85
4.4.4.2.3 Anwendung: . . . . . . . . . . . . . . . . . . . . . 85
5 Euklidische Vektorräume
5.1 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Definition des Skalarprodukts . . . . . . . . . . . . . . . . . . . . .
5.1.1.0.1 Bemerkungen: . . . . . . . . . . . . . . . . . . . .
5.1.1.0.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . .
5.1.2 Euklidische Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.2.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . .
5.1.2.0.2 Spezialfall: . . . . . . . . . . . . . . . . . . . . .
5.1.3 Cauchy-Schwarzsche Ungleichung . . . . . . . . . . . . . . . . . . .
5.1.3.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.3.1.1 Geometrische Deutung des Standardskalarprodukts
5.1.4 Kriterium für lineare Unabhängigkeit in Euklidischem Vektorraum .
5.2 Orthogonale Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . .
5.2.1.0.2 Entwicklung nach Orthonormalbasis: . . . . . . .
5.2.2 Orthogonale Unterräume . . . . . . . . . . . . . . . . . . . . . . . .
5.2.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . .
87
87
87
88
88
88
88
88
89
89
in R2 : 91
92
93
93
93
93
94
94
5.2.2.1
5.2.2.2
5.3
Eigenschaften von M ⊥ . . . . . . . . . . . . . . . .
Folgerungen . . . . . . . . . . . . . . . . . . . . . .
5.2.2.2.1 Beispiel: . . . . . . . . . . . . . . . . . . .
5.2.3 Konstruktion einer Orthonormalbasis . . . . . . . . . . . . .
5.2.3.0.1 Folgerung: . . . . . . . . . . . . . . . . . .
5.2.3.0.2 Beispiel: . . . . . . . . . . . . . . . . . . .
Orthogonale Abbildungen und Matrizen . . . . . . . . . . . . . . .
5.3.0.0.1 Motivation: . . . . . . . . . . . . . . . . .
5.3.0.0.2 Definition: . . . . . . . . . . . . . . . . . .
5.3.1 Eigenschaften orthogonaler Abbildungen . . . . . . . . . . .
5.3.2 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . .
5.3.2.0.1 Definition: . . . . . . . . . . . . . . . . . .
5.3.2.0.2 Charakterisierung orthogonaler Matrizen:
5.3.2.0.3 Folgerung: . . . . . . . . . . . . . . . . . .
5.3.2.1 Bestimmung aller Elemente von O(2) . . . . . . . .
5.3.2.1.1 Satz: . . . . . . . . . . . . . . . . . . . . .
5.3.2.1.2 Bemerkung: . . . . . . . . . . . . . . . . .
5.3.2.1.3 Zusammenfassung. . . . . . . . . . . . . .
6 Eigenwerttheorie
6.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . .
6.1.0.0.1 Fragen: . . . . . . . . . . . . . . . . . .
6.1.0.0.2 Definition: . . . . . . . . . . . . . . . . .
6.1.0.0.3 Bemerkung: . . . . . . . . . . . . . . . .
6.1.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.3 Diagonalisierbare Matrizen . . . . . . . . . . . . . . . . . .
6.1.3.0.1 Definition: . . . . . . . . . . . . . . . . .
6.1.3.0.2 Folgerung: . . . . . . . . . . . . . . . . .
6.1.3.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . .
6.1.4 Eigenschaften von Eigenvektoren . . . . . . . . . . . . . .
6.1.4.0.1 Satz: . . . . . . . . . . . . . . . . . . . .
6.1.4.1 Folgerungen . . . . . . . . . . . . . . . . . . . . .
6.1.4.2 Verfahren zur Diagonalisierbarkeit von A ∈ Rn×n
6.1.4.2.1 Bemerkung: . . . . . . . . . . . . . . . .
6.2 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . .
6.2.0.0.1 Satz: . . . . . . . . . . . . . . . . . . . .
6.2.0.0.2 Definition: . . . . . . . . . . . . . . . . .
6.2.0.0.3 Folgerung: . . . . . . . . . . . . . . . . .
6.2.0.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . .
6.2.1 Grundlegendes über Polynome . . . . . . . . . . . . . . . .
6.2.1.0.1 Folgerung: . . . . . . . . . . . . . . . . .
6.2.1.0.2 Beispiel: . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
95
96
97
98
99
99
100
100
101
101
102
102
103
103
104
104
104
105
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
107
107
107
108
108
108
108
109
110
110
110
111
111
111
112
113
113
113
113
113
113
114
115
115
6.2.2
6.3
Anwendung auf charakteristisches Polynom . . . . . . . . . . . . . . 116
6.2.2.0.1 Darstellung des charakteristischen Polynoms: . . 116
6.2.2.0.2 Zusammenhang zwischen mk und den geometr. Vielfachheiten nk 116
6.2.2.0.3 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 117
6.2.3 Bemerkung zu komplexen Eigenwerten einer MatrixA ∈ Rn×n . . . 117
6.2.4 Eigenwerte orthogonaler Matrizen A ∈ Rn×n . . . . . . . . . . . . . 117
6.2.4.0.1 Interpretation: . . . . . . . . . . . . . . . . . . . 119
6.2.4.0.2 Allgemein: . . . . . . . . . . . . . . . . . . . . . . 120
Hauptachsentransformation symmetrischer Matrizen . . . . . . . . . . . . . 120
6.3.1 Eigenschaften symmetrischer Matrizen A ∈ Rn×n . . . . . . . . . . 121
6.3.1.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 122
6.3.1.0.2 Hauptachsensatz: . . . . . . . . . . . . . . . . . . 122
6.3.1.1 Schema zur Durchführung der Hauptachsentransformation symmetrischer Ma
6.3.1.2 Beispiel zur Hauptachsentransformation . . . . . . . . . . 124
6.3.2 Anwendung der Hauptachsentransformation bei Kurven zweiter Ordnung125
6.3.2.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 125
6.3.2.1 Klassifikation: . . . . . . . . . . . . . . . . . . . . . . . . . 126
6.3.2.2 Normalformen von Kurven 2. Ordnung . . . . . . . . . . . 126
6.3.2.2.1 Beispiel einer Kurve 2. Ordnung: . . . . . . . . . 127
Literaturverzeichnis
[1] Beutelspacher, A.: Lineare Algebra. Vieweg 1995
[2] Eisenreich, G.: Lineare Algebra und Analytische Geometrie. Akademie-Verlag 1989
[3] Fischer, G.: Lernbuch Lineare Algebra und Analytische Geometrie. Springer 2012
[4] Jänich, K.: Lineare Algebra. Springer 1993
[5] Kreußler, B. und Pfister, G.: Mathematik für Informatiker. Springer 2009
[6] Manteuffel, K., Seiffart, E. und K. Vetters: Lineare Algebra. Teubner 1989
[7] Walter, R.: Einführung in die Lineare Algebra. Vieweg 1990
[8] Witt, K.-U.: Lineare Algebra für die Informatik. Springer 2013
xiii
Kapitel 1
Algebraische Grundbegriffe
1.1
Einleitung
In der Schulgeometrie ging es oft um Lagebeziehungen von ebenen Figuren, Fragen nach
bestimmten Schnittpunkten, Geraden und ähnliches wurden behandelt.
1.1.0.0.1 Beispiel: Schnittpunkt S zweier gegebener Geraden g1 , g2 . Es gibt zwei Möglichkeiten den Schnittpunkt zu bestimmen.
1) Lösung durch Konstruktion (Zeichnung). Die Geraden werden soweit verlängert, bis
sie sich schneiden.
2) Einführung eines rechtwinkligen Koordinatensystems:
1
Gerade g1 wird beschrieben durch die Gleichung: y = x ,
2
Gerade g1 wird beschrieben durch die Gleichung: y = 2x − 3 ,
S = (xS , yS ) bestimmt sich dann durch zwei Gleichungen für zwei Unbekannte. S
liegt auf g1 und g2 , somit gilt:
1
yS = xS
2
yS = 2xS − 3
1
xS = 2xS − 3 ,
2
also
xS = 2, yS = 1
Damit haben wir das geometrische Problem in ein algebraisches überführt, welches
mittels analytischen Hilfsmitteln gelöst wurde.
1
2
KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE
g2
y
g1
1
0
S
x
1
Umgekehrt: Kann man jedes algebraische Problem geometrisch deuten?
Bei der Behandlung vielfältiger Anwendungen stößt man bei der mathematischen Modellierung auf Gleichungen welche „linear“ sind, das heißt die Unbekannten treten in den
Gleichungen höchstens in der ersten Potenz auf.
1.1.0.0.2 Beispiel: Eine Getränkefabrik stellt durch Mischung eines Grundstoffes mit
zwei Zusatzstoffen Z1 , Z2 die Endprodukte P1 , P2 und P3 her. Durch Zumischung von 4l
Z1 und 3l Z2 zum Grundstoff ergeben sich 100l P1 . Durch Zumischung von 2l Z1 und 5l Z2
erhält man 100l P2 . Durch Zumischung von 1l Z1 und 2l Z2 erhält man 100l P3 .
Folglich braucht man für x1 hlI P1 , x2 hl P2 und x3 hl P3 :
b1 = 4x1 + 2x2 + x3 l Zusatzstoff Z1
b2 = 3x1 + 5x2 + 2x3 l Zusatzstoff Z2
I
hl – Hektoliter
(System von 2 linearen
Gleichungen)
1.1. EINLEITUNG
3
Verschiedene Fragestellungen:
1) Es werden 7hl P1 , 8hl P2 und 13hl P3 benötigt. Wieviel Liter Zusatzstoffe werden
verwendet?
Antwort: Durch Einsetzen in die beiden Gleichungen erhält man b1 = 57 und b2 = 87.
2) Es stehen 80l Z1 und 90l Z2 zur Verfügung. Wieviel Hektorliter der Endprodukte P1 ,
P2 und P3 kann man damit herstellen?
Aus den beiden Gleichungen folgt ein lineares Gleichungssystem:
80 = 4x1 + 2x2 + x3
90 = 3x1 + 5x2 + 2x3
(1.1.0.1)
Gegenstand der linearen Algebra: Untersuchung solcher linearen Gleichungssysteme
auf Lösbarkeit sowie Aussagen über Struktur der Lösungsmenge tätigen.
Was ist die Lösung des linearen Gleichungssystems (1.1.0.1)? 3 Werte für x1 , x2 und
x3 , so dass beide Gleichungen erfüllt sind. Zum Beispiel:
x1 = 14, x2 = 0, x3 = 24
27
5
x1 = , x2 = − , x3 = 31II
2
2
aber auch
Die Lösung für das lineare Gleichungssystem (1.1.0.1) ist ein geeordnetes TripelIII
(x1 , x2 , x3 ) von reellen Zahlen x1 , x2 , x3 , so dass die Gleichungen erfüllt sind.
Da es auf die Reihenfolge und Position der Koeffizienten und Absolutglieder im linearen Gleichungssystem ankommt, kann man es durch folgendes Schema charakterisieren:
4 2 1
80
A :=
und
b :=
3 5 2
90
(Koeffizientenmatrix)
(Absolutglied(vektor))
von (1.1.0.1)
Zur Untersuchung der Lösungsstruktur bei linearen Gleichungssystem benutzen wir Matrizen. Dabei spielen solche wichtigen Strukturen wie Gruppe, Körper und Vektorraum eine
entscheidende Rolle.
II
III
Diese Werte sind allerdings ökonomisch unsinnig.
Eine Lösung ist beispielsweise (14, 0, 24), jedoch (0, 14, 24) nicht.
4
KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE
1.1.1
Grundlegende Bezeichnungen
Symbol
Bedeutung
Definition
x∈M
x 6∈ M
∅
|M|
P(M)
A⊆B
x ist Element der Menge M
x ist kein Element von M
leere Menge
Mächtigkeit der Menge M
Potenzmenge von M
A ist Teilmenge von B
(B ist Obermenge von A)
A ist echte Teilmenge von B
Durchschnitt von A und B
Vereinigung von A und B
Differenz von A und B
(Komplement von B in A
kartesisches Produkt von A und B
M enthält x
M enthält nicht x
Menge, die kein Element enthält
Anzahl der Elemente von M
P(M) := {A|A ⊆ M}
Für alle x ∈ A gilt x ∈ B
Symbol
Bedeutung
Definition
N
N0
Menge aller natürlichen Zahlen
Menge aller nichtnegativen ganzen
Zahlen
Menge aller ganzen Zahlen
Menge aller rationalen Zahlen
Menge aller reellen Zahlen
Menge aller nichtnegativen reellen
Zahlen
Menge aller n-Tupel reeller Zahlen
Menge aller komplexen Zahlen
N := {1, 2, 3, . . .}
N0 := N ∪ {0}
A⊂B
A∩B
A∪B
A\B
A×B
Z
Q
R
R+
Rn
C
1.2
A ⊆ B, A 6= B
A ∩ B := {x|x ∈ A und x ∈ B}
A ∪ B := {x|x ∈ A oder x ∈ B}
A \ B := {x|x ∈ A und x 6∈ B}
zusätzlich A ⊇ B)
A × B := {(a, b)|a ∈ A, b ∈ B}
Z := {. . . , −2, −1, 0, 1, 2, . . .}
Q := {x | x = pq , p ∈ Z, q ∈ N}
R+ := {x ∈ R | x ≥ 0}
Rn := R × . . . × R
C := {z = a + ib | a, b ∈ R}
Relationen
Der mathematische Begriff der Relation ist eine Verallgemeinerung von Alltagsbeziehungen.
1.2.0.0.1 Definition einer Relation: Eine Relation R auf einer Menge M ist definiert
durch R ⊆ M × M. Man schreibt für (x, y) ∈ R auch xRy.
1.2. RELATIONEN
1.2.1
5
Wichtige Relationen
Sei R ⊆ M × M, dann heißt die Relation R auf der Menge M
i) reflexiv falls xRx für alle x gilt
ii) transitiv, falls aus xRy, yRz folgt: xRz
iii) symmetrisch, falls aus xRy folgt: yRx
iv) antisymmetrisch, falls aus xRy, yRx folgt: x = y
Hierbei ist x, y, z ∈ M.
1.2.1.0.1 Äquivalenzrelation: Die Äquivalenzrelation ist eine Verallgemeinerung von
„=“ auf M. Sie ist eine Relation, die reflexiv, transitiv und symmetrisch ist.
1.2.1.0.2 Ordnungsrelation: Eine Ordnungsrelation ist eine Relation, die reflexiv,
transitiv und antisymmetrisch ist.
1.2.2
Beispiele
1) Sei M die Menge der Informatik-Studenten des 1. Semesters. x, y ∈ M. xRy bedeute
dabei x und y besuchen die gleiche Übungsgruppe.
2) Sei M die Menge der Geraden der Ebene. xRy ⇔ Gerade x ist parallel zur Geraden y
(in Zeichen: x k y)
3) Sei M = N, xRy ⇔ x ≤ y.
R = {(x, y) ∈ N × N | x ≤ y} = {(1, 2), (1, 3), . . . , (4, 4), (4, 5), . . .}
Bei den Relationen in 1) und 2) handelt sich um Äquivalenzrelationen. Die Relation in 3)
ist eine Ordnungsrelation auf N. Sie ist damit nicht symmetrisch.
4) R3 = {(x, y) ∈ Z × Z | 3 teilt y − x} = {(x, y) ∈ Z2 | 3|(y − x)}
= {(1, 1), (1, 4), (1, 7), . . . , (4, −2), (4, 1), (4, 4), . . .}
Behauptung: R3 ist Äquivalenzrelation auf Z
Beweis: Es müssen die drei Eigenschaften gezeigt werden.
• Reflexivität: xR3 x, weil x − x = 0 und durch 3 teilbar ist.
6
KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE
• Transivität: Sei xR3 y, yR3 z, d. h. y − x = 3m und z − y = 3n mit m, n ∈ Z
z − x = z − x + (y − y) = (z − y) + (y − x)
= 3n + 3m = 3(n + m)
(n + m ∈ Z)
also 3|z − x ⇒ xR3 z
• Symmetrie: Sei xR3 y, d.h. y − x = 3m ⇒ x − y = 3(−m) ⇒ yR3x
5) RI = {(A, B) ∈ ℘(M) × ℘(M)|A ⊆ B} (Inklusionsrelation)
Behauptung: RI ist eine Ordnungsrelation auf ℘(M)
Beweis:
• Reflexivität: A ⊆ A nach Definition von „⊆“ (⇒ A RI A))
• Transivität: A ⊆ B, B ⊆ C laut Definition von „⊆“ folgt A ⊆ C
• Antisymmetrie: A ⊆ B, B ⊆ A ⇔ A = B (Folgerung aus Definition von „⊆“)
1.2.3
Satz über Äquivalenzklassen
Sei R eine Äquivalenzrelation auf der Menge M und
[x]R := {y ∈ M | yRx}
die Äquivalenzklasse von x ∈ M bezüglich R
(x heißt dann Repräsentant von [x]R ).
Dann gilt für x1 , x2 ∈ M:
a) [x1 ]R = [x2 ]R ⇔ x1 Rx2 ⇔ (x1 , x2 ) ∈ R
Beweis:
• (⇒): Sei [x1 ]R = [x2 ]R . Weil x1 Rx1 ist x1 ∈ [x1 ]R = [x2 ]R . Nach Definiton
bedeutet das: x1 Rx2 .
• (⇐): Sei x1 Rx2 . Für ein beliebiges y ∈ [x1 ]R gilt yRx1 Wegen Transivität ist
yRx2 , also y ∈ [x2 ]R . Das bedeutet: [x1 ]R ⊆ [x2 ]R .
Wegen der Symmetrie von R ist x2 Rx1 und somit [x2 ]R ⊆ [x1 ]R . Damit folgt
[x1 ]R = [x2 ]R .
b) [x1 ]R ∩ [x2 ]R = ∅ ⇔ x1 nicht in Relation zu x2 ⇔ (x1 , x2 ) ∈
/R
Behauptung ist gleichbedeutend mit
[x1 ]R ∩ [x2 ]R 6= ∅ ⇔ x1 Rx2
Dabei ist (⇐) schon durch Teil 1) bewiesen.
Sei [x1 ]R ∩ [x2 ]R 6= ∅, so gibt es y ∈ M mit y ∈ [x1 ]R ∩ [x2 ]R . Also yRx1 und yRx2 .
Wegen Symmetrie und Transivität von R folgt daraus x1 Rx2 .
1.3. GRUPPEN
7
1.2.3.0.3 Folgerung: Zwei Äquivalenzklassen sind entweder gleich oder disjunkt (durchschnittsfremd). Die verschiedenen Äquivalenzklassen bilden eine Zerlegung (Partition) der
gegebenen Menge M, denn jede Klasse ist nichtleer und jedes Element von M liegt in
genau einer Klasse.
1.2.4
Beispiele
1) Einteilung der Studenten in Übungsgruppen
2) Parallelitätsrelation zwischen Geraden liefert die Äquivalenzklassen „Richtung“
4) R3 auf Z liefert die Zerlegung von Z in
[0]3 := {x ∈ Z | 3|x − 0} = {x ∈ Z | x = 3m, m ∈ Z} = [3]3
[1]3 := {x ∈ Z | 3|x − 1} = {x ∈ Z | x = 3m + 1, m ∈ Z} = [4]3
[2]3 := {x ∈ Z | 3|x − 2} = {x ∈ Z | x = 3m + 2, m ∈ Z} = [5]3
Diese Klassen heißen Restklassen von Z mod 3 (modulo 3). Z = [0]3 ∪ [1]3 ∪ [2]3
Analog gilt für Rm , m ∈ N \ {1}, definiert durch
xRm y ⇔ m|x − y
die Zerlegung von Z in die Restklassen
1.3
mod m: [0]m , [1]m , . . . , [m − 1]m
Gruppen
Wir betrachten jetzt Mengen M zusammen mit darauf erklärten Verknüpfungen (Operationen):
∗: M ×M →M
1.3.1
Definition (Gruppenaxiome)
Sei G 6= ∅ und ∗: G × G → G eine Verknüfung auf G, dann heißt (G, ∗) eine Gruppe, falls
G1 (a ∗ b) ∗ c = a ∗ (b ∗ c) für alle a, b, c ∈ G gilt (Assoziativität),
G2 es e ∈ G gibt mit a ∗ e = e ∗ a = a für alle a ∈ G (Existenz eines neutralen Elements),
G3 es zu jedem a ∈ G ein b ∈ G gibt mit a ∗ b = b ∗ a = e (Existenz eines inversen
Elements).
(G, ∗) heißt kommutative bzw. abelsche Gruppe, wenn zusätzlich gilt
G4 a ∗ b = b ∗ a für alle a, b ∈ G (Kommutativität).
8
KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE
1.3.2
Beispiele
1) (Z, +) bildet eine additive abelsche Gruppe mit dem neutralen Element e = 0 und
dem inversen Element −a zu a (a + (−a) = 0). Ebenso (R, +), (Q, +).
2) (R \ {0}, ·) bildet eine multiplikative abelsche Gruppe mit dem neutralen Element
e = 1 und dem inversen Element a1 zu a. Ebenso (Q \ {0}, ·).
3) Sei G die Menge der Drehungen der Ebene, welche ein gegebenes Quadrat Q in sich
überführen. (Es sind nur Drehungen Dα um Winkel α um den Mittelpunkt O des
Quadrats interessant.)
D
C
α
O
A
B
n
o
G = D0 , D± π2 , D±π , D± 3π , D±π , D± 5π , . . .
2
2
∗ ist hier die Hintereinanderausführung der Drehungen.
(G, ∗) ist eine abelsche Gruppe mit dem neutralen Element e = D0 und dem inversen
Element D−α zu Dα .
Wegen Dα = Dα+2kπ mit k ∈ Z ist G gegeben durch
n
o
G = D0 , D π2 , Dπ , D 3π
2
1.3.3
Eindeutigkeit von neutralen und inversen Element in (G, ∗)
1) Es gibt nur ein Element aus G, das G2 erfüllt.
Denn gelte für e′ ∈ G : a ∗ e′ = e′ ∗ a = a für alle a ∈ G. Mit a = e folgt dann
e ∗ e′ = e′ ∗ e = e. Andererseits ergibt sich aus G2 (mit a = e′ ): e′ ∗ e = e ∗ e′ = e′ .
⇒ e = e′
2) Es gibt nur ein inverses Element zu a ∈ G.
Sei a ∗ b = b ∗ a = e und a ∗ b′ = b′ ∗ a = e.
b′ = b′ ∗ e = b′ ∗ (a ∗ b) = (b′ ∗ a) ∗ b = e ∗ b = b
G2
G1
G2
1.4. KÖRPER
1.3.4
9
Abbildung von Gruppen
Seien (G, ∗) und (H, #) Gruppen und f : G → H. Dann heißt f Homomorphismus, falls
f (a ∗ b) = f (a)#f (b)
Erläuterung: Homomorphismus überträgt Verknüpfung der Urbilder auf die Bilder. Ist f
zusätzlich bijektiv, so heißt f Isomorphismus, und die Gruppen G und H heißen isomorph.
1.3.4.1
Beispiel
Wir betrachten die Menge Zm = {[0]m , [1]m , . . . , [m − 1]m } der Restklassen modulo m ∈ N.
Auf Zm kann man die Addition repräsentantenweise erklären.
[a]m + [b]m := [a + b]m
a, b ∈ Z
Alle Rechengesetze von (Z, +) übertragen sich auf (Zm , +). Somit ist (Zm , +) eine additive
abelsche Gruppe. Z.B: ist (Z4 , +) ist durch folgende Additionstafel gegeben:
+
[0]
[1]
[2]
[3]
[0]
[0]
[1]
[2]
[3]
[1]
[1]
[2]
[3]
[0]
[2]
[2]
[3]
[0]
[1]
[3]
[3]
([a] := [a]4 )
[0]
[1]
[2]
o n
π
3π
, ◦ aus Beispiel 3.
Folgerung: (Z4 , +) ist isomorph zur Gruppe
D 0 , D 2 , Dπ , D
2
|
{z
}
Konstruiere eine isomorphe Abbildung f : Z4 → G
G
f ([a]4 ) = Da π2 für a = 0, 1, 2, 3
f ([a]4 + [b]4 ) = f ([a + b]4 ) = D(a+b) π2 = Da π2 ◦ Db π2
1.4
Körper
Ein Körper besteht aus einer Menge K, auf der zwei Verknüpfungen + und · definiert sind,
so dass
K1 (K, +) eine abelsche Gruppe mit neutralem Element 0 ist
K2 (K \ {0}, ·) eine abelsche Gruppe ist
K3 (a + b) · c = a · c + b · c für alle a, b, c ∈ K gilt. (Distributivität)
1.4.0.1.1 Bemerkung: Ausführliche Angabe der Körperaxiome in Analysisvorlesung,
Abschnitt 2.2.
10
KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE
1.4.0.1.2
1.4.0.2
Beispiele: R, Q sind Körper, Z ist dagegen kein Körper.
Bezeichung
• Bezüglich der Addition ist neutrales Element 0, und (−a) das inverse Element zu a.
• Bezüglich der Multiplikation ist neutrales Element 1, und a−1 das inverse Element
zu a.
Kapitel 2
Algebraische Strukturen in
Zahlbereichen
2.1
Permutationen
Die Menge N der natürlichen Zahlen bildet weder bezüglich + noch bezüglich · eine Gruppe.
N ist nur abgeschlossen bezüglich dieser Operationen, d.h. a + b, a · b ∈ N für alle a, b ∈ N.
Jedoch betrachtet man auf der endlichen Menge Nn = {1, 2, 3, . . . , n} ⊂ N eine wichtige
Klasse von Abbildungen, und zwar die bijektiven Abbildungen π : Nn → Nn . π heißt
Permutation von 1, 2, . . . , n und die Menge aller solcher Abbildungen bildet eine Gruppe,
die Gruppe der Permutationen oder auch symmetrische Gruppe Sn genannt.
Schreibweise:
1 2 3 4 5 6 7
π:
3 1 4 7 5 6 2
D.h. π(1) = 3, π(4) = 7, π(6) = 6
2.1.0.0.1
Behauptung: Es gibt genau n! Permutationen von 1, . . . , n; d.h.: |Sn | = n!,
n
Q
k (sprich: n Fakultät)
wobei n! = n · (n − 1) · . . . · 2 · 1 = 1 · 2 · . . . · n =
k=1
Beweis: Eine Permutation π ist eindeutig festgelegt durch die Angabe π(1), . . . , π(n).
• Für die Wahl von π(1) gibt es n Möglichkeiten.
• Für die Wahl von π(2) gibt es (n − 1) Möglichkeiten, falls π(1) festgelegt ist.
• Für die Wahl von π(3) gibt es (n − 2) Möglichkeiten, falls π(1), π(2) festgelegt sind.
• Für die Wahl von π(n − 1) gibt es 2 Möglichkeiten, falls π(1), . . . , π(n − 2) festgelegt
sind.
• Für die Wahl von π(n) gibt es 1 Möglichkeit, falls π(1), . . . , π(n − 1) festgelegt sind.
Insgesamt ergeben sich n · (n − 1) · (n − 2) · . . . · 2 · 1 = n! Möglichkeiten.
11
12
KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN
2.1.1
Definitionen
i) Ein Paar (i, j) ∈ Nn × Nn heißt Fehlstand von π, falls i < j und π(i) > π(j). (π(i)
und π(j) stehen in Inversion zueinander.)
ii)
• Ist die Anzahl der Fehlstände gerade, so heißt π gerade und sig(π) = +1.
• Ist die Anzahl der Fehlstände ungerade, so heißt π ungerade und sig(π) = −1.
sig(π) heißt Signum oder Vorzeichen von π.
iii) Eine Permutation, in der nur die Position von 2 Elementen vertauscht ist, d.h. es
gibt i, j ∈ Nn , i < j mit τ (i) = j, τ (j) = i und τ (k) = k für k 6= i, k 6= j, heißt
Transposition.
τ=
2.1.1.1
1 ... i− 1 i i+ 1 ... j −1 j ... n
1 ... i− 1 j i+ 1 ... j −1 i ... n
Eigenschaften von τ
1) τ −1 = τ , m.a.W.I : τ · τ = τ 2 = idNn
2) sig(τ ) = −1II , denn
• τ (i) = j steht in Inversion zu i + 1 , . . . , j − 1
=τ (i+1)
=τ (j−1)
• τ (j) = i steht in Inversion zu i + 1, . . . , j − 1
Außerdem steht τ (i) und τ (j) in Inversion. Die Anzahl der Inversionen von τ ist
gleich 2(j − 1 − i) + 1, also ungerade.
3) sig(τ · π) = −sig(π), denn die Anzahl der Inversionen π ändert sich um eine ungerade
Anzahl nach Anwendung von τ .
2.2
Ring der ganzen Zahlen
(Z, +) bildet abelsche Gruppe, aber Z bildet keinen Körper, sondern nur Ring. Man kann
aber aus Z eine wichtige Klasse von Körpern gewinnen und zwar durch Anwendung des
Euklidischen Algorithmus (Euklid, 365 – 300 v. Chr.).
I
II
m.a.W. – mit anderen Worten
Die Transposition ist damit ungerade.
2.2. RING DER GANZEN ZAHLEN
2.2.1
13
Definition eines Rings
Ein Ring besteht aus einer Menge R, auf der zwei Verknüpfungen + und · definiert sind,
so dass
R1 (R, +) eine abelsche Gruppe mit neutralen Element 0 ist,
R2 (a · b) · c = a · (b · c) für alle a, b, c ∈ R gilt (Assoziativität der Multiplikation).
R3 (a + b) · c = aċ + b · c, a · (b + c) = a · b + a · c für alle a, b, c ∈ R gilt (Distributivität).
Sei Zm = {[0]m , [1]m , . . . , [m − 1]m } die Menge der Restklassen modulo m ∈ N \ {1}.
Dann gilt folgender Satz (Division mit Rest):
2.2.1.0.1
q, r ∈ Z:
Satz: Sei a ∈ Z, b ∈ Z \ {0}. Dann gibt es eindeutig bestimmte Zahlen
a = qb + r
mit 0 ≤ r < |b|
(2.2.1.1)
Beweis: beispielsweise über vollständige Induktion nach |b|.
2.2.2
Folgerungen aus (2.2.1.1)
1) [a]b = [r]b , Schreibweise: a ≡ r mod b („a ist kongruent r modulo b“)
Beispiele:
• 13 ≡ 1 mod 4, weil 13 = 3 · 4 + 1
• 13 ≡ 3 mod 5, weil 13 = 2 · 5 + 3
2) Sei m ∈ N, so gilt m | a und m | b ⇔ m | b und m | r.
2.2.3
Definition des größten gemeinsamen Teilers
Ein g ∈ N heißt größter gemeinsamer Teiler von a, b ∈ Z
g = ggT(a, b),
falls
1) g | a und g | b
2) Für jedes n ∈ N mit n | a und n | b gilt n | g
2.2.3.0.1
Beispiel: gemeinsamer Teiler von 24 und 42: 1, 2, 3, 6
⇒
ggT(24, 42) = 6
14
KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN
2.2.4
Euklidischer Algorithmus in der einfachen Form
Gegeben: Zwei ganze von Null verschiedene Zahlen a und b
Gesucht: Größter gemeinsamer Teiler d von a und b.
1) Setze
a0 = a und a1 = b
2) Führe nach dem folgenden Schema solagen Divisionen mit Rest aus, bis ein Rest Null
entsteht.
a0 = q0 a1 + a2
a1 = q1 a2 + a3
..
.
am−2 = qm−2 am−1 + am
am−1 = qm−1 am
mit
mit
mit
0 < a2 < |a1 |
0 < a3 < |a2 |
..
.
0 < am < |am−1 |
3) Dann ist d = am der gesuchte größte gemeinsame Teiler.
2.2.4.0.1
Beispiel: Gesucht: ggT(156, 65)
i
aj−1
aj
qj−1
2.2.4.0.2
d = am .
Beweis:
1
2 3
156 65 26
65 26 13
2
2 2
⇒
ggT(156, 65) = 13
Behauptung: Der Euklidische Algorithmus liefert d := ggT(a, b), und zwar
1) Der Algorithmus bricht nach endlich vielen Schritten ab, denn |a1 | > a2 > a3 > . . . >
am > 0 und ak ∈ N
2) am |am−1 , am |am−2 , . . . , am |a1 und am |a0 , d. h. am ist Teiler von a und b.
3) Sei n ∈ N und n|a und n|b, so teilt n die Zahlen a0 , a1 , a2 , . . . , am .
2.2.4.0.3
Folgerung: d = ggT(a, b) hat folgende Darstellung
d = am = am−2 − qm−2 am−1
= −qm−2 am−3 + (1 + qm−2 qm−3 )am−2
= ...
= ka0 + la1 = ka + lb mit k, l ∈ Z
2.3. KÖRPER DER KOMPLEXEN ZAHLEN
2.2.5
15
Anwendung (Konstruktion von endlichen Körpern)
Wir definieren in Zm analog zur repräsententenweisen Addition eine Multiplikation durch
[a]m · [b]m = [a · b]m .
Wir untersuchen, ob Zm einen Körper bildet. Zunächst gibt es in Zm ein neutrales Element
[1]m bezüglich der Multiplikation.
Frage: Gibt es [a]−1
m für jedes a ∈ {1, . . . , m − 1}?
2.2.5.0.1
Beispiel: Multiplikationstafel von Z3
· [0] [1] [2]
[0] [0] ·
·
[1] · [1] [2]
[2] · [2] [1]
d.h. ([2]3 )−1 = [2]3
2.2.5.0.2 Satz über die Existenz endlicher Körper: Ist p ∈ N eine Primzahl (d.h.
p ist nur durch 1 und p teilbar), so ist Zp ein Körper mit genau p Elementen.
Beweis: Sei a ∈ {1, . . . , p − 1}, so ist ggT(a, p) = 1, weil p Primzahl. Nach Folgerung
2.2.4.0.3 zum Euklidischen Algorithmus gilt: 1 = ka + lp mit k, l ∈ Z, d.h.
[1]p = [ka]p + [lp]p = [ka]p + [0]p = [ka]p = [k]p [a]p .
Also [k]p = ([a]p )−1 .
2.3
Körper der komplexen Zahlen
Versucht man die Gleichung x2 + 1 = 0 zu lösen, so ist das im Körper R nicht möglich.
Deshalb√führte schon im 16. Jahrhundert der italienische Mathematiker Bombellli das
Symbol −1 ein, für das L. Euler (1707 – 1783) i schrieb. Damit lässt es sich wie gewohnt
rechnen, wenn man für (a, b) ∈ R × R Addition und Multiplikation so definiert, dass ein
Körper C entsteht.
2.3.1
Einführung der komplexen Zahlen
Erkläre für geordnete Paare (a, b) reeller Zahlen a, b eine Addition und Multiplikation:
(a1 , b1 ) + (a2 , b2 ) = (a1 + a2 , b1 + b2 )
(a1 , b1 ) · (a2 , b2 ) = (a1 a2 − b1 b2 , a1 b2 + a2 b1 )
Spezielle Paare:
16
KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN
1) (a, 0) ∈ R × {0} wird mit der reellen Zahl a identifiziert (⇒ R ⊂ C).
2) i = (0, 1) heißt imaginäre Einheit und es gilt
i2 = i · i = (0, 1) · (0, 1) = (0 · 0 − 1 · 1, 0 · 1 + 1 · 0) = (−1, 0) = −1 .
Daraus ergibt sich die algebraische Normalform einer komplexen Zahl z:
z = (a, b) = (a, 0) + (0, b) = a + (b, 0) · (0, 1) = a + bi,
a, b ∈ R
√
Dann heißt a = Rez der Realteil, b = Im z der Imaginärteil und |z| = a2 + b2 der absolute
Betrag von z.
2.3.1.0.1 Geometrische Darstellung: von z ∈ C in der Gaußschen Zahlenebene:
(C.F. Gauß: 1777 – 1855)
Im z ✻
z = (a, b) = a + bi
b
|z |
a
2.3.2
✲
Re z
Rechenregeln
Also: Rechnen mit komplexen Zahlen bedeutet Rechnen mit Ausdrücken der Form a +
bi, (a, b ∈ R) wobei die üblichen Rechenregeln für reelle Zahlen benutzt und i2 = −1
beachtet werden.
2.3.2.0.1
Beispiel:
(1 + 2i)(2 + 3i) = 2 + 4i + 3i + 6i2 = 2 − 6(−1) + 3i + 6i = −4 + 7i
Da sich die Rechenregeln aus R unter Beachtung von i2 = −1 auf C übertragen, gelten
für die Addition und Multiplikation die Kommutativ-, Assoziativ- und Distributivgesetze.
Bezüglich der Addition ist das
• neutrale Element in C das Element 0 = (0, 0).
• inverse Element zu z das Element −z = (−a, −b).
2.3. KÖRPER DER KOMPLEXEN ZAHLEN
17
Bezüglich der Multiplikation ist das
• neutrale Element in C das Element 1 = (1, 0).
• inverse Element zu z das Element?
2.3.2.1
Bestimmung von z −1
Sei z ∈ C \ {0}. Dazu bilden wir die konjugiert komplexe Zahl z zu z = a + bi, und zwar
durch
z := a − bi,
(Rez = Rez, Im z = −Im z)
Im z ✻
b
z = a + bi
|z |
a
✲
Re z
|z |
−b
❄
z = a − bi
Es gilt weiterhin:
zz = (a + bi)(a − bi) = a2 − (bi)2 = a2 − b2 i2 = a2 − b2 (−1) = a2 + b2 = |z|2
Es handelt sich um eine Gleichung in R.
2.3.2.1.1
Folgerung:
1
(zz) = 1, (falls |z| =
6 0 ⇔ z 6= 0)
|z|2
1
1
= 1 ⇒ z −1 = 2 z für z 6= 0
⇒z
2z
|z|
|z|
Andere Schreibweisen für z −1 :
18
KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN
1)
z
−1
a
b
1
(a − ib) = 2
− 2
i=
= 2
2
2
a +b
a +b
a + b2
a
b
,− 2
2
2
a +b
a + b2
2) “Reellmachen” des Nenners:
z −1 =
2.3.2.1.2
1
1·z
z
=
= 2
z
z·z
|z|
(Erweitern des Bruches
1
mit z)
z
Beispiel:
1 − 0.5i
1 − 0.5i
1
=
= 2
1 + 0.5i
(1 + 0.5i)(1 − 0.5i)
1 − 0.25i2
4 2
1 − 0.5i
= − i = 0.8 − 0.4i
=
1.25
5 5
(1 + 0.5i)−1 =
2.3.2.2
Division
Bei der Quotientenbildung
2.3.2.2.1
z1
rechnen wir:
z2
z1 ·
1
z2
= z1 ·
z1 z2
z2
=
.
z2 z2
|z2 |2
Beispiel:
4 + 7i
(4 + 7i)(1 + i)
4 + 7i + 4i + 7i2
−3 + 11i
3 11
=
=
=
=
−
− i
1−i
(1 − i)(1 + i)
12 − i2
2
2
2
2.3. KÖRPER DER KOMPLEXEN ZAHLEN
2.3.3
19
Geometrische Deutung der Rechenoperationen in C
1) Addition
Im z ✻
z1
b1
✒
z1 + z2
❥
✶
a2
❥
b2
✲
a1
Re z
z2
❄
−−−−−−−−→
−−−−−−−−→
Die Addition ist die übliche Vektoraddition der Ortsvektoren (0, 0)(a1, b1 ) und (0, 0)(a2 , b2 ).
Oder genauer: Konstruiere das Parallelogramm mit den Eckpunkten 0, z1 , z2 . Sein 4.
Eckpunkt ist z1 + z2 .
2) Subtraktion
Analog zur Additon: z1 − z2 = z1 + (−z2 )
3) Multiplikation
Im z ✻
z
|z |
φ
✲
Re z
20
KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN
2.3.3.1
Trignometrische Darstellung komplexer Zahlen
Schreibt man mit einem φ ∈ R
Re z = |z| cos φ,
Im z = |z| sin φ
so ergibt sich die trignometrische Normalform
z = |z|(cos φ + i sin φ)
φ = arg z heißt ein Argument von z und ist bis auf ganzzahlige Vielfache von 2π
bestimmt.
|z| =
√
Beispiel: z = 3 + 3i
√
32 + 32 = 3 2,
Da Re z, Im z > 0 entfällt
φ = arg z,
5π
4
Im z
3
sin φ
=
= =1
cos φ
Re z
3
π
5π
⇒ φ = + 2kπ oder φ =
+ 2kπ,
4
4
tan φ =
+ 2kπ.
Im z ✻
(3 + 3i)
3
|
2.3.3.1.1
a
Re z
b
Im z
=
, sin φ =
=
|z|
|z|
|z|
|z|
⇒ z = a + ib = |z| cos φ + i|z| sin φ = |z|(cos φ + i sin φ)
|z
cos φ =
φ=
π
4
✲
3
Re z
k∈Z
2.3. KÖRPER DER KOMPLEXEN ZAHLEN
21
√ π
π
3 + 3i = 3 2 cos + i sin
4
4
Weiter zur Multiplikation (Verwendung von Additionstheoremen für die WinkelfunktionenIII ):
z1 z2 = |z1 | (cos φ1 + i sin φ1 ) |z2 | (cos φ2 + i sin φ2 )
= |z1 ||z2 | [(cos φ1 cos φ2 − sin φ1 sin φ2 ) + i (sin φ1 cos φ2 + sin φ2 cos φ1 )]
= |z1 ||z2 | [cos(φ1 + φ2 ) + i sin(φ1 + φ2 )]
Im z
z1 z2
|z1 ||z2 |
z2
|z2 |
φ2
z1
|z1 |
φ1
φ1 + φ2
Re z
4) Division (z2 6= 0)
z1
z1 z2
1
|z1 | (cos φ1 + i sin φ1 ) |z2 | (cos φ2 − i sin φ2 )
=
=
z2
z2 z2
|z2 |2
|z1 |
=
(cos(φ1 − φ2 ) + i sin(φ1 − φ2 ))
|z2 |
Multiplikation (Division) komplexer Zahlen bedeutet dann Multiplikation (Division) der
Beträge und Addition (Subtraktion) der Argumente. Insbesondere gilt die folgende Formel
III
siehe Vorlesung Analysis, Tafelwerk o.ä.
22
KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN
von Moivre für Potenzen einer komplexen Zahl z:
z 2 = (|z|(cos φ + i sin φ))2 = |z|2 (cos 2φ + i sin 2φ)
..
.
n
z = |z|n (cos(nφ) + i sin(nφ)) , n ∈ N
2.3.3.1.2
Beispiel:

 =−1
=0
π 6
π
z }| { z }| {
( 3 − i)6 = 26 cos −
+ i sin −
= 64 cos(−π) +i sin(−π) = −64
6
6
√
2.3.4
Konvergenzbegriff in C
Mit dem Betrag | · | einer komplexen Zahl ist ein Abstandsbegriff zwischen z1 , z2 ∈ C
festgelegt. Damit ergibt sich die ε-Umgebung Uε (a) = {z ∈ C ||z − a| < ε } von a ∈ C als
Innneres der Kreisfläche mit Mittelpunkt a und Radius ε > 0.
2.3.4.1
Definitionen
i) Eine Abbildung
∈
∈
N → C
n 7→ an
heißt komplexe Zahlenfolge.
ii) Eine Zahlenfolge (an ) ⊂ C konvergiert gegen a ∈ C (limn→∞ an = a) genau dann,
wenn limn→∞ |an − a| = 0 gilt, d.h. zu jedem ε > 0 muss ein Index n0 = n0 (ε)
existieren, so dass
|an − a| < ε für alle n ≥ n0
erfüllt ist.
Im z
Uε (a) = {z ∈ C ||z − a| < ε }
a
ε
an
Re z
2.3. KÖRPER DER KOMPLEXEN ZAHLEN
23
2.3.4.1.1 Folgerung: Da beim Übergang zu komplexen Zahlenfolgen |·| nur als Betrag
komplexer Zahlen zu lesen ist, übertragen sich alle Rechenregeln und Konvergenzkriterien
wörtlich mit Ausnahme solcher, in denen Ordnungsrelationen zwischen den Folgegliedern
eine Rolle spielen (z.B. keine Monotonie!).
2.3.4.2
Beispiele
lim 4 + 2i
n2 n4 + 2i
4n + 2in2
0 + 2i
n→∞ n
a) lim
=
=
lim
= 2i,
=
3i
3i
n→∞ n2 − 3i
n→∞ n2 1 − 2
1
−
0
1
−
lim
2
n
n
n→∞
b) limn→∞ z n = 0 für z ∈ C, |z| < 1, denn
∈R
z}|{
lim |z| n = 0 und |z|n = |z n | = |z n − 0|.
n→∞
2.3.4.2.1
Bemerkung: Dabei gilt folgende Beziehung:
lim an = a in C
n→∞
⇔
lim Re an = Re a und lim Im an = Im a in R
n→∞
n→∞
da |an − a|2 = (Re (an − a))2 + (Im (an − a))2 .
2.3.5
Komplexe Reihen
Mit dem obigen Grenzwertbegriff kann man auch unendliche Reihen mit komplexen Koeffizienten betrachten, inbesondere Potenzreihen
P (z) :=
∞
X
n=0
an (z − z0 )n ,
für z0 , z ∈ C
mit an ∈ C. Hat P (z) einen Konvergenzradius ρ > 0, so konvergiert diese Potenzreihe für
alle z ∈ Uρ (z0 ) (Konvergenzkreis).
2.3.5.1
Beispiele
a) Geometrische Reihe: Für z ∈ C, |z| < 1 gilt
∞
n
X
X
1−0
1
1 − z n+1
k
k
=
=
,
z = lim
z = lim
n→∞
n→∞
1
−
z
1
−
z
1
−
z
k=0
k=0
sonst Divergenz. Diese Potenzreihe hat Konvergenzradius ρ = 1.
b) Die Potenzreihen für exp, sin, cos, sinh, cosh IV haben Konvergenzradius ρ = ∞.
Folglich können diese Funktionen für alle komplexen Argumente erklärt werden.
IV
siehe Vorlesung Analysis
24
KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN
Kapitel 3
Vektorräume und lineare Abbildungen
3.1
Vektorräume
3.1.1
Definition des Vektorraums
Ein Vektorraum besteht aus einer Menge V von Elementen, die wir Vektoren nennen, und
die folgenden Gesetzen genügt:
3.1.1.0.1 Verknüpfung von Vektoren: Es gibt eine Verknüpfung + auf V , die je
zwei Vektoren v und w einen Vektor v + w ∈ V zuordnet, so dass für alle u, v, w ∈ V die
folgenden Eigenschaften erfüllt sind:
• Assoziativtät
u + (v + w) = (u + v) + w
• Existenz des Nullvektors
Es gibt einen Vektor, den wir mit 0 bezeichnen, mit folgender Eigenschaft
v+0=v
• Existenz negativer Vektoren
Zu jedem Vektor v gibt es einen Vektor, den wir −v nennen, mit
v + (−v) = 0
• Kommutativität
u+v =v+u
25
26
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
3.1.1.0.2 Verknüpfung von Skalaren und Vektoren: Für jeden Vektor v ∈ V und
jedes Skalar λ ∈ R ist ein Vektor λ · v ∈ V definiert (das Objekt λ · v (für das wir auch
kurz λv schreiben) soll also ein Element von V sein). Diese Bildung des skalaren Vielfachen
ist so, dass für alle λ, µ ∈ R und für alle Vektoren v, w ∈ V die folgenden Eigenschaften
gelten:
• Assoziativität
(λ · µ) · v = λ · (µ · v)
• Vielfachbildung mit 1
• Distributivität
1·v =v
(λ + µ) · v = λ · v + µ · v
λ · (v + w) = λ · v + λ · w
3.1.1.1
Bemerkungen
1) Kurz kann man einen Vektorraum V dadurch charakterisieren, dass (V, +) eine additive abelsche Gruppe bildet und dass auf V zusätzlich eine Vielfachbildung mit
Skalaren λ ∈ R erklärt ist, welche den obigen Gesetzen genügt.
2) Genauer ist V ein reeller Vektorraum oder auch ein Vektorraum über dem Körper R.
Allgemein: Vektorraum über einem Körper K (Hier wird R durch K ersetzt.)
3) Aus den Eigenschaften von Gruppen (siehe Abschnitt 1.3.3) folgt die Eindeutigkeit
des Nullelements 0 ∈ V (v + 0 = 0 + v = v für alle v ∈ V ), sowie die Eindeutigkeit
des negativen Vektors −v zu v (v + (−v) = (−v) + v = 0).
Schreibweise: v + (−w) =: v − w
3.1.1.2
Folgerungen
0 · v = 0 für alle v ∈ V
(−1) · v = −v für alle v ∈ V
3.1.1.3
Beispiele
1) In der Ebene zeichnen wir einen Ursprung O aus und identifizieren jeden Punkt
P mit der Verschiebung (Translation), welche O auf P abbildet. Vektoren sind die
Translationen.
3.1. VEKTORRÄUME
27
P
P
0
Addition von Vektoren ist die Hintereinanderausführung von Translationen.
v1 + v2
v2
v1
0
Das λ-fache ist die Verschiebung um das λ-fache (Streckung).
λv1
0
v1
2) Prototyp eines Vektorraums
Rn = {(x1 , x2 , . . . , xn ) | xi ∈ R}
mit
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
und
λ(x1 , . . . , xn ) = (λx1 , . . . , λxn ),
λ∈R
3) Menge F aller reellen Funktionen, d.h. aller Abbildungen f : R → R (Vektoren sind
Funktionen)
(f + g)(x) := f (x) + g(x) für x ∈ R
(λf )(x) := λ · f (x) für λ, x ∈ R
28
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
3.1.2
Untervektorräume
Frage: Sind Teilmengen U ⊆ V wieder Vektorräume? Im Allgemeinen nicht, denn
+:U ×U →V ⊇U
Zum Beispiel im R2 :
v1 + v2 ∈
/U
v2
v1
U
0
Eine Teilmenge U ⊆ V heißt Untervektorraum, kurz Unterraum des Vektorraums V ,
falls U mit den in V gegebenen Verknüpfungen selbst wieder ein Vektorraum ist.
3.1.2.0.1
Folgerung: {0} und V sind Unterräume von V .
Allgemein gilt das
3.1.2.0.2
Unterraumkriterium: U ⊆ V ist Unterraum von V genau dann, wenn
1) U 6= ∅
2) für u1 , u2 ∈ U ist u1 + u2 ∈ U
3) für u ∈ U, λ ∈ R ist λu ∈ U
Beweis:
(⇒) Notwendigkeit der 3 Bedingungen klar nach Definition des Unterraums.
(⇐) Hinlänglichkeit der 3 Bedingungen: Assoziativ-, Kommutativ- und Distributivgesetze
und 1 · v = v gelten in V , also auch in U ⊆ V .
Nach den Bedingungen 2), 3) führen + und · nicht aus U hinaus. Weiterhin ist
0 = 0 · u ∈ U nach Bedingung 3) und −u = (−1) · u ∈ U nach Bedingung 3) für
u ∈ U.
3.1. VEKTORRÄUME
3.1.2.0.3
3.1.2.1
29
Bemerkung: Die Bedingung 1) kann ersetzt werden durch 0 ∈ U.
Beispiele
1) R3 ⊇ E = {(x1 , x2 , 0) | x1 , x2 ∈ R} ist Unterraum von R3
2) R2 : Sei L ⊆ R2 die Lösungsmenge der Gleichung 4x + 3y = 0, d.h. L = {(x, y) |
4x + 3y = 0}. L ist Unterraum von R2 .
3) F ⊇ F′ = {f : R → R | f (−1) = 0, f (16π) = 0} ist Unterraum von F .
Kein Unterraum wäre beispielsweise F ⊇ F′ = {f : R → R | f (−1) = 8, f (16π) = 0}.
4) Sind U1 , U2 Unterräume von V , so ist U1 ∩ U2 wieder Unterraum von V , denn 0 ∈
U1 , 0 ∈ U2 ⇒ 0 ∈ U1 ∩ U2 ⇒, so dass Bedingung 1) erfüllt ist. Ebenso sind die
Bedingungen 2) und 3) des Unterraumkriteriums erfüllt.
5) Seien v1 , . . . , vn ∈ V . Dann ist
Pm
λi vi
i=1
}|
{
z
lin(v1 , . . . , vm ) = {v ∈ V | v = λ1 v1 + λ2 v2 + . . . + λm vm , λi ∈ R}
die Menge aller Linearkombinationen von v1 , . . . , vm und heißt lineare Hülle von
v1 , . . . , vm .
Behauptung:
Lm = lin(v1 , . . . , vm ) ist Unterraum von V ,
denn 0 = 0 · v1 + . . . + 0 · vm ∈ Lm Damit ist Bedingung 1) des Unterraumkriteriums
erfüllt.
(λ1 v1 + . . . + λm vm ) + (µ1 v1 + . . . + µm vm ) = (λ1 + µ1 )v1 + . . . + (λm + µm )vm ∈ Lm
Damit ist Bedingung 2) des Unterraumkriteriums erfüllt.
λ(λ1 v1 + . . . + λm vm ) = (λλ1 )v1 + . . . + (λλm )vm ∈ Lm
Damit ist Bedingung 3) des Unterraumkriteriums erfüllt.
3.1.2.1.1
Beispiele:
1)
lin{(1, 0, 0), (1, 2, 1)} = {x ∈ R3 | x = (x1 , x2 , x3 ) = λ(1, 0, 0) + µ(1, 2, 1), λ, µ ∈ R}
= {(x + µ, 2µ, µ) | λ, µ ∈ R}
30
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
2)
lin{(1, 0), (0, 1)} = {x ∈ R2 | x = (x1 , x2 ) = λ(1, 0) + µ(0, 1)}
= {(λ, µ) | λ, µ ∈ R} = R2
3) Lösungsmenge L = {(x, y) | 4x + 3y = 0} ⊆ R2
4 4
4 L=
x, − x x ∈ R = x 1, − x ∈ R = lin 1, −
3
3
3
1, − 43
L
3.1.3
Operationen mit Unterräumen
3.1.3.0.1 Durchschnitt: Unmittelbar aus dem Unterraumkriterium 3.1.2.0.2 ergibt
sich: Sei V ein Vektorraum und U1 , U2 Unterräume zu V . Dann ist U1 ∩ U2 ein Unterraum.
U2
U1
0
3.1.3.0.2
Summe
U1 , U2 ⊂ R2
Summe: Im Allgemeinen ist U1 ∪ U2 kein Unterraum. Als „Ersatz“ dient die
U1 + U2 = {v ∈ V | v = u1 + u2 mit ui ∈ U}
Nach Unterraumkriterium ist U1 + U2 wieder ein Unterraum, denn
1) 0 = 0 + 0,
0 ∈ U1 , 0 ∈ U2
3.1. VEKTORRÄUME
31
e ) falls u1 , u
e1 ∈ U1 , u2 , u
e2 ∈ U2
2) (u1 + u2 ) + (e
u1 + u
e2 ) = (u1 + u
e ) + (u + u
| {z 1} | 2 {z 2}
∈U1
∈U2
3) λ(u1 + u2 ) = λu1 + λu2
|{z} |{z}
∈U1
3.1.3.0.3
∈U2
Beispiele:
• {0} + U = U
• U +V =V
• U + U = U, denn u1 + u2 ∈ U für u1 , u2 ∈ U also U + U ⊆ U. Andererseits ist
u = u + 0 ∈ U + U ⇒ U ⊆ U + U.
3.1.3.0.4 Behauptung: U1 + U2 ist die Menge L aller Linearkombinationen, die man
aus Elementen von U1 ∪ U2 bilden kann.
Beweis:
1) u1 + u2 ist Linearkombination zweier Elemente u1 ∈ U1 ⊆ U1 ∪ U2 und u2 ∈ U2 ⊆
U1 ∪ U2 ⇒ U1 + U2 ⊆ L.
2) Sei v ∈ L. So gibt es v1 , . . . , vm ∈ U1 ∪ U2 , so dass
v = λ1 v1 + λ2 v2 + . . . + λm vm
|
{z
}
P
m
i=1
mit λi ∈ R.
λi vi
O.B.d.A.I sei v1 , . . . , vr ∈ U1 , vr+1 , . . . , vm ∈ U2 .
⇒v=
r
X
λi vi +
|i=1{z }
∈U1
also v ∈ U1 + U2 .
3.1.3.0.5
II
m
X
λj vj
j=r+1
|
{z
∈U2
II
}
Folgerung:
lin(v1 , . . . , vm ) = lin(v1 , . . . , vr ) + lin(vr+1 , . . . , vm ) für 1 ≤ r ≤ m − 1
I
II
O.B.d.A. – Ohne Beschränkung der Allgemeinheit
wegen der Unterraum-Eigenschaft von Ui
32
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
3.2
Basis und Dimension
3.2.1
Definition der linearen Unabhängigkeit
Sei v1 , . . . , vm ∈ V und V ein Vektorraum. Man nennt v1 , . . . , vm linear unabhängig, falls
zwischen ihnen nur die triviale Nullrelation gibt, d.h. aus λ1 v1 + λ2 v2 + . . . + λm vm = 0
folgt λi = 0 für i = 1, . . . , m.
Andernfalls heißen v1 , . . . , vm linear abhängig. In diesem Fall gibt es ein λj 6= 0, j ∈
{1, . . . , m}, so dass 0 = λ1 v1 + . . . + λm vm .
3.2.1.1
Beispiele
1) v1 = (1, 2), v2 = (1, 1), v3 = (7, 7)
v3
7
6
5
4
3
2
1
v1
v2
1
2
3
4
5
6
7
v1 , v2 , v3 sind linear abhängig in R2 , denn
0 · v1 + 7 · v2 + (−1) · v3
v1 , v2 sind jedoch linear unabhängig, denn sei
λ1 v1 + λ2 v2 = (λ1 + λ2 , 2λ1 + λ2 ) = (0, 0)
so folgt
λ1 + λ2 = 0
2λ1 + λ2 = 0
⇒ λ1 = 0, λ2 = 0
3.2. BASIS UND DIMENSION
33
2) f1 (x) = 2, f2 (x) = x, f3 (x) = 2.5x, f4 (x) = x4 für x ∈ R
Dann sind f1 , f2 , f3 , f4 linear abhängig in F := {f | f : R → R}, denn
0 · f1 (x) + 2.5f2 (x) + (−1)f3 (x) + 0 · f4 (x) = 0 für x ∈ R
m. a. W.III f3 = 2.5f2
f1 , f2 , f4 sind linear abhängig, denn sei
λ1 f1 (x) + λ2 f2 (x) + λ4 f4 (x) = 0 für alle x ∈ R
2λ1 + λx + λ4 x4 = 0
speziell:
x = 0 ⇒ λ1 = 0
x = ±1 ⇒ 2λ1 ± λ2 + λ4 = 0
3.2.2
λ2 + λ4 = 0
−λ2 + λ4 = 0
⇒ λ4 = 0, λ2 = 0.
Charakterisierung der linearen Abhängigkeit
Die Vektoren v1 , . . . , vm ∈ V sind linear abhängig genau dann, wenn es (mindestens) ein
vj , j ∈ {1, . . . , m} gibt, mit vj ∈ lin{v1 , . . . , vj−1 , vj+1, . . . , vm }.
Beweis:
(⇒) Seien v1 , . . . , vm linear abhängig, so gibt es λj 6= 0 mit
λ1 v1 + . . . + λj vj + . . . + λm vm = 0
vj = −
λj−1
λj+1
λm
λ1
v1 − . . . −
vj−1 −
vj+1 − . . . −
vm
λj
λj
λj
λj
⇒ vj ∈ lin(v1 , . . . , vj−1, vj+1 , . . . , vm ).
(⇐) Sei vj ∈ lin(v1 , . . . , vj−1 , vj+1, . . . , vm ), d.h.
vj =
m
X
µi vi mit µi ∈ R ⇒
i = 1,
i 6= j
m
X
µi vi + (−1)vj = 0.
i = 1,
i 6= j
D.h. es gibt eine nichttriviale Nullrelation zwischen v1 , . . . , vm .
Zum Beispiel in 1):
v3 = (7, 7) = 7 · v2 + 0 · v1
also v3 ∈ lin{v1 , v2 }, aber v1 lässt sich nicht aus v2 , v3 linear kombinieren.
III
m. a. W. – mit anderen Worten
34
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
3.2.2.1
Weitere Folgerungen
1) Enthält {v1 , . . . , vm } den Nullvektor, so sind v1 , . . . , vm linear abhängig.
2) v1 ist linear unabhängig ⇔ v1 6= 0.
3) v1 , v2 sind linear unabhängig genau dann, wenn keine der beiden Vektoren ein Vielfaches des anderen ist.
3.2.3
Definition eines Erzeugendensystems
Man nennt {v1 , . . . , vm } ein Erzeugendensystem von V , falls
V = lin(v1 , . . . , vm ).
Sind zusätzlich v1 , . . . , vm linear unabhängig, so heißt {v1 , . . . , vm } eine Basis von V .
3.2.3.1
Beispiele
Im Rn bildet die Menge {e1 , . . . , en } eine Basis, wenn
e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , ei = (0, . . . , |{z}
1 , . . . , 0), . . . , en = (0, . . . , 1).
i-te Stelle
• R1
e1
0
1
• R2
x2
e2
0
e1
x1
Diese Basis heißt kanonische Basis von Rn und e1 , . . . , en die Einheitsvektoren.
• {e1 , . . . , en } ist Erzeugendensystem, denn für jedes x ∈ Rn gilt
x = (x1 , . . . , xn ) = x1 (1, 0, . . . , 0) + x2 (0, 1, . . . , 0) + . . . + xn (0, . . . , 0, 1) =
n
X
i=1
d.h. Rn = lin(e1 , . . . , en ).
xi ei
3.2. BASIS UND DIMENSION
35
• e1 , . . . , en sind linear unabhängig, denn aus
λ1 , e1 + . . . + λn en = (λ1 , . . . , λn ) = 0
folgt
λ1 = λ2 = . . . = λn = 0.
Auch {e1 , . . . , en , (1, 1, . . . , 1)} ist Erzeugendensystem von Rn , denn
x=
n
X
i=1
xi ei + 0 · (1, 1, . . . , 1) für jedes x ∈ Rn .
Aber: {e1 , . . . , en , (1, 1 . . . , 1)} ist keine Basis, weil
(1, 1, . . . , 1) = e1 + . . . + en .
3.2.4
Eigenschaften einer Basis
3.2.4.0.1 Folgerung: Jeder Vektor v ∈ V lässt sich eindeutig als Linearkombination
von Elementen einer Basis von V darstellen.
Beweis: durch Koeffizientenvergleich (Übungsaufgabe)
3.2.4.0.2 Satz über die Existenz einer Basis: Sei V = lin(v1 , . . . , vm ), so besitzt
V eine Basis oder V = {0}.
Beweis:
1) Sind v1 , . . . , vm linear unabhängig, so ist v1 , . . . , vm eine Basis.
2) Andernfalls gibt es vj , j ∈ {1, . . . , m}, so dass vj ∈ lin(v1 , . . . , vj−1, vj+1 , . . . , vm ).
Bm−1 := Bm \ {vj }
Dann ist V = lin(Bm−1 ), denn für beliebiges v ∈ V gilt
v=
m
X
λi vi
i=1
Außerdem ist
vj =
m
X
µk vk
k = 1,
k 6= j
⇒ v = (λ1 + λj µ1 )v1 + . . . + (λj−1 + λj µj−1 )vj−1
+ (λj+1 + λj µj+1)vj+1 + . . . + (λm + λj µm )vm
V ⊆ lin(Bm−1 ) ⊆ lin(Bm ) = V
36
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
3) Sind die Vektoren aus Bm−1 linear abhängig, so verfahre wie im 2. Schritt.
4) Das Verfahren endet nach endlich vielen Schritten, weil
|Bm | = m
m − 1 = |Bm−1 |
>
Endergebnis ist eine Menge Bn , n ∈ N von linear unabhängigen Vektoren mit
V = lin(Bn )
(also eine Basis von V ) oder mit B1 = {w}, w ∈ Bm und B1 linear abhängig.
(V = lin{0} = {0})
⇒w=0
3.2.4.0.3 Bemerkung: Der Beweis zeigt, dass eine Basis ein Erzeugendensystem ist,
welches nicht mehr verkürzt werden kann.
3.2.4.1
Wieviele Elemente hat eine Basis?
3.2.4.1.1 Austauschlemma: Sei B = {v1 , . . . , vm } eine Basis von V . Dann gibt es zu
jedem w ∈ V, w 6= 0 ein v ∈ B, so dass
B ′ = (B \ {v}) ∪ {w}
wieder eine Basis besitzt.
Beweis:
Wegen V = lin(v1 , . . . , vm ) besitzt w die Darstellung
w=
m
X
(3.2.4.1)
λj vj
j=1
Weil w 6= 0, muss ein λj 6= 0 sein, beispielsweise λk 6= 0 mit k ∈ {1, . . . , m}. Wir setzen
v = vk und überprüfen B ′ auf Basiseigenschaften:
1) B ′ ist Erzeugendensystem von V , denn aus (3.2.4.1) folgt:
m
X
1
vk = w −
λj vj
λk
j = 1,
j 6= k
∈ lin(B ′ )
V = lin(v1 , . . . , vm ) ⊆ lin(B ′ ) ⊆ V.
⇒
2) B ′ ist linear unabhängig, denn sei
µ0 w +
m
X
µj vj = 0.
j = 1,
j 6= k
3.2. BASIS UND DIMENSION
a) µ0 = 0
⇒
m
X
37
µj vj = 0 · vk = 0 ⇒ µ1 = 0, µ2 = 0, . . . , µm = 0
j = 1,
j 6= k
wegen linearen Unabhängigkeit von v1 , . . . , vm .
b) µ0 6= 0
Unter Verwendung von (3.2.4.1) ist
(µ1 + λ1 µ0 )v1 + . . . + (µk−1 + λk−1 µ0 )vk−1 + µ0 λk vk + . . . + (µm + λm µ0 )vm = 0
Das ist nichttriviale Nullrelation der Elemente aus B im Gegensatz zu linearen
Unabhängiggkeit. Somit kann der Fall 2b) nicht eintreten.
3.2.4.1.2 Ergänzung zum Austauschlemma: Als v kann jeder Vektor vj genommen
werden, für den in (3.2.4.1) das λj 6= 0 ist.
3.2.4.1.3
Beispiel: R3 = lin(e1 , e2 , e3 ), w = (7, −4, 0) 6= 0, so gilt
w = 7e1 − 4e2 + 0e3
In Basis {e1 , e2 , e3 } kann w gegen e1 bzw. gegen e2 getauscht werden.
3.2.4.1.4 Austauschsatz von Steinitz (1913): Sei B = {v1 , . . . , vn } eine Basis von
V und w1 , . . . , wm linear unabhängige Vektoren. Dann gibt es n − m Vektoren aus B,
o.B.d.A. vm + 1, . . . , vn , so dass
{w1 , . . . , wm , vm+1 , . . . , vn }
wieder eine Basis von V bildet. D.h., in B können v1 , . . . , vm durch w1 , . . . , wm ausgetauscht
werden.
Beweis: (über vollständige Induktion nach m)
• Induktionsanfang:
m = 1: Aussage des Austauschlemmas
• Induktionsvorraussetzung:
Sei Aussage richtig für m − 1 linear unabhängige Vektoren.
• Induktionsbehauptung:
Dann gilt Satz auch für eine Menge C = {w1 , . . . , wm } von linear unabhängigen
Vektoren.
38
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
• Induktionsschluss
Auf C ′ = C \ {wm } können wir (IV) anwenden. Folglich ist
B ′ = {w1 , . . . , wm−1 , vm , . . . , vn }
eine Basis von V .
Einbauen von wm in B ′ durch Anwendung des Austauschlemmas. Beachte wm 6= 0,
da C linear unabhängig ist.
⇒ (B ′ \ {v}) ∪ {wm }
ist wieder Basis mit v ∈ B ′ . Dabei kann v ∈ {vm , . . . , vn } gewählt werden, denn in
der Darstellung
wm = µ1 w1 + . . . + µm−1 wm−1 + λm vm + . . . + λn vn
können nicht alle λi = 0 sein, sonst
wm = µ1 w1 + . . . + µm−1 wm−1
im Widerspruch zur linearen Unabhängigkeit von C.
Ergänzung zum Austauschlemma ergibt die Behauptung.
3.2.4.2
Wichtige Folgerungen aus dem Austauschsatz
1) Jede Menge C = {w1 , . . . , wm } von linear unabhängigen Vektoren kann zu einer Basis
von V ergänzt werden (Basisergänzungssatz ).
Dabei gilt
|C| = m
≤
n = |B|.
2) Alle Basen von V haben die gleiche Anzahl von Elementen. Diese Zahl heißt Dimension des Vektorraums V (dim V ).
Beweis:
Aus Folgerung 1. ergibt sich für 2 Basen B1 , B2 :
|B2 | ≤ |B1 |
(B = B1 , C = B2 )
|B1 | ≤ |B2 |
(B = B2 , C = B1 ).
und
Zum Beispiel:
Rn = lin(e1 , . . . , en )
e1 , . . . , en Basis ⇒ dim Rn = n.
3.2. BASIS UND DIMENSION
39
3) Sei dim V = n, so hat jede Menge C linear unabhängige Vektoren höchstens n Elemente. Ist |C| = n, so bildet C eine Basis von V .
Gegenbeispiel:
In F := {f | f : R → R} gibt es für jedes k ∈ N genau k linear unabhängige
Elemente, beispielsweise
p1 (x) = x, p2 (x) = x2 , . . . , pk (x) = xk ,
x ∈ R.
Überprüfung auf lineare Unabhängigkeit: Sei
k
X
i=1
λi pi (x) =
k
X
i=1
λi xi = 0 für alle x ∈ R
⇔ x(λ1 + x(λ2 + x(λ3 + . . . + x(λk−1 + xλk ) . . .) = 0
| {z }
k−1
Klammern
⇒ λ1 + x(λ2 + . . . + x(λk−1 + xλk ) . . .) = 0 für alle x ∈ R.
Mit x = 0 folgt: λ1 = 0
⇒ x(λ2 + . . . + xλk ) . . .) = 0 für alle x ∈ R
⇒
λ2 = 0, . . . , λk = 0.
D.h., in F gibt es Mengen linear unabhängiger Elemente beliebiger Anzahl. Somit
kann F keine endliche Dimension haben. (Schreibweise: dim F = ∞)
4) Seien U1 , U2 zwei Unterräume des Vektorraums V mit U1 ⊆ U2 . Dann gilt dim U1 ≤
dim U2 .
dim U1 = dim U2 ⇔ U1 = U2 .
5) Dimensionsformel:
dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 )
Beweis:
a) Wir wählen Basis {v1 , . . . , vm } von U0 := U1 ∩ U2 ⊆ V und ergänzen diese zu
Basen
B1 := {v1 , . . . , vm , vm+1 , . . . , vk } von U1
B2 := {v1 , . . . , vm , wm+1 , . . . , wl } von U2 .
Mit C := B1 ∪ B2 = {v1 , . . . , vk , wk+1 , . . . , wl } gilt
|C| = |B1 | + |B2 | − |B1 ∩ B2 | = k + l − m
= dim U1 + dim U2 − dim U0 .
40
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
b) Wir zeigen C ist eine Basis von U1 + U2 .
b1) Wir haben
U1 + U2 = lin B1 + lin B2 = lin C
⇒ C ist Erzeugendensystem von U1 + U2 .
b2) Zur linearen Unabhängigkeit betrachten wird die Nullrelation
k
X
λi vi +
−
|
λi vi =
i=1
{z
∈U1
}
l
X
µj wj
j=m+1
|
{z
∈U2
Folglich gilt die Darstellung
µj wj = 0
(3.2.4.2)
j=m+1
i=1
k
X
l
X
∈ U1 ∩ U2 = lin(v1 , . . . , vm ).
}
µm+1 wm+1 + . . . + µl wl = α1 v1 + · · · + αm vm .
Wegen linearer Unabhängigkeit von B2 muss
α1 = α2 = . . . = αm = 0,
µm+1 = . . . = µl = 0
sein. Damit lautet (3.2.4.2):
λ1 v1 + λ2 v2 + . . . + λk vk = 0.
Wegen linearer Unabhängigkeit von B1 muss
λ1 = λ2 = . . . = λk = 0
sein, also (3.2.4.2) kann nur trivial sein und C ist Basis.
Spezialfall: Ist U1 + U2 = V und U1 ∩ U2 = {0}, so heißen U1 und U2 komplementäre
Unterraum (Bezeichnung: U1 ⊕ U2 als direkte Summe von U1 und U2 ).
dim U1 + dim U2 = dim V.
Beispiele:
i) Im R2 sind je 2 verschiedene eindimensionale Unterraum komplementär, z.B.
lin ((1, 1)) ⊕ lin ((1, 2)) = R2
3.2. BASIS UND DIMENSION
41
x2
lin((1, 2))
7
lin((1, 1))
6
5
4
3
2
1
1
2
3
4
5
6
7 x1
ii) Im R3 ist jeder zweidimensionale Unterraum U1 komplementär zu jedem Unterraum U2 = lin(v) mit v ∈
/ U1 .
x3
v
x2
U1
U2
x1
6) Allgemein gilt: Jeder Unterraum U1 des Vektorraums V besitzt einen komplementären
Unterraum.
42
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
Beweis:
a) Sei U1 ein Unterraum mit der Basis
B1 := {v1 , . . . , vm }.
Ergänze diese zu einer Basis
B := {v1 , . . . , vm , vm+1 , . . . , vn }
von V . Setze
U2 := lin{vm+1 , . . . , vn }.
Dann gilt:
U1 + U2 = lin B1 + lin{vm+1 , . . . , vn } = lin B = V.
b) Zu zeigen U1 ∩ U2 = {0}. Sei v ∈ U1 ∩ U2 , so gilt
v = λ1 v1 + . . . + λm vm
∈ U1
und
v = λm+1 vm+1 + . . . + λn vn
∈ U2 .
Das liefert
λ1 v1 + . . . + λm vm −λm+1 vm+1 − . . . − λn vn = v + (−v) = 0.
|
{z
}|
{z
}
=v
=−v
Wegen linearen Unabhängigkeit von B kann diese Nullrelation nur trivial sein,
also λi = 0 für alle i = 1, . . . , n
⇒ v = 0.
Bedeutung: Eindeutige Zerlegung jedes Vektors v ∈ V bezüglich komplementärer
Unterraum (s. Übungsaufgabe).
Zum Beispiel:
v = (−3, 0) = λ1 (1, 1) + λ2 (1, 2)
⇔
−3 = λ1 + λ2
0 = λ1 + 2λ2
(−3, 0) = −6(1, 1) + 3(1, 2)
⇒
λ2 = 3
λ1 = −6
3.3. LINEARE ABBILDUNGEN
43
x2
U1 lin((1, 2)) U
2
7
lin((1, 1))
6
5
4
3
2
1
v
-3
3.3
-2
-1
1
2
3
4
5
6
7 x1
Lineare Abbildungen
Wir untersuchen hier „strukturerhaltende“ Abbildungen zwischen Vektorräumen und Fragestellungen wie
• Wann sind zwei Vektorräume im wesentlichen gleich?
• Durch welche Daten ist ein Vektorraum eindeutig bestimmt?
3.3.1
Definitionen
Seien V und W Vektorräume über R. Eine Abbildung f : V → W heißt lineare Abbildung
oder Homomorphismus, wenn für alle v, v ′ ∈ V und alle λ ∈ R gilt:
Additivität:
Homogenität:
f (v + v ′ ) = f (v) + f (v ′) ,
f (λv) = λf (v) .
Die Menge aller Homomorphismen von V nach W wird mit Hom(V, W ) bezeichnet.
Eine lineare Abbildung f : V → W heißt
Isomorphismus,
wenn sie bijektiv,
Endomorphismus, wenn V = W und
Automorphismus, wenn sie bijektiv und V = W
ist.
Wir bezeichnen den Teil von W , welcher von f erfaßt wird, mit
Bild(f ) := {w ∈ W | es gibt v ∈ V mit f (v) = w} ,
44
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
und außerdem sei
Kern(f ) := {v ∈ V | f (v) = 0} = f −1 ({0}) .
3.3.2
Eigenschaften
1) f (0) = 0, denn f (0) = f (0 · v) = 0 · f (v) = 0 mit v ∈ V
Hom.
2) f ist surjektiv ⇔ Bild(f ) = W
(Beweis nach Definition klar)
3) f ist injektiv ⇔ Kern(f ) = {0}
(Beweis siehe Übungsaufgabe)
4) Bild(f ) ist Unterraum von W .
Beweis: (Anwendung des Unterraumkriteriums)
i) Bild(f ) 6= ∅, weil 0 ∈ Bild(f ) nach 1)
ii) Ist w ∈ Bild(f ), so
λw = λf (v) = f (λv) ⇒ λw ∈ Bild(f )
Def.
Hom.
iii) Ist w1 , w2 ∈ Bild(f ), so
w1 + w2 = f (v1 ) + f (v2 ) = f (v1 + v2 )
Def.
Add.
⇒ w1 + w2 ∈ Bild(f )
Beispiele:
a) Nullabbildung: V → {0}
b) identische Abbildung idV : V → V
c) allgemeiner: Wähle festes α ∈ R und definiere f (v) = αv
d)
f:
R2 → R2
(x1 , x2 ) 7→ (x1 + x2 , x1 + x2 )
ist lineare Abbildung.
Bild(f ) = {(y1, y2 ) | y1 = x1 + x2 , y2 = x1 + x2 mit xi ∈ R}
= {(y1 , y1) | y1 ∈ R} = lin ((1, 1))
Kern(f ) = {(x1 , x2 ) | x1 + x2 = 0} = {(x1 , −x1 ) | x1 ∈ R} = lin ((1, −1))
3.3. LINEARE ABBILDUNGEN
45
y2
x2
f
y
Bild(f )
x1
Kern(f )
y1
e)
f:
R2 → R
(x1 , x2 ) 7→ x1 + x2 + 4
ist kein Homomorphismus, denn
f ((0, 0)) = 4 6= 0
f)
f:
ist kein Homomorphismus, denn
R2 → R
(x1 , x2 ) 7→ x1 x2
f (2(x1 , x2 )) = f ((2x1 , 2x2 )) = 2x1 · 2x2 = 4x1 x2 6= 2f ((x1 , x2 ))
5) Kern(f ) ist Unterraum von V .
(Beweis siehe Übungsaufgabe)
3.3.3
Weitere wichtige lineare Abbildung
Sind U1 , U2 komplementäre Unterräume des Vektorraums V , d.h. U1 + U2 = V, U1 ∩ U2 =
{0}, so gilt v = u1 + u2 mit eindeutig bestimmten ui ∈ Ui .
P : V → V mit P (v) = P (u1 + u2 ) := u1 , P = PU1
heißt Projektion von V auf U1 .
3.3.3.0.1
Beispiel:
R3 = {(x1 , x2 , x3 ) | xi ∈ R}
= {(x1 , x2 , 0) | x1 , x2 ∈ R} + {(0, 0, x3 ) | x3 ∈ R}
= lin(e1 , e2 ) + lin(e3 )
Projektion P von R3 auf U1 ist folglich
P ((x1 , x2 , x3 )) = (x1 , x2 , 0) .
46
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
x3
(x1 , x2 , x3 )
x2
e3
e2
e1
(x1 , x2 , 0) = P ((x1 , x2 , x3 ))
x1
Die Projektion P : V → V ist eine lineare Abbildung, denn
P (λv) = P (λ(u1 + u2 )) = P ( λu1 + λu2 ) = λu1 = λP (v)
|{z} |{z}
∈U1
∈U2
P (v + v ′ ) = P ((u1 + u2 ) + (u′1 + u′2 ))
= P ((u1 + u′1 ) + (u2 + u′2 ))
| {z } | {z }
= u1 +
∈U1
u′1 =
v ′ = u′1 + u′2
∈U2
P (v) + P (v ′ )
u′i ∈ Ui
Bild(P ) = U1 , Kern(P ) = U2 , denn sei
P (v) = 0 ⇔ u1 = P (u1 + u2 ) = 0 ⇔ v = 0 + u2
3.3.4
Bemerkungen
1) Hintereinanderausführung linearer Abbildungen ergibt wieder lineare Abbildung, denn
(g ◦ f )(λv) = g(f (λv)) = g(λf (v)) = λg(f (v)) = λ(g ◦ f )(v)
(g◦f )(v+v ′) = g(f (v+v ′)) = g(f (v)+f (v ′)) = g(f (v))+g(f (v ′)) = (g◦f )(v)+(g◦f )(v ′)
für alle v, v ′ ∈ V , λ ∈ R, wenn f, g lineare Abbildungen sind.
3.3. LINEARE ABBILDUNGEN
47
2) Die Menge Hom(V, W ) bildet selbst einen Vektorraum, wenn man definiert:
(f1 + f2 )(v) := f1 (v) + f2 (v)
(λf1 )(v) := λf1 (v)
für v ∈ V , λ ∈ R
und f1 , f2 ∈ Hom(V, W ). Nachweis der Linearität von f1 + f2 , λf1 und VektorraumEigenschaft sei Übungsaufgabe.
3.3.5
Bestimmung von linearen Abbildungen
durch die Bilder einer Basis B := {v1 , . . . , vn } des Vektorraums V .
1) Es gibt zu jedem n-Tupel (w1 , . . . , wn ) von Vektoren wi ∈ W genau eine lineare
Abbildung
f :V →W
mit f (vi ) = wi . M.a.W.IV : Eine lineare Abbildung ist durch die Bilder der Basisvektoren von V eindeutig festgelegt.
Beweis:
a) (Existenz von f )
Für v ∈ V = lin(v1 , . . . , vn ) gilt die eindeutige Darstellung
v = λ1 v1 + . . . + λn vn mit λi ∈ R
(3.3.5.3)
Wir definieren
f (v) := λ1 w1 + . . . + λn wn
Dann ist f : V → W und f linear.
f (vi ) = f (0 · v1 + . . . + 1 · vi + . . . + 0 · vn ) = 0 · w1 + . . . + 1 · wi + . . . + 0 · wn = wi
b) (Eindeutigkeit von f )
Sei f, f ′ ∈ Hom(V, W ) mit f (vi ) = wi und f ′ (vi ) = wi . Dann gilt
!
!
n
n
n
n
X
X
X
X
′
′
f (v)
=
f
λi vi =
λi f (vi ) =
λi f (vi ) = f
λi vi = f ′ (v)
(3.3.5.3)
i=1
i=1
i=1
i=1
für beliebiges v ∈ V .
IV
M.a.W. – Mit anderen Worten
⇒ f = f′
48
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
Bedeutung: Die gesamte Information über eine lineare Abbildung f : V → W steckt
in wi ∈ W . Ist dim W = m, so sind die w1 , . . . , wn durch n·m reelle Zahlen festgelegt.
Somit kann mit einer linearen Abbildung effektiv auf Computern gerechnet werden.
Man versucht deshalb viele nichtlineare Probleme auf lineare zurückzuführen.
2) Die lineare Abbildung f : V → W ist genau dann ein Isomorphismus, wenn
C := {f (v1 ), . . . , f (vn )}
eine Basis von W bilden.
Beweis:
(⇒) Sei f bijektiv. Wir prüfen C auf lineare Unabhängigkeit:
Sei
n
X
µi f (vi ) = 0,
i=1
so
f
d.h.
Pn
n
X
i=1
i=1
µi vi
!
= 0,
µi vi ∈ Kern(f ). Da Kern(f ) = {0} ist
n
X
µi vi = 0,
i=1
also µi = 0 wegen linearer Unabhängigkeit von B.
Wir zeigen lin C = W . Sei w ∈ W , so gibt es wegen der Surjektivität von f ein
v ∈ V mit w = f (v). Benutze (3.3.5.3), so folgt
!
n
n
X
X
w=f
λi vi =
λi f (vi )
i=1
i=1
(⇐) Sei C eine Basis von W . Zur Überprüfung der Injektivität berechnen wir Kern(f ).
Sei v ∈ V mit f (v) = 0. Mit (3.3.5.3) folgt:
!
n
n
X
X
0=f
λi vi =
λi f (vi ).
i=1
i=1
Wegen linearen Unabhängigkeit von C ist λ1 = λ2 = . . . = λn = 0, also v = 0.
D.h. Kern(f ) = {0}.
Zur Surjektivität von f : Jedes w ∈ W können wir eindeutig bezüglich der Basis
darstellen:
!
n
X
w = α1 f (v1 ) + . . . + αn f (vn ) = f
αi vi
Mit u :=
Pn
i=1
i=1
αi vi ist u ∈ V und w = f (u).
3.3. LINEARE ABBILDUNGEN
49
3) Wählen wir in 1) die w1 , . . . , wn als Basis von W (dim W = n), so ist f : V →
W ein Isomorphismus, d.h. es gilt der Fundamentalsatz für endlich dimensionale
Vektorräume:
Je zwei Vektorräume der gleichen Dimension sind isomorph.
Anwendungen:
a) Je zwei Basen eines Vektorraums V mit dim V = n können durch genau eine
lineare Abbildung ineinander überführt werden. Diese Abbildung ist ein Automorphismus (Basistransformation).
b) Wählt man W = Rn = lin(e1 , . . . , en ) und f (vi ) = ei , so ist f ein Isomorphismus
und
f (v)
=
(3.3.5.3)
=
n
X
f
n
X
λi vi
i=1
!
=
n
X
λi f (vi )
i=1
ei = (0, . . . , 1, . . . , 0)
λi ei = (λi , . . . , λn )
i=1
(Vektor der Koordinaten von v bezüglich Basis v1 , . . . , vn )
D.h.: Rechnen in V ist dasselbe wie Rechnen mit den Koordinatenvektoren
(bezüglich festgewählter Basis) im Rn .
3.3.6
Dimensionsformel für lineare Abbildungen
Sei dim V = n und f : V → W eine lineare Abbildung. Dann ist
dim(Kern(f )) + dim(Bild(f )) = n
Beweis:
a) Sei {v1 , . . . , vr } eine Basis von Kern(f ). Wir ergänzen diese zu einer Basis
B := {v1 , . . . , vr , vr+1 , . . . , vn }
von V und setzen wi := f (vr+i ), i = 1, . . . , n − r.
Für v ∈ V = lin (B) ist
f (v) = f
n
X
i=1
λi vi
!
=
n
X
λi f (vi )
i=1
⇒ f (v) = λi 0 + . . . + λr 0 + λr+1 w1 + . . . + λn wn−r
⇒ Bild(f ) = lin(w1 , . . . , wn−r )
(3.3.6.4)
50
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
b) Wir zeigen w1 , . . . , wn−r ist Basis von Bild(f ), d.h. die lineare Unabhängigkeit von
w1 , . . . , wn−r . Sei
µ1 w1 + . . . + µn−r wn−r = 0
so
f (µ1vr+1 + . . . + µn−r vn ) =
n−r
X
µi wi = 0
i=1
also
µ1 vr+1 + . . . + µn−r vn ∈ Kern(f ) = lin(v1 , . . . , vr )
r
X
µ1 vr+1 + . . . + µn−r vr =
αi vi .
i=1
Wegen linearer Unabhängigkeit von B muss
α1 = . . . = αr = 0, µ1 = . . . = µn−r = 0
sein. Somit sind w1 , . . . , wn−r linear unabhängig und
dim(Bild(f )) = n − r
3.3.6.0.1
Folgerung: Ist dim V = dim W = n, so ist f injektiv ⇔ f surjektiv, denn:
f injektiv ⇔ Kern(f ) = {0} ⇔ dim Kern(f ) = 0
⇔ dim(Bild(f )) = n ⇔ Bild(f ) = W ⇔ f surjektiv
(3.3.6.4)
3.4
Affine Unterräume
Bisher beschäftigten wir uns mit speziellen Teilmengen, welche die lineare Struktur eines
Vektorraums V repräsentieren (nämlich die linearen Untervektorräume).
Zur Erfassung der geometrischen Eigenschaften unseres Anschauungsraumes benötigen wir
Teilmengen, welche die affine Struktur repräsentieren.
3.4.1
Eigenschaften affiner Unterräume
3.4.1.0.1 Definition: Eine nichtleere Teilmenge A ⊆ V heißt affiner Unterraum von
V , wenn für jedes a ∈ A die Darstellung gilt
a = a0 + u
mit einem festen a0 ∈ A und u ∈ U, wobei U ein Untervektorraum von V ist.
Schreibweise: A = a0 + U
Die Elemente von A werden in diesem Zusammenhang auch als Punkte bezeichnet (Beachte:
V = 0 + V ).
3.4. AFFINE UNTERRÄUME
3.4.1.0.2
51
Beispiele:
1) Im R3
U
0
dim U = 2
a0 + U
a0
2) Im R2 :
A = (1, 0) + lin(1, 1) = {(x1 , x2 ) | (x1 , x2 ) = (1, 0) + λ(1, 1), λ ∈ R}
= {(1 + λ, λ) | λ ∈ R}
x2
A
1
1
−1
x1
3.4.1.0.3 Satz über die Gleichheit von affinen Unterräumen: Zwei affine Unterräume A = a0 + U und A′ = a′0 + U ′ sind gleich genau dann, wenn U = U ′ und a0 − a′0 ∈ U.
M.a.W.: Ein affiner Unterraum ist eindeutig festgelegt durch U und ein (beliebig gewähltes) Element aus A.
Beweis:
(⇒) Sei a0 + U = a′0 + U ′ , so a′0 = a′0 + 0 ∈ a′0 + U ′ = a0 + U, d.h. es gibt u0 ∈ U mit
a′0 = a0 + u0 bzw. a′0 − a0 = u0 ∈ U.
Sei u′ ∈ U ′ , so ist a′0 + u′ ∈ a′0 + U ′ = a0 + U ⇒ u′ = a0 − a′0 + u, u ∈ U ⇒
u′ = u − u0 ∈ U.
Folglich: U ′ ⊆ U. Vertauschung der Rollen von a0 , U und a′0 , U ′ ergibt U ⊆ U ′ .
52
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
(⇐) Sei a′0 − a0 ∈ U, zu zeigen a0 + U = a′0 + U
| {z }
:=u0
a = a0 + u = a′0 + (a0 − a′0 ) +u
| {z }
=−u0 ∈U
Also
a0 + U = {a0 + u | u ∈ U} = {a′0 − u0 + u | u ∈ U} ⊆ {a′0 + u
e|u
e ∈ U} = a′0 + U
Umgekehrt ergibt sich auch a′0 + U ⊆ a0 + U.
3.4.1.1
Folgerungen
1) In A = a0 + U ist U gegeben durch
U = {v ∈ V | v = a − a′ , a, a′ ∈ A}
2) Betrachtet man Translation (Verschiebung) Tu : a 7→ a + u mit a ∈ A, u ∈ U. Dann
ist a + u ∈ A, d.h. Tu bildet A in sich ab. U heißt auch Translationsraum des affinen
Unterraums A.
3) dim A = dim(a0 + U) := dim U
Spezialfälle:
• dim A = 0, so heißt A Punkt (A = a0 + {0} = {a0 }).
• dim A = 1, so heißt A Gerade
• dim A = 2, so heißt A Ebene
• dim A = n − 1, so heißt A Hyperebene, falls dim V = n
3.4.1.1.1 Parameterdarstellung von A = a0 + U: Sei a0 ∈ A und v1 , . . . , vm eine
Basis von U, so besitzt jeder Punkt a ∈ A die eindeutige Darstellung
a = a0 +
m
X
i=1
3.4.2
λi vi
mit λi ∈ R
Parallele Unterräume
3.4.2.0.1 Definition: Zwei affine Unterräume A = a0 + U und A′ = a′0 + U ′ des
Vektorraums V heißen parallel, falls U ⊆ U ′ oder U ′ ⊆ U. In Zeichen: A k A′
3.4. AFFINE UNTERRÄUME
3.4.2.1
53
Beispiele
1) V = Rn . Parallele Gerade zu G = a0 + lin(v), v 6= 0 durch b ∈ V ist GP = b + lin(v)
(GP ist durch b eindeutig bestimmt).
x2
b
a0
x1
G
GP
2) V = R3 : Parallele Ebene zu E = a0 + lin(v1 , v2 ) (v1 , v2 linear unabhängig) durch
b ∈ R3 ist EP = b + lin(v1 , v2 ).
3) V = Rn : Zu Ebene E = a0 + U, dim U = 2, sind alle Geraden G = b + lin(v) mit
v ∈ U, v 6= 0, b ∈ Rn parallel.
x3
x2
a0
v
E
b
lin(v)
x1
G
54
KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN
3.4.3
Erzeugung affiner Unterräume
Durch je r + 1 Punkte, die nicht in einem gemeinsamen (r − 1)-dimensionalen affinen Unterraum liegen, geht genau ein r-dimesionaler affiner Unterraum A.
Beweis:
1) Sei für v0 , . . . , vr ∈ V die Voraussetzung des Satzes erfüllt. Dann sind die Vektoren
u1 := v1 − v0 , u2 := v2 − v0 , . . . , ur = vr − v0 linear unabhängig. Andernfalls liegen
u1 , . . . , ur in einem Unterraum W mit dim W = r − 1.
Dann wären vi = v0 + ui ∈ v0 + W im Widerspruch zur Voraussetzung.
2) Existenz von A: Wegen 1) ist U = lin(u1 , . . . , ur ) ein Unterraum der Dimension r.
⇒ vi ∈ v0 + U
für i = 0, . . . , r
also A = v0 + U.
3) Eindeutigkeit von A, d.h. Eindeutigkeit von U.
e = dim U ′ = r durch
e und a′0 + U ′ zwei affine Unterräume mit dim U
Sei a0 + U
e und ui ∈ U ′ sein.
v0 , . . . , vr . Dann müssen ui ∈ U
e = U ′ , weil u1, . . . , ur eine Basis von U
e bzw. U ′
Wegen 1) ist U = lin(u1 , . . . , ur ) = U
bilden.
3.4.3.0.1
Folgerung:
A = v0 + lin(v1 − v0 , v2 − v0 , . . . , vn − v0 );
speziell ist
G := v0 + lin(v1 − v0 )
die Verbindungsgerade der Punkte v0 , v1 mit v0 6= v1 .
Kapitel 4
Matrizen und lineare Gleichungssysteme
4.1
4.1.1
Matrizenrechnung
Definition einer Matrix
Eine m × n-Matrix (über R) ist eine Anordnung von m · n reellen Zahlen in ein rechteckiges
Schema aus m Zeilen und n Spalten.

a11
 a21

A =  ..
 .
a12
a22
..
.

. . . a1n
. . . a2n 

..  = (aij )i = 1, . . . , m,
. 
j = 1, . . . , n
aij ∈ R
am1 am2 . . . amn
zi = (ai1 , ai2 , . . . , ain ) – i-te Zeile von A, i = 1, . . . , n


a1j


sj =  ... 
– j-te Spalte von A, j = 1, . . . , n
amj
Die Menge aller reellen m × n-Matrizen wird mit Rm×n bezeichnet.
4.1.1.0.1
Spezialfälle:
• R1×n = Rn , also zi ∈ Rn
• Rm×1 = Rm , also sj ∈ Rm
4.1.1.0.2 Bemerkung: Anstelle von R können Matrizen auch über jeden beliebigen
anderen Körper K betrachtet werden.
55
56
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
4.1.2
Operationen mit Matrizen
i) Sind A, B ∈ Rm×n , also A = (aij ), B = (bij ), so definiert man
A + B := (aij + bij )
λA := (λaij )
(Summe von A und B)
(skalares Vielfaches von A, λ ∈ R)
Mit diesen Operationen wird Rm×n zu einem Vektorraum. Nullelement ist die Nullmatrix


0 0 ... 0
0 0 . . . 0


0 =  .. ..
.. 
. .
.
0 0 ... 0
Beispiel:
0 0
1
3 −1 0
,
∈ R2×3
0.5 0 2.5
−6 0 624.37
3 −1 0
0 0
1
0
−1
1
+
=
0.5 0 2.5
−6 0 624.37
−5.5 0 626.87
3 −1 0
3λ −1λ
0
λ·
=
0.5 0 2.5
0.5λ
0
2.5λ
ii) Transposition: Die transponierte Matrix AT zu A ∈ Rm×n entsteht aus A, indem man
die Rollen von Zeilen und Spalten vertauscht.


a11 a21 . . . am1
 a12 a22 . . . am2 


, AT ∈ Rn×m , ãji = aij
AT =  ..
..  = (ãji )j = 1, . . . , n,
..
 .
. 
.
i = 1, . . . , m
a1n a2n . . . amn
Beispiel:
3 −1 0
0.5 0 2.5


T


3 0.5
= −1 0 
0 2.5

z1
 
T
A =  ...  , AT = z1T , . . . , zm
zm

x1
 
insbesondere: x =  ...  ∈ Rm ⇔ xT = x1 . . . xm ∈ Rm
xm
4.1. MATRIZENRECHNUNG
57
iii) Produkt von Matrizen:
Sei A = (aij )i = 1, . . . , m,
∈ Rr×s , so gibt es AB,
∈ Rm×n , B = (bkl )k = 1, . . . , r,
j = 1, . . . , n
l = 1, . . . , s
falls Spaltenanzahl n von A gleich Zeilenzahl r von B ist (A und B heißen in diesem
Fall verkettet) und definiert wird
!
n
X
⇒ AB ∈ Rm×s
AB = A · B :=
aij bjl
j=1


 

 
 
·
H
 




 ..
.

 · · ·

 ..
.
···
···
♦
..
.
▽

i = 1, . . . , m,
l = 1, . . . , s




 
 
=
 



···
..
.
+ ♦ + · · · + H▽ · · ·
..
.

a11 . . . a1n

..   b
 ..
11 . . . b1l . . . b1s
. 
 .

 
..
..  =
AB =  ai1 . . . ain  ·  ...
.
. 
 .

.
 ..
.. 
bn1 . . . bnl . . . bns
am1 . . . amn
Beispiele:
1.
2.
0 2
3 −1 0
existiert nicht
·
−1 0
0.5 0 2.5
0 2
3 −1 0
1 0 5
·
=
−1 0
0.5 0 2.5
−3 1 0

x1
 x2 
 
3. Ist x =  ..  ∈ Rn , so ist
.

xn

 Pn
j=1 a1j xj
P
 n a2j xj 

 j=1
Ax = 
=
..


.
Pn
j=1 amj xj
n
X
j=1
aij xj
!
∈ Rm
n
X
j=1
aij bjl
!










58
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
Anwendung: lineares Gleichungssystem mit m Gleichungen in n Unbekannten
x1 , . . . , xn
a11 x1 + a12 x2
a21 x1 + a22 x2
..
.
+ . . . + a1n xn
+ . . . + a2n xn
= b1
= b2
⇔ Ax = b
am1 x1 + am2 x2 + . . . + amn xn = bm
mit gegebenen Koeffizienten aij ∈ R und gegebenem Absolutglied(vektor)
 
b1
 b2 
 
b =  ..  ∈ Rm .
 . 
bm
4. Für x ∈ Rn und y ∈ Rn , so ist
 


x1
x1 y1 x1 y2 . . . x1 yn

 

n×n
xy =  ...  y1 . . . yn =  ...
 = (xi yj )i,j=1,...,n ∈ R
xn
xn y1 xn y2 . . . xn yn
 
x
n
 .1  X
.
yx = y1 . . . yn  .  =
yi xi ∈ R1×1 = R
i=1
xn
Für die Matrizenmultiplikation gelten folgende Gesetze:
a) Distributivität
A(B + C) = AB + BC,
(A + B)C = AC + BC
b) Assoziativität
λ(AB) = (λA)B = A(λB),
(AB)C = A(BC)
λ∈R
c) Im Allgemeinen gilt AB 6= BA (die Matrizenmultiplikation ist nicht kommutativ).
d) Produkt zweier Matrizen A 6= 0 und B 6= 0 kann trotzdem Nullmatrix sein (d.h.
Matrizenmultiplikation ist nicht nullteilerfrei ).
Beispiel zu c), d):
0
A=
0
0
AB =
0
3 7
1
,B =
0 0
0
0
0 3
, BA =
0
0 0
AB 6= BA
4.1. MATRIZENRECHNUNG
4.1.3
59
Zusammenhang zwischen linearen Abbildungen und Matrizen
4.1.3.0.1
Darstellungssatz: Sei A ∈ Rm×n . Dann ist f : Rn → Rm definiert durch
(4.1.3.1)
f (x) = fA (x) := Ax
für x ∈ Rn eine lineare Abbildung. Umgekehrt gibt es zu jedem f ∈ Hom(Rn , Rm ) genau
eine Matrix A ∈ Rm×n mit (4.1.3.1).
Beweis:
1) f (x) = Ax ist additiv und homogen in x wegen Rechengesetzen 3a) und 3b).
(A(x + y) = Ax + Ay, A(λx) = λ(Ax))
2) Sei f ∈ Hom(Rn , Rm ). Zeige Existenz von A:
 
x1
 .. 
Für alle x =  .  ∈ Rn gilt
xn
 
0
 .. 
n
.
X
 
T
T
x=
xj ej ,
ej = 1 (j-te Zeile)
.
j=1
 .. 
0
!
n
n
n
X
X
X
T
T
xj f (ej ) =
xj vj
f (x) = f
xj ej =


j=1
j=1
j=1
v1j


mit vj := f (eTj ), vj =  ...  ∈ Rm , j = 1, . . . , n. Setze
vmj


v11 v12 . . . v1n

.. 
..
A =  ...
. 
.
vm1 vm2 . . . vmn
Dann ist f (eTj ) = AeTj und
f (x) =
n
X
j=1
xj AeTj
=
n
X
j=1
Axj eTj
=A
n
X
j=1
xj eTj = Ax
60
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
3) Eindeutigkeit von A. Seien A, A′ ∈ Rm×n mit
f (x) = Ax, f (x) = A′ x
für alle x ∈ Rn . Speziell mit x = eTj ist
AeTj = A′ eTj ,
d.h.
(A′ = (a′ij ))



a′1j
a1j




sj =  ...  = s′j =  ... 
a′mj
amj

also aij = a′ij für alle i = 1, . . . , m, j = 1, . . . , n.
Bemerkung:
a) Die Spalten von A sind die Bilder der Einheitsvektoren eT1 , . . . , eTn ∈ Rn .
b) Nach Fundamentalsatz ist Rn zu jedem n-dimensionalen Vektorraum isomorph.
Deshalb gibt es zu jeder linearen Abbildung f : V → W
dim V = n, dim W = m
eine Darstellungsmatrix A ∈ Rm×n . A hängt ab von den gewählten Basen in V
und W .
4.1.3.1
Interpretation der Matrizenoperationen
i) A + B, λA sind die Darstellungsmatrizen der linearen Abbildungen fA + fB bzw. λfA ,
d.h. fA+B = fA + fB , fλA = λ · fA .
ii) AB, B = (bjl )j = 1, . . . , n ist die Darstellungsmatrix der verketteten Abbildung fA ◦ fB
l = 1, . . . , s
fAB = fA ◦ fB ,
fB
fA
Rs −→ Rn −→ Rm
Dabei
 
0
 Pn
 

 .. 
b1l
j=1 a1j bjl
.

  fA

  fB
..
R ∋ eTl = 1 7−→ BeTl =  ...  7−→ ABeTl = 
,
.
.
Pn
 .. 
bnl
j=1 anj bjl
∈Rn
0
l = 1, . . . , s
4.1. MATRIZENRECHNUNG
4.1.3.2
61
Spezialfälle
a) Ist f = idRn , so ist f (eTj ) = eTj , j = 1, . . . , n.
Darstellungsmatrix ist

1

0
eT1 , . . . , eTn =  ..
.
0
0 ...
1 ...
..
.

0
0

..  = E(= En )
.
0 ... 1
E heißt Einheitsmatrix und hat die andere Darstellung
 
e1
 .. 
E =  . ,
en
E = (δij )i,j=1,...,n
(
0 für i 6= j
δij =
1 für i = j
Kronecker-Symbol
b) Ist fA ein Isomorphismus, d.h. fA bijektiv, so heißt die zugehörige Matrix A invertierbar oder regulär und die Darstellungsmatrix zu (fA )−1 wird mit A−1 bezeichnet
(inverse Matrix zu A).
4.1.3.3
Folgerungen
1) Jede invertierbare Matrix ist quadratisch, weil die Dimensionen von Bild- und Urbildraum bei Isomorphismen gleich sind.
2) (A−1 )−1 = A, weil (fA−1 )−1 = fA
3) AA−1 = A−1 A = E, weil
• fA ◦ fA−1 = fA ◦ (fA )−1 = id = fE und
• fA−1 ◦ fA = (fA )−1 ◦ fA = id = fE
4) (AB)−1 = B −1 A−1
5) (AT )−1 = (A−1 )T = A−T
62
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
4.1.3.3.1
−1 2 4
a b
:
Beispiel: Berechnung von
=
0 1
c d
Diese Inverse lässt sich gemäß 3) bestimmen aus der Beziehung:
1 0
2 4
a b
= E2 =
0 1
0 1
c d
1 0
2a 4a + b
=
0 1
2c 4c + d
2a = 1
2c = 0
4a + b = 0
4c + d = 1
1
⇒ a = , c = 0, b = −2, d = 1
2
−1 1
−2
2 4
2
=
0 1
0 1
4.1.3.3.2 Anwendung: Die Lösung des linearen Gleichungssystems Ax = b mit invertierbarem A ist gegeben durch
A−1 (Ax) = A−1 b
Ex = A−1 b
⇒
d.h.
x = A−1 b
4.2
Rangbestimmung
4.2.1
Definition des Rangs einer Matrix
4.2.1.0.1
Definition: Sei A = (aij )i = 1, . . . , m
j = 1, . . . , n


z1
 z2 
 
= (s1 , s2 , . . . , sn ) =  ..  mit sj ∈ Rm ,
 . 
zm
n
zi ∈ R .
dim lin(s1 , . . . , sn ) = Spaltenrang von A(= Sr(A)) = Maximalzahl linear unabh. Spalten
dim lin(z1 , . . . , zm ) = Zeilenrang von A(= Zr(A)) = Maximalzahl linear unabh. Zeilen
4.2.1.0.2
Satz:
Spaltenrang = Zeilenrang
(4.2.1.2)
4.2. RANGBESTIMMUNG
4.2.1.0.3
63
Bemerkung:
i) Für die Matrix A bezeichnet diese gemeinsame Zahl den Rang von A (Rang(A)).
ii)
dim Bild(fA ) = dim lin s1 , . . . , sn = Rang(A)
z.B. Rang(En ) = n
4.2.1.0.4
Hilfssatz: Sei X = x1 . . . xr xr+1 ∈ Rm×(r+1) ,
xr+1 =
r
X
xi ∈ Rm
(4.2.1.3)
λp xp
p=1
und
X ′ = x1 . . . xr ∈ Rm×r
so stimmt Zeilen- und Spaltenrang von X und X ′ überein.
Beweis:
a)
Sr(X) = dim lin x1 , . . . , xr , xr+1 = dim lin x1 , . . . , xr = Sr(X ′ )
b)

y1′
 
X ′ =  ...  ,
′
ym


y1
 
X =  ...  ,
ym

Sei
m
X
i=1
Umgekehrt: Sei
yi = (xi1 , . . . , xir , xi,r+1 ),
µi yi = 0 mit µi ∈ R
m
X
⇒
m
X
yi′ = (xi1 , . . . , xir )
µi yi′ = 0
i=1
µi yi′ = 0
(4.2.1.4)
i=1
Aus (4.2.1.3) folgt
xi,r+1 =
r
X
λp xip
für i = 1, . . . , m
p=1
m
X
i=1
µi xi,r+1 =
r
m X
X
i=1 p=1
µi λp xip =
r
X
p=1
λp
m
X
µi xip
|i=1 {z }
=0 aus (4.2.1.4)
64
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
⇒
m
X
µi y i =
i=1
m
X
µi (yi′ , xi,r+1 ) = 0
i=1
D.h. lineare Unabhängigkeit der Zeilen von X ist dieselbe wie die lineare Unabhängigkeit der Zeilen von X ′ .
⇒ Zr(X) = Zr(X ′ )
4.2.1.0.5 Bedeutung des Hilfssatzes: In einer Matrix können linear abhängige Spalten weggelassen werden, ohne das sich Zeilen- und Spaltenrang ändert. (Analog für Zeilen)
Beweis von (4.2.1.2):
1) Wir lassen in Matrix A alle Spalten weg, welche aus den anderen linear kombinierbar
sind.
⇒ A′ = s1 . . . sk , k ≤ n
Nach dem Hilfssatz ergibt sich:
Sr(A) = Sr(A′ ) = k,
 
z1′
 
A′ =  ...  ,
′
zm
Zr(A) = Zr(A′ )
zi′ ∈ Rk
2) Wir lassen in A′ alle Zeilen weg, welche aus den anderen linear kombinierbar sind.
 
z1′
 
⇒ A′′ =  ...  , l ≤ m
zl′
Nach dem Hilfssatz ergibt sich:
Sr(A′′ ) = Sr(A′ ) = Sr(A) = k,
Zr(A′′ ) = Zr(A′ ) = Zr(A) = l
. . . s′k , s′j ∈ Rl
A′′ = s′1
3) A′′ ∈ Rl×k , l = dim lin z1′ , . . . , zl′ ≤ k
k = dim lin s′1 , . . . , s′k ≤ l
⇒k=l
4.2.1.0.6
Beispiel:

−1 4
 6
8

A=
 −9 0 
184 −7

Rang(A) = Sr(A) = 2, weil die Spalten von A linear unabhängig sind.
4.2. RANGBESTIMMUNG
4.2.2
65
Elementare Umformungen von Matrizen
A = (aij )i = 1, . . . , m ∈ Rm×m
j = 1, . . . , m


z1
 
A =  ...  = s1 . . . sn
zm
1) Vertauschung zweier Zeilen von A
2) Multiplikation einer Zeile von A mit λ ∈ R, λ 6= 0
3) Addition des Vielfachen einer Zeile von A zu einer anderen Zeile
(Analog für Spalten)
4.2.2.0.1
Beispiel:


70 190 660
70 190
2)
 7
20
66  −→  70 200
−14 −10 −99
−14 −10



0
140 165
0
3)
3)
10
0  −→  0
−→  0
−14 −10 −99
−14



660
70 190
3)
660  −→  0
10
−99
−14 −10


0
165
0 0
2),3)
10
0  −→ 0 1
−10 −99
1 0

660
0 
−99



1
1 0 0
1)
0 −→ 0 1 0
0
0 0 1
4.2.2.0.2 Eigenschaft: Bei elementaren Umformungen ändert sich der Rang der Matrix nicht, weil die lineare Hülle der Zeilen z1 , . . . , zm bei elementaren Umformungen nicht
verändert wird. Damit bleibt auch ihre Dimension, also Zeilenrang von A = Rang(A),
unverändert.
4.2.2.0.3 Anwendung: Umformung von A durch elementare Umformungen so lange,
bis eine Matrix einfacher Strukur entsteht, bei der man den Rang ablesen kann. Eine solche
einfache Struktur liegt vor bei

s11 ∗
∗ ∗
 0 s22 ∗ ∗


S =  ... . . . . . . ∗

 0 . . . 0 srr
0
(Trapezgestalt, Zeilenstufenform)

∗ ∗
∗ ∗


∗ ∗

∗ ∗
(∗ – nicht interessierende Einträge)
66
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
4.2.2.1
Behauptungen
1) Ist S ∈ Rm×n und sind die Hauptdiagonalelemente sii 6= 0 für i = 1, . . . , r, so ist
Rang(S) = r.
Beweis:
Die ersten r Zeilen s1 , . . . , sr ∈ Rn von S sind linear unabhängig, denn sei
si = (0, . . . , 0, sii , si,i+1, . . . , sin )
und
λ 1 s1 + λ 2 s2 + . . . + λ r sr = 0
Dann ist
λ1 s11 = 0 ⇒ λ1 = 0 ⇒ λ2 s22 = 0 ⇒ λ2 = 0 ⇒ . . . ⇒ λ1 = 0
⇒ Zeilenrang von S ist r.
2) Jede Matrix lässt sich durch elementare Umformungen in Trapezform bringen, wobei
der Rang erhalten bleibt.
Beweis: (konstruktivI )
a) Habe A obige Gestalt. B = (aij )i = k + 1, . . . , m ∈ R(m−k)×(n−k)
j = k + 1, . . . , n
1. Fall: Ist B = 0, so hat A bereits Trapezform.
2. Fall: Ist B =
6 0, so gibt es aij 6= 0 mit i ∈ {k + 1, . . . , m}, j ∈ {k + 1, . . . , n}.
a11 · · · ⋆  .. . .
..  .
.
. 
 0 · · · akk A=



0


I








B 

⋆
Durch Zeilen- und Spaltenvertauschungen (Typ 1) lässt sich Matrix A′
erzeugen, wobei die ersten k Spalten unverändert bleiben.
a′k+1,k+1 6= 0 heißt Pivotelement


a11 · · · ⋆  .. . .

.. .
 .

. ⋆




0
·
·
·
a
kk
 mit a′k+1,k+1 6= 0
A′ = 


a′


k+1,k+1


..
0
′

.
B
′
a
m,k+1
Angabe eines Verfahrens mit dem man jede Matrix in Trapezform bringen kann.
4.3. LINEARE GLEICHUNGSSYSTEME
67
a′
Durch Zeilenumformungen vom Typ 3), und zwar Addition des − a′ i,k+1 k+1,k+1
fachen des (k + 1)-ten der Zeilen zur i-ten Zeile entsteht A′′ für i =
k + 2, . . . , m.


 a11 · · · ⋆ 


 .. . .

..  .

.
⋆
. 



0
·
·
·
a
kk

A′′ = 






a′

k+1,k+1 ⋆ 


..
0


.
B ′′
0
Rang(A′′ ) = Rang(A)
b) Gaußscher Algorithmus zur Rangbestimmung
1.
2.
3.
4.
Schritt:
Schritt:
Schritt:
Schritt:
k = 0, d.h. an A werden keinerlei Bedinungen gestellt.
Suche Pivotelement a′k+1,k+1 6= 0 (günstig: |a′k+1,k+1| = 1)
Transformiere A′ in A′′ gemäß Teil 2a).
Ist B ′′ = 0 oder k + 1 = min{m, n}, so Rang(A) = k + 1. Andernfalls
erhöhe k um 1 und gehe zu 2. Schritt zurück.
Beispiel:






1 1
2
2
1
1
2
2
1 1 2 2
7 −3  → 0
3
7
−3 → 0 3 7 −3
A = 0 3
5 3.5 6.5 11.5
0 −1.5 −3.5 1.5
0 0 0 0
⇒ Rang(A) = 2
4.3
4.3.1
Lineare Gleichungssysteme
Definitionen
Ein lineares Gleichungssystem in den Unbekannten x1 , . . . , xn besteht aus m Gleichungen
der Form:
a11 x1
a21 x1
..
.
+a12 x2 + . . .
+a22 x2 + . . .
+a1n xn =
+a2n xn =
b1
b2
amn x1 +am2 x2 + . . . +amn xn = bm
⇔
n
X
aij xj = bi , i = 1, . . . , m
j=1
⇔
Ax = b
68
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
A = (aij )i = 1, . . . , m
(Koeffizientenmatrix ),
j = 1, . . . , n


b1
 
b =  ...  ∈ Rm
(Absolutglied(vektor))
bm


x1
 
x =  ...  ∈ Rn
xn
Das Gleichungssystem heißt homogen, falls b = 0, andernfalls inhomogen.
Die Menge aller Lösungen x ∈ Rn des Gleichungssystems Ax = b sei
L(A, b) := {x ∈ Rn | Ax = b}
und heißt Lösungsraum (oder Lösungsmenge) des Gleichungssystems.
4.3.1.0.1
Fragen:
1) Gibt es Lösungen?
2) Wieviele Lösungen gibt es?
3) Konstruktion der Lösungen
4.3.2
Struktur der Lösungsräume
a) L(A, 0) 6= ∅, weil A · 0 = 0, also 0 ∈ L(A, 0).
b) L(A, 0) ist Unterraum von Rn , denn es gilt a) und weiterhin gilt:
Mit x, y ∈ L(A, 0), so folgt A(x + y) = Ax + Ay = 0 + 0 = 0, d.h. x + y ∈ L(A, 0);
außerdem A(λx) = λ(Ax) = λ·0 = 0, d.h. λx ∈ L(A, 0). Somit ist Unterraum-Kriterium
erfüllt.
c) Wenn das inhomogene Gleichungssystem Ax = b lösbar ist, so ist L(A, b) ein affiner
Unterraum des Rn , genauer:
L(A, b) = x0 + L(A, 0) mit x0 ∈ L(A, b)
in Worten: Die allgemeine Lösung des inhomogenen Gleichungssystem erhält man durch
Addition einer speziellen Lösung des inhomogenen Gleichungssystem zur allgemeinen
Lösung des zugehörigen homogenen Gleichungssystem.
Beweis:
4.3. LINEARE GLEICHUNGSSYSTEME
i) Sei x ∈ L(A, b).
⇒
69
A(x − x0 ) = Ax − Ax0 = b − b = 0
x − x0 ∈ L(A, 0), x ∈ x0 + L(A, 0)
⇒
L(A, b) ⊆ x0 + L(A, 0)
ii) Für beliebiges y ∈ x0 + L(A, 0) gilt:
y = x0 + x, x ∈ L(A, 0)
⇒
4.3.2.0.1
Ay = A(x0 + x) = Ax0 + Ax
⇒
Ay = b + 0 = b ⇒ y ∈ L(A, b)
⇒ x0 + L(A, 0 ⊆ L(A, b)
Beispiel:
x1 +2x2 +3x3 = −1.5
2x2 +6x3 =
0
1) Allgemeine Lösung des homogenen Gleichungssystem
x1 +2x2 +3x3 = 0
2x2 +6x3 = 0
⇒ x2 = −3x3 ⇒ x1 = 3x2




 3x3 L(A, 0) = {x ∈ R3 | x1 = 3x3 , x2 = −3x3 } = −3x3  x3 ∈ R


x3
 
3


−3
L(A, 0) = lin
1
2) Spezielle Lösung des inhomogenen Gleichungssystem


−1.5
 0 
0
3) Allgemeine Lösung des inhomogenen Gleichungssystem


 
−1.5
3
−1.5




0
−3
L A,
=
+ lin
0
0
1
d.h. x ∈ R3 ist Lösung ⇔
  

x1
−1.5 + 3λ
x = x2  =  0 − 3λ  ,
x3
0 + 1λ
λ∈R
70
4.3.3
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
Lösbarkeitskriterium
Das Gleichungssystem Ax = b ist lösbar genau dann, wenn Rang (A) = Rang (A|b).
(A|b) heißt erweiterte Koeffizientenmatrix.
Beweis:
Sei A = (s1 , . . . , sn ), sj ∈ Rn , dann ist Rang A = dim lin(s1 , . . . , sn ).
Rang(A|b) = dim lin(s1 , . . . , sn , b)
x ∈ L(A, b) ⇔ Ax = b ⇔ b =
n
X
j=1
xj sj ⇔ b ∈ lin(s1 , . . . , sn )
⇔ lin(s1 , . . . , sn ) = lin(s1 , . . . , sn , b) ⇔ Rang A = Rang(A|b)
In unserem Beispiel:
1 2 3 | 1.5
1 2 3
= 2 = Rang
Rang
0 2 6 | 0
0 2 6
⇒ Gleichungssystem lösbar
aber:
x1 +2x2 +3x3 = −1.5
+2x2 +6x3 =
0
x1
−3x3 =
0.5




1 2 3
1 2
3
Rang 0 2 6  = Rang 0 2
6 =2
1 0 −3
0 −2 −6






1 2 3 | −1.5
1 2
3 | −1.5
1 2 3 | −1.5
0  = Rang 0 2
6 |
0  = Rang 0 2 6 |
0 =3
Rang 0 2 6 |
1 0 −3 | 0.5
0 −2 −6 |
2
0 0 0 |
2
⇒ Gleichungssystem ist unlösbar
4.3.4
Dimension des Lösungsraumes
dim (L(A, 0)) = n − Rang A (= Rangdefekt von A)
denn mit fA : Rn → Rm (definiert durch fA (x) = Ax) gilt:
Rang(A) = dim(Bild(fA ))
und
L(A, 0) = {x ∈ Rn | fA (x) = 0} = Kern(fA )
Nach Dimensionsformel für lineare Abbildungen:
n = dim Rn = dim(Kern(fA )) + dim(Bild(fA ))
4.3. LINEARE GLEICHUNGSSYSTEME
4.3.4.0.1
71
Folgerungen:
a) Gleichungssystem Ax = b ist für alle b ∈ Rm lösbar
⇔ Rang A = m (= Anzahl der Gleichungen)
Beweis: Für beliebiges b ∈ Rm gilt:
Ax = b lösbar ⇔ Rang A = Rang(A|b)
⇔ dim lin(s1 , . . . , sn ) = dim lin(s1 , . . . , sn , b)
⇔ lin(s1 , . . . , sn ) = lin(s1 , . . . , sn , b) = Rm ⇔ Rang A = m
b) Unter der Voraussetzung, dass Ax = b lösbar ist, gilt:
Lösung ist eindeutig ⇔ Rang A = n (= Anzahl der Unbekannten)
Beweis:
Lösung von Ax = fA (x) = b eindeutig ⇔ fA injektiv
⇔ Kern(fA ) = {0} ⇔ dim L(A, 0) = 0 ⇔ n = Rang A
In unserem Beispiel:
1 2 3
=2
Rang
0 2 6
b
so Gleichungssystem für alle Vektoren 1 lösbar, aber nicht eindeutig,
b2
weil Rang(. . .) < 3.
4.3.5
Gaußscher Algorithmus zum Lösen linearer Gleichungssysteme
1. Schritt: Ordne Ax = b das rechteckige Schema (A|b) zu und führe elementare Zeilenumformungen gemäß Gaußschem Algorithmus durch.
Dabei ändert sich L(A, b) nicht.
2. Schritt: Sind alle ai,k+1 = 0 für i = k + 1, . . . , m, so müssen die letzten n − k Spalten
von A getauscht werden, um ein Pivotelement a′k+1,k+1 6= 0 zu finden.
Achtung! Spaltenvertauschung entspricht Vertauschung der Reihenfolge der Unbekannten x1 , . . . , xn , was registriert werden muss!


a11 · · · ⋆  .. . .

..  .
.
. ⋆ 


 0 · · · akk ′
b 
A=






0
B 

72
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
Falls B 6= 0, gehe zu 1. Schritt.
3. Schritt: Verfahren endet mit Matrix
wobei
D M ′′
b
0 0

 ′
a11 ∗ ∗
∗
..


. ∗
∗
0
D= . .
,
.. ... ∗ 
 ..
0 . . . 0 a′rr
(4.3.5.5)
a′ii 6= 0 für i = 1, . . . r ,
D ∈ Rr×r (obere Dreiecksmatrix ), M = (mij ) ∈ Rr×(n−r)
Lösbarkeitskriterium: Ist b′′r+1 = . . . = b′′m = 0, so ist r = Rang (A) = Rang (A|b)
und Gleichungssystem lösbar, andernfalls unlösbar.
4. Schritt: Interpretiere das Schema (4.3.5.5) als Gleichungssystem in den Unbekannten
y1 , . . . , yr , zr+1 , . . . , zn
welche aus x1 , . . . , xn durch die entsprechenden Vertauschungen hervorgehen.
Dy + Mz = b′′
Setzezj 
= λj , j = r + 1, . . . , n, λj ∈ R (freie Parameter ) und bestimme
y1
 .. 
y =  .  als Lösung des Gleichungssystem
yr
Dy = b′′ − Mλ
und zwar durch Rückwärtseinsetzen (Rückwärtssubstitution) beginnend mit der
letzten Zeile.
!
m
X
1
yr = ′
b′′r −
mrj λj
arr
j=r+1
Einsetzen von yr in (r − 1)-te Zeile liefert yr−1 gemäß
a′r−1,r−1 yr−1
also yr−1 =
1
a′(r−1),(r−1)
usw. bis y1 = . . ..
+
a′r−1,r yr
m
X
=
b′′r−1
−
m
X
mr−1,j λj
j=r+1
a′r−1,r
′′
br−1 −
mr−1,j λj − ′
ar,r
j=r+1
b′′r −
m
X
j=r+1
mrj λj
!!
4.3. LINEARE GLEICHUNGSSYSTEME
73
4.3.5.0.1 Bemerkung: Durch Umnummerierung der Variablen lässt sich Lösung des
Gleichungssystem schreiben als
x = x0 + λr+1 v1 + λr+2 v2 + . . . λn vn−r
4.3.5.0.2
Beispiel:
x1
−x1
2x1
x1
+2x2 +x3 +x4 +x5
−2x2 −2x3 +2x4 +x5
+4x2 +3x3 −x4
+2x2 +2x3 −2x4 +x5
x1 x2 x3 x4 x5
1
2
1
1 1
2
3
−1 −2 −2
2 1
2
4
3 −1 0 −1
1
2
2 −2 1
2
1
→ 0
0
0
2
1
1
0 −1
3
0
1 −3
0
1 −3
1
→ 0
0
0
=
2
=
3
= −1
=
2
x1 x3 x2 x4 x5
1
2
1 1 2
1
1
2
5 → 0 1 0 −3 −2 −5
2
−2 −5
0 1 0 −3 −2 −5
0
0 1 0 −3
0
0
0
1
1
0
0
2
2
1
1
0 −3 −2 −5 →
0
0
0
0
0
0
2
5
x1 x3 x5 x4 x2
1 1
1
1 2
2
0 1 −2 −3 0 −5
0 0
2
0 0
5
0 0
0
0 0
0
x1 +x3 +x5 +x4 +2x2 =
2
+x3 −2x5 −3x4
= −5
+2x5
=
5
Setze x4 = λ, x2 = µ. Durch Rückwärtseinsetzen ergibt sich
5
x5 =
2
5
x3 = −5 + 2 + 3λ = 3λ
2
1
5
x1 = 2 − 3λ − − λ − 2µ = − − 4λ − 2µ
2
2
 
 
   1
−2
−4
−2
x1
1
0
x2   0 
 
 
   
x3  =  0  + λ  3  + µ  0  mit λ, µ ∈ R
 
 
   
0
1
x4   0 
5
0
0
x5
2
74
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
4.3.6
Numerische Lösung linearer Gleichungssysteme
Der Gaußsche Algorithmus liefert uns theoretisch in endlich vielen Schritten die exakte
Lösung des linearen Gleichungssystems Ax = b. Trotzdem ist bei Umsetzung dieses Algorithmus auf dem Computer das Ergebnis i.A. mit Ungenauigkeiten behaftet, weil der Rechner intern die arithmetischen Operationen nur annähernd genau (mit Gleitkommazahlen)
ausführen kann. Die Genauigkeit der Lösung(snäherung) ist insbesondere empfindlich gegenüber Rundungsfehlern in den Eingangsdaten, weil stets Divisionen durch eventuell sehr
kleine oder sehr große Zahlen durchgeführt werden müssen. Außerdem wächst der Aufwand
an arithmetischen Operationen proportional zu n3 , wenn n die Anzahl der Unbekannten
ist. Deshalb sind numerische Verfahren entwickelt worden, die zwar von vorn herein nur
Näherungslösungen liefern, jedoch weniger Rechenaufwand erfordern und nicht so anfällig
gegenüber Rundungsfehlern sind.
4.3.6.0.1 Idee: Umformung des Gleichungssystems Ax = b mit quadratischer Koeffizientenmatrix A = (aij )i,j=1,...,n in ein Fixpunktproblem
Ax = b
⇔ P −1(Ax − b) = 0 , (P reguläre Matrix)
⇔ x = (E − P −1 A)x + P −1 b
⇔ x = Mx + c
mit M := E − P −1 A , c = P −1 b .
(4.3.6.6)
Gleichung (4.3.6.6) heißt Fixpunktgleichung, und x ist ein Fixpunkt der Abbildung f :
Rn → Rn mit f (x) := Mx + c. (4.3.6.6) wird gelöst durch sukzessive Iterationen:
x(k+1) = Mx(k) + c ,
4.3.6.0.2
den, dass
k = 0, 1, . . . mit Startvektor x(0) .
(4.3.6.7)
Bemerkung: Die Matrix P heißt Präkonditionierer und soll so gewählt wer-
i) Gleichungssystem (4.3.6.7) ⇔ P x(k+1) = (P − A)x(k) + b möglichst einfach lösbar
ist,
ii) Iterationen (x(k) ) bei jeder Wahl des Startvektors x(0) “möglichst schnell” gegen die
Lösung x der Fixpunktgleichung (4.3.6.6) konvergieren.
4.3.6.1
Wahl von P
a) Einfachster Fall: P = I, d.h. M = I − A
x(k+1) = x(k) − Ax(k) + b
(Richardson-Verfahren)
4.3. LINEARE GLEICHUNGSSYSTEME
75
b) Nächsteinfacher Fall: P = D mit regulärer Diagonalmatrix D. Dazu zerlegt man

 
 
0 ∗ ... ∗
a11 0 . . . 0
0 0 ... 0
∗ 0 . . . 0  0 a22 . . . 0  0 0 . . . ∗


 
 
A = AL + AD + AR :=  .. . . . .

 +  .. . . . .
 +  .. . . . .
.
.
. ∗
.
. 0  .
.
. 0  .
0 ... 0 0
0 . . . 0 ann
∗ ... ∗ 0

AL – linke untere Dreiecksmatrix, AR – rechte obere Dreiecksmatrix, AD – Diagonalmatrix.
−1
Mit P = AD ergibt sich M = E − A−1
D A = −AD (AL + AR ) und somit
(k)
x(k+1) = −A−1
+ A−1
D (AL + AR )x
D b
(Jacobi-Verfahren oder Gesamtschritt-Verfahren)
oder ausführlich in Koordinaten
(k+1)
xi
n
X
bi
aij (k)
xj +
,
=−
aii
aii
j=1,j6=i
i = 1, . . . , n ; k = 0, 1, . . . .
c) P = AL + AD aus der Zerlegung A = AL + AD + AR . Damit ergibt sich M =
E − (AL + AD )−1 A = −(AL + AD )−1 AR und
x(k+1) = −(AL + AD )−1 AR x(k) + (AL + AD )−1 b
m
(AL + AD )x(k+1) = −AR x(k) + b
m
(k+1)
+ AR x(k) + A−1
x(k+1) = −A−1
D b
D AL x
oder ausführlich in Koordinaten
(k+1)
xi
=−
i−1
X
aij
j=1
aii
(k+1)
xj
−
n
X
bi
aij (k)
xj +
,
a
a
ii
ii
j=i+1
i = 1, . . . , n ; k = 0, 1, . . . .
Im Unterschied zum Jacobi-oder Gesamtschritt-Verfahren werden hier also bei der
(k+1)
Berechnung der Komponente xi
der (k + 1)-ten Näherung nicht nur die Komponenten der vorhergehenden Näherung x(k) verwendet, sondern auch die bereits
(k+1)
(k+1)
berechneten neuen Komponenten x1
, . . . , xi−1 .
(Gauß-Seidel-Verfahren oder Einzelschritt-Verfahren)
76
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
4.3.6.1.1 Konvergenzsatz: II Gilt für die Koeffizientenmatrix A = (aij ) (nach eventuellen Zeilen- oder Spaltenvertauschungen) die Ungleichung
n
X
|aij |
<1
max
i=1,...,n
|aii |
j=1,j6=i
(A heißt dann zeilenweise strikt diagonaldominant),
so konvergiert die vom Gesamtschritt-Verfahren oder vom Einzelschritt-Verfahren erzeugte
Folge von Iterationen (x(k) ) bei beliebiger Wahl des Startvektors x(0) gegen die Lösung x
des des linearen Gleichungssystems Ax = b.
4.4
Determinanten
Die Theorie des Determinanten ist ältester Teil der linearen Algebra. Heute: Wichtiges
Unterschuchungsmittel für Matrizen; große Bedeutung auch bei anderen mathematischen
Fragestellungen.
4.4.0.1.1
Zur Erinnerung:
• Permutation π ist bijektive Abbildung: Nn → Nn , Nn = {1, . . . , n}
• Menge aller Permutationen bildet Gruppe Sn
• sig(π) = (−1)Anzahl der Fehlstände in π
4.4.1
Definition einer Determinante (nach G.W. Leibniz
III
)
Sei A = (aij )i,j=1,...,n ∈ Rn×n , d.h. eine quadratische Matrix. Dann heißt
a11 a12 . . . a1n (n! Sum
a21 a22 . . . a2n manden)
X
Det(A) = ..
sig(π)a1,π(1) · a2,π(2) · . . . · an,π(n)
..
.. =
.
.
. π∈Sn
an1 an2 . . . ann die Determinante von A.
II
III
Genaueres und Beweis in Lehrbüchern zur Numerik
(1646-1716)
(4.4.1.8)
4.4. DETERMINANTEN
4.4.1.0.1
77
Beispiele:
i) Determinante einer 2-reihigen Matrix
1 2
1 2
,
S2 :
2 1
1 2
(gerade) (ungerade)
a11 a12 a21 a22 = (+1)a11 a22 + (−1)a12 a21 = a11 a22 − a12 a21
ii) Determinante einer 3-reihigen Matrix
1 2 3
1 2 3
1 2 3
1 2 3
1 2 3
1 2 3
S3 :
,
,
,
,
,
1 2 3
2 3 1
3 1 2
3 2 1
1 3 2
2 1 3
|
{z
} |
{z
}
(gerade)
(ungerade)
a11 a12 a13 a11 a12
a21 a22 a23 a21 a22
a31 a32 a33 a31 a32
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33
(Regel von Sarrus IV )
iii)
1
0
X
Det En = . . . =
sig(π) δ1,π(1) δ2,π(2) . . . δn,π(n)
{z
}
|
0
1 π∈Sn
6=0⇔δi,π(i) =1 für alle i=1,...,n
(
1 für i = j
δij =
0 für i 6= j
δi,π(i) = 1 ⇔ i = π(i) ⇔ π = idNn
⇒ Det En = (+1)δ11 δ22 . . . δnn = 1
4.4.2
Eigenschaften von Det(A)
1) (Elementare Umformungen vom Typ 2) Homogenität
a11 . . .
z1 a11 . . . a1n .
. .
.
.
. .
.
.
.
.
.
λzi = λai1 . . . λain = λ ai1 . . .
.
. .
.. ..
.. ..
. a
z a
...
... a
n
IV
(1798-1858)
n1
nn
n1
in i-ter Zeile
a1n z1 .. . . . .
ain = λ zi .. zn . a nn
78
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
2) Additivität in i-ter Zeile
z1 a11
...
a1n a11 . . . a1n a11 . . . a1n . ..
..
.. ..
.. . ..
.
.
. .
. . .
′
′
′
′ ′ z
+
z
a
+
a
.
.
.
a
+
a
a
.
.
.
a
a
.
.
.
a
=
=
+
i
i1
i1
i1
in
in i1
in in . i ..
..
..
.. ..
.. .. .
.
. .
. .
z a
...
ann
an1 . . . ann
an1 . . . ann n
n1
3) Sind in A zwei Zeilen gleich, etwa zk = zl und k < l, so ist Det A = 0.
Denn
A
da
X
X
sig(π)a1,π(1) . . . an,π(n)
sig(π)a1,π(1) . . . an,π(n) +
=
(4.4.1.8)
π∈Un
π∈Gn
Sn = Gn ∪ Un , Gn ∩ Un = ∅
Gn = {π ∈ Sn | sig(π) = 1},
Benutze die Transposition
Un = {π ∈ Sn | sig(π) = −1}
1...k...l...n
τ:
,
1...l...k...n
⇒ Det A =
X
π∈Gn
sig(τ ) = −1
Un = {σ ◦ τ | σ ∈ Gn }
X
(−1)a1,σ(τ (1)) . . . an,σ(τ (n))
(+1)a1,π(1) . . . an,π(n) +
σ∈Gn
Es ist a1,σ(τ (1)) . . . an,σ(τ (n)) = a1,σ(1) . . . ak,σ(l) . . . al,σ(k) . . . an,σ(n)
=al,σ(l)
=ak,σ(k)
(weil ak,j = al,j für alle j = 1, . . . , n)
X
X
a1,σ(1) . . . an,σ(n) = 0
a1,π(1) . . . an,π(n) −
Det A =
σ∈Gn
π∈Gn
4) Det(A) = Det(AT ), denn AT = (e
aij ), e
aij = aji
X
X
sig(π)aπ(1),1 . . . aπ(n),n
sig(π)e
a1,π(1) . . . e
an,π(n) =
Det(AT )
=
(4.4.1.8)
π∈Sn
π∈Sn
(Setze π(i) = j
⇔
i = π −1 (j))
X
sig(π) a1,π−1 (1) . . . a1,π−1 (n)
Det(AT ) =
| {z }
π∈Sn
(Setze π −1 = σ)
⇒
X
σ∈Sn
=sig(π −1 )
sig(σ)a1,σ(1) . . . an,σ(n)
=
(4.4.1.8)
Det A
4.4. DETERMINANTEN
4.4.2.1
79
Folgerungen
a) Hat A eine Nullzeile, so ist Det A = 0
(siehe Eigenschaft 1)
b) Det(λA) = λn Det A
(Anwendung von Eigenschaft 1) nacheinander für die Zeilen z1 , . . . , zn von A)
c) (Elementare Umformungen vom Typ 1)
Vertauscht man in A zwei Zeilen, so ändert sich das Vorzeichen von Det(A), genauer:
denn bilde
so ist Det B = 0
3)
z1 z1 .. .. .
.
zk zl .
.. = − ... ,
z z l
k
.
.
.. .. zn zn k<l,


z1
 .. 
 . 


zk + zl 
 . 

B=
 .. 
z + z 
 k
l
 . 
 .. 
zn
z1 z1 z1 .. .. .. . . . zk + zl zk zl 0 = ... = ... + ... =
z + z 2) z + z z + z 2)
k
k
k
l
l
l
. . . .
.
.
. . . zn zn zn z1 z1 z1 .. .. .. .
. .
zk zk zl .
.. + ... + ... +
z z z k
l k
.
. .
.
.
.. .. zn zn zn |{z}
=0 (s. 3)
z1 .. .
zl .
.. z l
.
.. zn |{z}
=0 (s. 3)
80
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
d) (Elementare Umformungen vom Typ 3)
Bei Addition des Vielfachen einer Zeile von A zu einer anderen Zeile ändert sich
Det A nicht, d.h.
z1 z1 ..
.. .
.
zk zk .
..
= .. .
z + λz z l
l
k
.
..
.
.
.
zn zn denn
z1 z1 z1 ..
.. .. . . .
zk zk zk . . ..
= .. + .. = Det A + λ
.
z + λz 2) z λz l
l k
k
. . .
..
.. .. zn zn zn z1 .. .
zk .
.. z k
.
.. zn |{z}
=0 (s. 3)
e) Gleiche Rechenregeln für Determinante gelten auch bei Spalten (wegen Eigenschaft 4).
f) Man kann Gaußschen Algorithmus anwenden, um eine Matrix einfacher Struktur zu
erhalten, deren Determinante leicht zu berechnen ist.
4.4.2.1.1
so ist
Determinante einer oberen Dreiecksmatrix: Sei D ∈ Rn×n der Gestalt


d11 d12 . . . d1n
 0 d22 . . . d2n 


D =  ..
.. 
.
.
 .
. . 
0 . . . 0 dnn
Det D = d11 d22 . . . dnn =
n
Y
i=1
Beweis:
In (4.4.1.8) leisten nur solche Summanden
sig(π)d1,π(1) . . . dn,π(n)
dii
4.4. DETERMINANTEN
81
einen Beitrag, für die di,π(i) 6= 0 für alle i = 1, . . . , n.
Für π ∈ Sn , π 6= idNn gibt es i ∈ {1, . . . , n} =: Nn mit der Eigenschaft π(i) < i.
⇒ di,π(i) = 0
Det D
X
sig(π)d1,π(1) . . . dn,π(n) = sig(idNn ) d11 . . . dnn + 0
=
| {z }
(4.4.1.8)
π∈Sn
=1
4.4.2.1.2
0
2
−1
3
4.4.3
Beispiel:
2 2 0 −1 2 1 −5 4 −1 2
=
3 −5
1 0 2
0 3
2
0
0
2 0 −1 2 0 −1 2 0 −1 4 −3
−1 4 −3 = 11 0
0
1
−1
0 11 −11
0 0 14 −9
0 14 −9 2 0 −1 2 0 −1 4 −3
= 11 · 2 · (−1) · 1 · 5 = −110
= 11 1 −1
0 0
0 0
0
5
2 0 −1
2 −1 2 0 2
3
0 3 −5
=
−
4 2
1
4 −1 2
0 3
2
0 2
0
2 0 −1 2 2
0 −1 4 −3 0
=
=
0
0
2
3
−5
0 3
2
0 0
Multiplikationssatz
Für A, B ∈ Rn×n , B = (bij ) gilt
Det(AB) = Det A · Det B
Beweis:
82
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
 
 
c1
b1
Pn
 .. 
 .. 
Setze C := AB =  . , ci = j=1 aij bj für i = 1, . . . , n mit B =  . .
cn
bn
Pn
bj a
b
b
j
j=1 1j j c2 bk c
n
n
n
2
XX
X
c3
a1j c3 =
Det C = a1j a2k c3 =
.. 2)
2)
.. ..
. j=1 k=1
j=1
.
.
cn cn
cn
= ···
bj bπ(1) 1
n
n
n
X
XX
.. bj2 X
a1,π(1) . . . an,π(n) . a1j1 a2j2 . . . anjn .. =
=
...
. jn =1
j1 =1 j2 =1
bπ(n) π∈Sn
bjn weil jeder Summand verschwindet, in der zwei
Zeilen gleich sind (nach Rechenregel 3).
b1 Durch Vertauschen der Zeilen erhält man ... . Dabei ändert sich Vorzeichen der Determi bn nante genau so oft, wie es Fehlstände in π gibt.
b1 X
=
Det A · Det B
a1,π(1) . . . an,π(n) sig(π) ... Det D =
(4.4.1.8)
π∈Sn
bn |{z}
Det B
4.4.3.0.1 Determinante einer regulären (invertierbaren) Matrix: Sei A ∈ Rn×n .
Dann sind folgende 3 Aussagen äquivalent:
a) A ist invertierbar
⇔
b) Rang A = n
⇔
c) Det A 6= 0
Beweis:
i) a) ⇔ fA : Rn → Rn ist Isomorphismus ⇔ dim Bild(fA ) = dim Rn = n ⇔ b)
{z
}
|
=Rang A
ii) Aus a) folgt: Es gibt A−1 ∈ Rn×n mit A−1 A = En . Mit Multiplikationssatz ergibt sich
Det(A−1 ) · Det A = Det(A−1 A) = Det En = 1
⇒ Det A 6= 0, d.h. c)
4.4. DETERMINANTEN
83
iii) Sei Rang
A < n, so sind die Zeilen z1 , . . . , zn von A linear abhängig. O.B.d.A. sei
Pn−1
zn = i=1 λi zi . Dann ist
z1 z
1
n−1
n−1
.. X
X
..
.
.
λi λi · 0 = 0
Det A = =
=
zn−1 3)
zn−1 i=1
i=1 Pn−1
zi i=1 λi zi also c) ⇒ b).
4.4.3.0.2
Ergänzung: Aus ii) folgt:
Det(A−1 ) =
4.4.4
1
Det A
Adjungierte Matrix
4.4.4.0.1 Definition: Sei A = (aij ) ∈ Rn×n , so bezeichnet man mit Akl ∈ R(n−1)×(n−1)
diejenige Matrix, welche durch Streichen der k-ten Zeile und l-ten Spalte aus A entsteht.
Dann gilt der
4.4.4.1
Laplacesche Entwicklungssatz (Laplace 1749-1827)
• Entwicklung nach k-ter Zeile
Det A =
n
X
(−1)k+j akj Det(Akj )
j=1
• Entwicklung nach l-ter Spalte
Det A =
n
X
i=1
Beweis: (s. Eisenreich, S.174 ff.)
(−1)i+l ail Det(Ail )
84
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
4.4.4.1.1 Anwendung: Für n ≥ 4 kann man diese Formeln zur rekursiven Berechnung
von Det A benutzen, insbesondere dann, wenn in einer Zeile oder Spalte von A viele Nullen
auftreten.
4.4.4.1.2
Beispiel:
2 1 0 −2
2 1 −2
2 1 −2
4 −1 2 0 = 0 + (−1)3+2 · 2 2 1 −1 + 0 + (−1)4+3 · 3 4 −1 0 Det A = 2 1 0 −1
2 0 5 2 1 −1
2 0 3 5 2
−2
2
−1
+ (−1)2+2 · 1 = −2 (−1)1+2 · 1 2 5 2 5
2 −2
1 −2
2+2
2+1
+ (−1)
· (−1) − 3 (−1)
·4
2 −1
1 −1
= −2 (−(2 · 5 − (−1) · 2) + (2 · 5 − (−2) · 2))
− 3 (−4 · ((−1) · 1 − 1 · (−2)) − (2 · (−1) − (−2) · 2))
= 14
4.4.4.2
Definition der adjungierten Matrix
Die zu A adjungierte Matrix (auch Adjunktenmatrix ) ist
Adj(A) = (b
aij )i,j=1,...,n
4.4.4.2.1
Satz:
mit b
aij = (−1)i+j · Det(Aji ) .
A · Adj(A) = Det(A) · En
Beweis:
A · Adj(A) =
n
X
j=1
akj b
ajl
!
k,l=1,...,n



 n

X
j+l

akj (−1) · Det(Alj )
=


 j=1
{z
}
|
=:ckl
z1 .
.
.
⇒ ckl = zk (l-te Zeile) ,
zk = (ak1 , . . . , akn )
.
.. z n
(
0
für k =
6 l (da 2 Zeilen gleich)
ckl =
Det A für k = l (nach Entwicklungssatz)
4.4. DETERMINANTEN
85
also
ckl = Det A · δkl
A · Adj(A) = Det A · (δkl )k,l=1,...,n = Det A · En
4.4.4.2.2
Folgerung: Explizite Formel für inverse Matrix, falls A regulär ist:
A−1 =
1
· Adj(A) .
Det A
4.4.4.2.3 Anwendung: Im Spezialfall eines quadratischen linearen Gleichungssystems
Ax = b mit regulärer Koeffizientenmatrix A ∈ Rn×n ist dessen Lösung gegeben durch
1
Adj(A) b
Det A
n
X
(−1)i+j Det(Aji )bj
x = A−1 b =
d.h. xi =
=
1
Det A
j=1
1
Det (s1 , . . . , si−1 , b, si+1 , . . . , sn )
Det A
für
i = 1, . . . , n ,
wenn s1 , s2 , . . . , sn ∈ Rn die Spalten von A sind. Diese Formel heißt Cramersche Regel
(Cramer 1704-1752) und ergibt sich durch Entwicklung der Determinante der Matrix
Bi := (s1 , . . . , si−1 , b, si+1 , . . . , sn )
nach der i-ten Spalte.
86
KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
Kapitel 5
Euklidische Vektorräume
5.1
Skalarprodukte
Motivation: Beim Studium geometrischer Objekte, wo es um Winkel oder Längen geht, reichen die Daten aus der Theorie der Vektorräume nicht aus. Wir benötigen eine zusätzliche
Struktur zur Beschreibung der „metrischen“ (oder Euklidischen) Geometrie. Diese Struktur ist das Skalarprodukt, welches eine symmetrische, positiv definite Bilinearform auf dem
Vektorraum V darstellt.
5.1.1
Definition des Skalarprodukts
Sei V ein Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung
V ×V →R
(v, w) 7→ hv, wi
wenn für alle v, v ′ , w, w ′ ∈ V und alle λ ∈ R gilt:
• Bilinearität:
hv + v ′ , wi = hv, wi + hv ′ , wi
hv, w + w ′ i = hv, wi + hv, w ′i
• Symmetrie
• Positive Definitheit
hλv, wi = λ hv, wi
hv, λwi = λ hv, wi
hv, wi = hw, vi
hv, vi > 0 für alle v 6= 0
Ist auf V eine Skalarprodukt definiert, so heißt V Euklidischer Vektorraum.
87
88
KAPITEL 5. EUKLIDISCHE VEKTORRÄUME
5.1.1.0.1
Bemerkungen:
i) Bei einer festgehaltenen Komponente ist das Skalarprodukt eine lineare Abbildung
bezüglich der anderen Komponente.
ii) Wegen Symmetrie reicht die Forderung der Linearität bezüglich einer Komponente.
iii)
(wegen Homogenität)
h0, wi = h0 · v, wi = 0 · hv, wi = 0
5.1.1.0.2
Beispiel: V = Rn : Standardskalarprodukt
 
v1
 .. 
v =  . ,
vn
v, w ∈ Rn ,
hv, wi =
n
X


w1
 
w =  ... 
wn


w1
 
· · · vn  ... 
wn
vi wi = v T w = v1
i=1
Daneben gibt es noch unendlich viele Möglichkeiten ein Skalarprodukt auf dem Rn zu
definieren, nämlich
T
T
T
(v, w) 7→ hAv, Awi = (Av) Aw = v A Aw =
n
X
vi aij ajk wk
i,j,k=1
mit einer festen regulären Matrix A = (aij )i,j=1,...,n .
5.1.2
Euklidische Norm
5.1.2.0.1 Definition: Ist V ein Euklidischer Vektorraum mit dem Skalarprodukt h·, ·i,
so versteht man unter der Euklidischen Norm von v ∈ V die reelle nichtnegative Zahl
||v|| :=
5.1.2.0.2
Spezialfall:
p
hv, vi
V = Rn : Standardnorm
v
u n
q
uX
2
t
vi = v12 + v22 + . . . + vn2
||v|| =
i=1
5.1. SKALARPRODUKTE
89
x2
v
v= 1
v2
v2
||v
||
v1
x1
(Verallgemeinerung der „Länge eines Vektors“)
5.1.3
Cauchy-Schwarzsche UngleichungI
In jedem Euklidischen Vektorraum gilt
| hv, wi | ≤ ||v|| · ||w||
(5.1.3.1)
für alle v, w ∈ V .
Beweis:
a) Für w = 0 klar.
b) Sei w 6= 0. Dann gilt
für beliebiges λ ∈ R.
Mit λ =
hv,wi
||w||2
||v||2 − 2
5.1.3.1
hv − λw, v − λwi ≥ 0
hv, vi − 2λ hv, wi + λ2 hw, wi
folgt
hv, wi2
hv, wi
hv,
wi
+
||w||2 ≥ 0
||w||2
||w||4
⇒
Folgerungen
1. Eigenschaften der Norm als Abbildung: V → R
Positive Definitheit:
a) ||v|| ≥ 0 für v ∈ V
I
(Cauchy 1789-1857, Schwarz 1843-1921)
||v||2 −
hv, wi2
≥0
||w||2
⇒ | hv, wi | ≤ ||v||2||w||2
90
KAPITEL 5. EUKLIDISCHE VEKTORRÄUME
b) ||v|| = 0 ⇔ v = 0
Homogenität:
c) ||λv|| = |λ| · ||v|| für λ ∈ R, v ∈ V , denn
||λv||2 = hλv, λvi = λ2 hv, vi = λ2 ||v||2
Dreiecksungleichung:
d)
||v + w|| ≤ ||v|| + ||w|| für v, w ∈ V
, denn
||v + w||2 = hv + w, v + wi = hv, vi +2 hv, wi + hw, wi
| {z }
| {z } | {z }
=||v||2
=||w||2
≤||v||·||w||
≤ ||v||2 + 2||v|| · ||w|| + ||w||2 = (||v|| + ||w||)2
Zum Namen „Dreiecksungleichung“:
Seien A, B, C die Eckpunkte eines Dreiecks, dann A = 0 + a, B = 0 + b, C = 0 + c
x2
C
w
A
c
a
v+w
v
b
B
x1
0
|AB| = ||v||,
|AC| = ||w||,
v =a−b
w = c−a
|BC| = ||w + v|| = ||c − b||
Die Dreiecksungleichung besagt
|BC| = ||v + w|| ≤ ||v|| + ||w|| = |AB| + |AC|
5.1. SKALARPRODUKTE
91
2. Für v 6= 0, w 6= 0 kann man den Winkel α = α(v, w) zwischen v und w erklären durch
cos α =
hv, wi
||v|| · ||w||
mit α ∈ [0, π]
denn (5.1.3.1) liefert
hv, wi ||v|| · ||w|| ≤ 1
⇔
−1 ≤
hv, wi
≤1
||v|| · ||w||
und cos-Funktion ist bijektive Abbildung
[0, π] → [−1, 1]
1.5
cos(x)
1
0.5
0
-0.5
-1
-1.5
5.1.3.1.1
0
0.5
1
1.5
2
2.5
3
Geometrische Deutung des Standardskalarprodukts in R2 :
hv, wi = ||v|| · ||w|| · cos α,
v1 w1 + v2 w2 =
w1
v1
,w =
v=
w2
v2
q
q
v12 + v22 · w12 + w22 · cos α
92
KAPITEL 5. EUKLIDISCHE VEKTORRÄUME
x2
||w
||
w
v
α
||v ||
s
Aus Schulgeometrie:
cos α =
x1
s
||w||
hv, wi
s
=
⇒ hv, wi = s · ||v||
||v|| · ||w|| ||w||
5.1.4
Kriterium für lineare Unabhängigkeit in Euklidischem Vektorraum
v1 , . . . , vr ∈ V sind linear unabhängig
G := (hvi , vj i)i,j=1,...,r ∈ Rr×r ist regulär
⇔
(G heißt Gramsche Matrix, nach J.A. Gram (1850-1916))
Beweis:
Wir zeigen:
v1 , . . . , vr linear abhängig ⇔ G nicht regulär ⇔ Det G = 0 ⇔ Rang G < r
a) (⇒) Sei λ1 v1 + . . . + λr vr = 0 eine nichttriviale Nullrelation, d.h.
r
X
j=1
λj hvi , vj i =
*
vi ,
r
X
λj vj
j=1
+
Pr
= 0 für i = 1, . . . , r
Das ist nichttriviale Nullrelation der Spalten
sj = (hv1 , vj i , hv2 , vj i , . . . , hvr , vj i)T
von G, also s1 , . . . , sr linear abhängig ⇔ Rang G < r.
2
j=1 λj
> 0.
(5.1.4.2)
5.2. ORTHOGONALE VEKTOREN
93
Pr
2
b) P
(⇐) Sei Rang G < r ⇔ Es gibt Relation (5.1.4.2) mit
j=1 λj > 0. Setze w =
r
j=1 λj vj , so gilt
+
* r
r
X
X
hvi , wi = 0 für i = 1, . . . , r ⇒ 0 =
λi hvi , wi =
λi vi , w = ||w||2 ⇔ w = 0
i=1
|i=1{z }
w
Das ist lineare Abhängigkeit der Vektoren v1 , . . . , vr .
5.2
5.2.1
Orthogonale Vektoren
Definitionen
1. Sei V ein Euklidischer Vektorraum mit dem Skalarprodukt h·, ·i. Dann heißen v, w ∈ V
orthogonal oder senkrecht zueinander (in Zeichen v⊥w), falls hv, wi = 0 (also falls für
v, w 6= 0 der Winkel α = α(v, w) = π2 ist).
2. v1 , . . . , vr ∈ V heißen orthonormal oder Orthonormalsystem, falls ||vi || = 1 und vi ⊥vj =
0 für i 6= j, i, j = 1, . . . , r (kurz: hvi , vj i = δij ).
3. Bildet ein Orthonormalsystem v1 , . . . , vn eine Basis von V , dann nennt man es Orthonormalbasis.
5.2.1.0.1 Beispiel: Bezüglich des Standardskalarprodukts bildet die kanonische Basis
eT1 , eT2 , . . . , eTn eine Orthonormalbasis des Rn , denn
 
0
 .. 
.
T T
 
T
, . . . , 0) 1}j-te Stelle = δij
ei , ej = ei ej = (0, . . . , |{z}
1
.
i-te Stelle
 .. 
0
Nach dem Kriterium für die lineare Unabhängigkeit in V ist jedes Orthonormalsystem
linear unabhängig, weil die Gramsche Matrix
G = (hvi , vj i)i,j=1,...,r = (δij ) = Er ,
also regulär ist.
5.2.1.0.2 Entwicklung nach Orthonormalbasis: Sei v1 , . . . , vn eine Orthonormalbasis von V , so gilt für jedes v ∈ V die Entwicklungsformel
v=
n
X
i=1
Beweis:
hv, vi i vi ,
||v||2 =
n
X
i=1
hv, vi i2
94
KAPITEL 5. EUKLIDISCHE VEKTORRÄUME
P
1) Weil V = lin(v1 , . . . , vn ), gilt v = ni=1 ci vi mit ci ∈ R.
* n
+
n
X
X
hv, vj i =
ci vi , vj =
ci hvi , vj i = cj · 1 für j = 1, . . . , n
| {z }
i=1
i=1
=δij
⇒ cj = hv, vj i
2)
2
||v|| = hv, vi =
1)
=
* n
X
i=1
n
X
i,j=1
5.2.2
hv, vi i vi ,
n
X
j=1
hv, vj i vj
hv, vi i hv, vj i hvi , vj i =
| {z }
=δij
+
n
X
i=1
hv, vi i hv, vi i
Orthogonale Unterräume
Sei M ⊆ V, M 6= ∅ und
M ⊥ := {v ∈ V | hv, ui = 0 für alle u ∈ M}
5.2.2.0.1
Beispiel: M = {(2, 1)}
2
= 0}
M = {(x1 , x2 ) ∈ R | (x1 , x2 )
1
⊥
2
= {(x1 , x2 ) ∈ R2 | 2x1 + x2 = 0} = {(x1 , −2x1 ) | x1 ∈ R} = lin ((1, −2))
x2
M⊥
M
1
0
1
2
x1
5.2. ORTHOGONALE VEKTOREN
5.2.2.1
95
Eigenschaften von M ⊥
a) M ⊥ ist stets ein Unterraum von V , denn nach Unterraum-Kriterium überprüfen wir
1. 0 ∈ M ⊥ , weil h0, vi = 0 für alle v ∈ V
2. Sei v, w ∈ M ⊥ , dann
hv + w, ui = hv, ui + hw, ui = 0 für u ∈ M
| {z } | {z }
=0
somit v + w ∈ M ⊥ .
=0
3. Sei v ∈ M ⊥ , λ ∈ R, denn
hλv, ui = λ hv, ui = 0
⇒
λv ∈ M ⊥
b) Sei U ein Unterraum eines endlich dimensionalen Euklidischen Vektorraums V , dann
ist U ⊥ ein zu U komplementärer Unterraum, d.h.
V = U ⊕ U⊥
(U ⊥ heißt orthogonales Komplement zu U.)
Beweis: Wir müssen zeigen
i) U ∩ U ⊥ = {0}
ii) U + U ⊥ = V
zu i) Sei a ∈ U ∩ U ⊥ , so ist a ∈ U ⊥ , also ha, ui = 0 für alle u ∈ U. Speziell mit u = a
folgt
0 = ha, ai = ||a||2 ⇔ a = 0
zu ii) Sei dim U = m und U = lin(v1 , . . . , vm ) und dimV = n > m. Wir ergänzen
v1 , . . . , vm zu einer Basis v1 , . . . , vm , vm+1 , . . . , vn von V . Somit gilt für jedes
v ∈V:
n
X
v=
λi vi , λi ∈ R
i=1
Wir zeigen dim U = n − m, denn dann folgt nach Dimensionsformel:
⊥
dim(U + U ⊥ ) = dim U + dim U ⊥ − dim(U ∩ U ⊥ )
= m + (n − m) − 0 = n = dim V
⇒
U + U⊥ = V
Zum Nachweis von dim U ⊥ = n − m:
w=
n
X
j=1
xj vj ∈ U ⊥ ⇔ hvi , wi = 0 für i = 1, . . . , m (vi Basisvektoren von U)
96
KAPITEL 5. EUKLIDISCHE VEKTORRÄUME
w ∈ U⊥
n
X
⇔
i=1
hvi , vj i xj = 0
hv1 , v1 i x1
..
.
⇔
+ hv1 , v2 i x2
+ . . . + hv1 , vn i xn
= 0
hvm , v1 i x1 + hvm , v2 i x2 + . . . + hvm , vn i xn = 0
(lineares Gleichungssystem aus m Gleichungen in n Unbekannten x1 , . . . , xn )
⇒ dim U ⊥ = dim L(A, 0) = n − Rang A
mit der Koeffizientenmatrix A = (hvi , vj i)i = 1, . . . , m .

j = 1, . . . , n

hv1 , v1 i . . . hvm , v1 i
 ..

..
 .
 ist Gramsche Matrix G zu v1 , . . . , vm .
.
hvm , v1 i . . . hvm , vm i
Wegen linearer Unabhängigkeit von v1 , . . . , vm ist G regulär, d.h. Rang G = m.
⇒ Rang A = m,
5.2.2.2
dim U ⊥ = n − m
Folgerungen
1. Nach Übungsaufgabe lässt sich jedes v ∈ V = U ⊕ U ⊥ eindeutig darstellen:
v = u+w
mit u ∈ U , hw, u
ei = 0
für alle
u
e∈U
2. Hat U eine Orthonormalbasis u1 , . . . , um so ist
m
X
w mit hw, ui i = 0 für i = 1, . . . , m ,
v=
hu, ui i ui + |{z}
|i=1 {z
=u∈U
}
∈U ⊥
denn nach Entwicklungsformel gilt für u ∈ U
m
X
hu, uii ui
u=
i=1
Weiterhin ist
hv, ui i = hu + w, uii = hu, ui i + hw, uii = hu, ui i
| {z }
=0
3. Die zur Zerlegung V = U ⊕ U ⊥ gehörende Projektionsabbildung
P = PU : V → U mit P (u + w) = u für u ∈ U, w ∈ U ⊥
heißt Orthogonalprojektion von V auf U (Kern(PU ) = U ⊥ ) mit
PU (v) =
m
X
i=1
hv, ui i ui .
5.2. ORTHOGONALE VEKTOREN
5.2.2.2.1
97
Beispiel:
 
 
 
1
0
−1
√





1
V = R3 , U = lin (b1 , b2 ) mit b1 = 1 , b2 =
und v = 2 3 0
1
0
1
x3
v
x2
b2
U⊥
U
w
e
b1
x1
U ⊥ = {w ∈ R3 | w T u = 0 für alle u ∈ U}

  

 w1 w1 · 1 + w2 · 1 = 0
= w2 
w · (−1) + w2 · 1 + w3 · 1 = 0 

w3 1



  
 
 1 

 w1 

−1
= w2  w2 = −w1 , w3 = 2w1 = lin 




 2 
w3 | {z }
w
e
98
KAPITEL 5. EUKLIDISCHE VEKTORRÄUME
 
−1

Weil hb1 , b2 i = (1, 1, 0) 1  = 0 ist eine Orthonormalbasis von U gegeben durch
1
 
 
1
−1
b2
b1
1  
1  
1 , u2 :=
1
.
u1 :=
=√
=√
||b1 ||
||b2 ||
2 0
3
1

 
 
0
−1
√
2
⇒ u = PU 2 3 0 = hv, u1i u1 + hv, u2 i u2 = 0 · u1 + 2 · u2 = √  1 
3
1
1
 2 
 
√
1
3
2  
− √2 
−1
w = v − u =  3 = √
3
√4
2
3
5.2.3
Konstruktion einer Orthonormalbasis
Konstruktion einer Orthonormalbasis mittels des Orthonormalisierungsverfahrens nach Erhard Schmidt (1876-1959). Wir zeigen durch vollständige Induktion, dass aus jeder Menge
Bm := {v1 , . . . , vm }
linear unabhängiger Vektoren des Euklidischen Vektorraums V stets ein Orthonormalsystem
Cm := {u1 , . . . , um }
konstruiert werden kann. Dabei gilt:
lin Bm = lin Cm
• Induktionsanfang
m = 1, B1 = {v1 }, v1 6= 0. Setze u1 :=
1
v .
||v1 || 1
• Induktionsschritt
∈B
z }|m {
Seien v1 , . . . , vm , vm+1 ∈ V linear unabhängig. Nach Induktionsvorraussetzung (IV)
erhält man aus Bm ein Orthonormalsystem Cm aus m Vektoren u1 , . . . , um mit
lin Bm = lin Cm =: Um . Dann vm+1 ∈
/ Um .II
1. Schritt: Zerlege vm+1 orthogonal bezüglich Um
⊥
vm+1 = PUm vm+1 + wm+1 mit wm+1 ∈ Um
II
Wäre vm+1 ∈ Um , so wäre vm+1 eine Linearkombination der Vektoren v1 , . . . , vm .
5.2. ORTHOGONALE VEKTOREN
99
d.h.
wm+1 = vm+1 −
m
X
i=1
hvm+1 , ui i ui
⇒
wm+1 6= 0 (wegen vm+1 ∈
/ Um )
2. Schritt: Normierung von wm+1 :
Setze
um+1 :=
1
||wm+1 ||
wm+1 .
Dann ist
lin Cm+1 = lin(u1 , . . . , um , wm+1 ) = lin(u1 , . . . , um, vm+1 )
= lin (u1 , . . . , um ) +lin(vm+1 ) = lin Bm + lin(vm+1 )
{z
}
|
(IV)
Cm
= lin(v1 , . . . , vm , vm+1 ) = lin Bm+1 .
Weiterhin
hui , uj i = δij
für i, j = 1, . . . , m
(nach IV),
⊥
für j = 1, . . . , m , da um+1 ∈ Um
und
1
hwm+1 , wm+1 i = 1.
hum+1 , um+1 i =
||wm+1 ||2
hum+1 , uj i = 0
5.2.3.0.1 Folgerung: Sei dim V = n. Dann kann aus Basis Bn stets eine Orthonormalbasis Cn konstruiert werden, also:
Jeder endlich-dimensionale Euklidische Vektorraum besitzt eine Orthonormalbasis.
5.2.3.0.2
Beispiel: Sei
 
 
 
1
0
0





1 .
v1 = 0 , v2 = 1 , v3 =
1
0
−1
Dann bilden diese Vektoren eine Basis des R3 , denn wegen
1 0 0 Det (v1 , v2 , v3 ) = 0 1 1 = −1 6= 0
1 0 −1
sind sie linear unabhängig.
Konstruktion einer Orthonormalbasis mittels Schmidtschen Orthonormalisierungsverfahrens:
100
KAPITEL 5. EUKLIDISCHE VEKTORRÄUME
a) Normierung von v1 :
 
1
1  
1
0
v1 = √
u1 =
||v1 ||
2 1
b) Orthonormierung von v2 :
 
   
0
1
0
1    


0 = 1
1. Schritt: w2 = v2 − hv2 , u1 i u1 = 1 − 0 · √
2 1
0
0
 
0
1
w2 = 1
2. Schritt: u2 =
||w2 ||
0
c) Orthonormierung von v3 :
1. Schritt: w3 = v3 − hv3 , u1 i u1 − hv3 , u2 i u2
 
 
 
 
1
0
1
0
1 
−1 1  




0 −1· 1 =
0
=
1 −√ ·√
2
2
2
1
0
−1
−1
 
1
1  
1
0
w3 = √
2. Schritt: u3 =
||w3||
2 −1
5.3
Orthogonale Abbildungen und Matrizen
5.3.0.0.1 Motivation: Wir untersuchen lineare Abbildungen f : V → V (Endomorphismen), welche das Skalarprodukt auf V invariant (unverändert) lassen, d.h. die Größe
des Winkels zwischen zwei beliebigen Vektoren v, w ∈ V bleibt bei f erhalten. Anschaulich
müssten die Drehungen der Ebene um 0 dieses leisten. Zur Überprüfung setzen wir:
cos ϕ − sin ϕ
V = R2 mit Standardskalarprodukt und D(ϕ) :=
, ϕ ∈ [0, 2π]
sin ϕ cos ϕ
(D(ϕ) heißt Drehmatrix.)
Die Abbildung fD : R2 → R2 definiert durch
fD (x) = D(ϕ)x
stellt eine Drehung von x =
x1
x2
und Winkel ϕ dar, denn
5.3. ORTHOGONALE ABBILDUNGEN UND MATRIZEN
101
Polarkoordinaten von x
q
r = x21 + x22 = ||x||
x2
x1
r
x2
sin ψ =
r
x2
tan ψ =
x1
x
x2
cos ψ =
r
ψ
x1
x1
cos ϕ cos ψ − sin ϕ sin ψ
cos ψ
cos ϕ − sin ϕ
=r
r
D(ϕ)x =
sin ϕ cos ψ + cos ϕ sin ψ
sin ψ
sin ϕ cos ϕ
cos(ψ + ϕ)
⇒ D(ϕ)x = r
sin(ψ + ϕ)
x2
D(ϕ)x
x
x2
ϕ
ψ
x1
x1
Nachrechnen:
hfD (x), fD (y)i = (D(ϕ)x)T D(ϕ)y = xT D(ϕ)T D(ϕ)y
y1
cos ϕ − sin ϕ
cos ϕ sin ϕ
= (x1 , x2 )
y2
sin ϕ cos ϕ
− sin ϕ cos ϕ
y1
1 0
= xT y = hx, yi
= (x1 , x2 )
y2
0 1
5.3.0.0.2 Definition: Eine lineare Abbildung f : V → V in einem Euklidischen Vektorraum V heißt orthogonale Abbildung oder Isometrie, falls
hf (v), f (w)i = hv, wi
5.3.1
für alle
v, w ∈ V
Eigenschaften orthogonaler Abbildungen
1) Jede Isometrie f ist ein Isomorphismus von V auf V (d.h. Automorphismus), falls V
endlich dimensional ist.
Beweis:
102
KAPITEL 5. EUKLIDISCHE VEKTORRÄUME
a) Zur Injektivität:
Sei v ∈ Kern(f ), d.h. f (v) = 0
||v||2 = hv, vi = hf (v), f (v)i = h0, 0i = 0
⇔
v=0
Kern(f ) = {0}
⇒
b) Zur Surjektivität:
Sei dim V = n, so folgt aus Dimensionsformel
dim Kern(f ) +dim Bild(f ) = n
|
{z
}
⇒
Bild(f ) = V
=0 nach 1a)
weil Bild(f ) ein Unterraum von V ist.
Bemerkung: Für unendlichdimensionale Vektorräume gilt: Jede Isometrie ist injektiv.
2) Sei v1 , . . . , vn eine Orthonormalbasis von V . Dann ist f ∈ Hom(V, V ) eine Isometrie
genau dann, wenn F := {f (v1 ), . . . , f (vn )} wieder eine Orthonormalbasis von V bildet.
Beweis:
a) (⇒) Sei f orthogonal, so
hf (vi ), f (vj )i = hvi , vj i = δij für i, j = 1, . . . , n
Somit ist F ein Orthonormalsystem, welches die Länge n = dim V hat. Folglich ist
es eine Orthonormalbasis von V .
b) (⇐) Sei F eine Orthonormalbasis von V , also hf (vi ), f (vj )i = δij . Für v, w ∈ V gilt
die Darstellung
v=
⇒
hf (v), f (w)i =
f (v) =
*
n
X
i=1
n
X
w=
n
X
λi f (vi ),
λi f (vi ),
i=1
f (w) =
n
X
µj f (vj )
j=1
* n
X
i=1
µi vi
i=1
i=1
=
5.3.2
λi vi ,
n
X
λi vi ,
n
X
j=1
µj vj
+
+
=
n
X
µi f (vi )
i=1
n
X
i,j=1
= hv, wi
λi µj hf (vi ), f (vj )i
|
{z
}
=δij =hvi ,vj i
Orthogonale Matrizen
5.3.2.0.1 Definition: Betrachtet man fA : Rn → Rn mit Darstellungsmatrix A ∈
Rn×n , so gilt fA (x) = Ax. Ist fA eine orthogonale Abbildung, so heißt A orthogonale
Matrix.
5.3. ORTHOGONALE ABBILDUNGEN UND MATRIZEN
5.3.2.0.2
103
Charakterisierung orthogonaler Matrizen:
i) A ∈ Rn×n ist orthogonal
⇔
ii) Spalten von A bilden Orthonormalsystem in Rn
⇔
iii) AAT = En
⇔
⇔
v) AT A = En
vi) Zeilen von A bilden Orthonormalsystem im Rn
⇔
iv) A ist regulär und A−1 = AT
Beweis:
iii) ⇔ iv) ⇔ v) (klar)
i) ⇔ fA orthogonal
m (nach Eigenschaft 2)
fA eT1 = AeT1 = s1 , . . . , fA eTn = AeTn = sn , d.h., daß die Spalten von A = (s1 , s2 , . . . , sn ) eine
Orthonormalbasis von Rn bilden ⇔ ii)
v) lautet:
 
sT1
 
AT A =  ...  s1 , . . . , sn = sTi sj i,j=1,...,n = (δij )
sTn
⇔
sTi sj = δij für i, j = 1, . . . , n
⇔
ii)
⇔
vi)
v) lautet:
E = AT A = AT (AT )T
⇔
AT ist orthogonal
⇔
Spalten von AT bilden Orthonormalsystem
wegen iii)
wegen ii)
5.3.2.0.3
Folgerung: Für orthogonales A ∈ Rn×n gilt
(Det A)2 = Det(A) · Det(AT ) = Det(AAT ) = Det En = 1
iii)
⇒ Det A = 1 oder Det A = −1
O(n) := {A ∈ Rn×n | AT A = En } (orthogonale Gruppe des Rn×n )
SO(n) := {A ∈ O(n) | Det A = 1} (spezielle orthogonale Gruppe)
104
KAPITEL 5. EUKLIDISCHE VEKTORRÄUME
5.3.2.1
Bestimmung aller Elemente von O(2)
5.3.2.1.1 Satz: Sei A ∈ O(2), dann hat A die Gestalt:
cos ϕ sin ϕ
cos ϕ sin ϕ
mit 0 ≤ ϕ < 2π .
oder
A=
A=
sin ϕ − cos ϕ
− sin ϕ cos ϕ
(A ∈ SO(2), weil Det A = 1, A = D(−ϕ))
(A ∈ O(2)\SO(2), weil Det A = −1)
Beweis:
A=
a b
c d
∈ O(2)
a2 + b2 = 1 , c2 + d2 = 1 (Länge der Zeilenvektoren = 1)
⇔
c
a b
= ac + bd = 0 (Senkrechtstehen der Zeilenvektoren)
d
Aus a2 + b2 = 1 folgt die Existenz eines Winkels ϕ ∈ [0, 2π) mit a = cos ϕ, b = sin ϕ.
Analog: Aus c2 + d2 = 1 ergibt sich ψ ∈ [0, 2π) mit c = cos ψ, d = sin ψ.
0 = ac + bd = cos ϕ cos ψ + sin ϕ sin ψ = cos(ϕ − ψ)
⇔
π
+ kπ,
k∈Z
2
π
ψ = ϕ − + kπ
2
ϕ−ψ =
(
sin ϕ
,
− sin ϕ ,
(
− cos ϕ
d = sin ψ = − cos(ϕ + kπ) =
cos ϕ
c = cos ψ = sin(ϕ + kπ) =
5.3.2.1.2
falls k = 2l
falls k = 2l + 1
, falls k = 2l
, falls k = 2l + 1
l∈Z
Bemerkung:
1 0
1 0
cos ϕ sin ϕ
· D(−ϕ) = D(ϕ)
=
A=
0 −1
0 −1
sin ϕ − cos ϕ
1 0
∈ O(2)\SO(2) und realisiert eine Spiegelung des R2 an der x1 -Achse, denn
S0 =
0 −1
x1
x1
1 0
=
fS0 (x) = S0 x =
−x2
x2
0 −1
5.3. ORTHOGONALE ABBILDUNGEN UND MATRIZEN
105
x2
x2
x
x1
−x2
fS0 (x)
5.3.2.1.3
Zusammenfassung. Jede orthogonale Abbildung des R2 ist eine Drehung
0
um 0 oder die Hintereinanderausführung einer Drehung und einer Spiegelung fS0 (dabei
ist Reihenfolge der Operationen egal).
106
KAPITEL 5. EUKLIDISCHE VEKTORRÄUME
Kapitel 6
Eigenwerttheorie
6.1
Eigenwerte und Eigenvektoren
Wir betrachten wieder Endomorphismen f , d.h. lineare Abbildungen f : V → V . Dann ist
f durch die Bilder der Vektoren einer Basis B := {v1 , . . . , vn } von V eindeutig bestimmt,
genauer gesagt, durch die Darstellungsmatrix A = (aij )i,j=1,...,n . Diese ist definiert durch:
f (vi ) =
n
X
aij vj
j=1
Dann ist für v ∈ V mit v = x1 v1 + . . . + xn vn
f (v) =
n
X
xi f (vi ) =
i=1
6.1.0.0.1
n
X
xi aij vj
i,j=1
Fragen:
• Gibt es eine Basis B von V , so dass A „möglichst einfach“ aussieht, d.h. wenn A eine
Diagonalmatrix


λ1 . . . 0


Λ :=  ... . . . ... 
0
. . . λn
ist? Dann heißt f diagonalisierbar, und es gilt
f (vi ) = λi vi
• Ist nun jedes f ∈ Hom(V, V ) diagonalisierbar?
• Wie findet man gegebenenfalls eine solche Basis B?
107
108
KAPITEL 6. EIGENWERTTHEORIE
6.1.0.0.2 Definition: Eine Zahl λ ∈ R (oder λ ∈ C) heißt Eigenwert von f , falls es
einen Vektor v ∈ V gibt mit
f (v) = λv und v =
6 0,
v heißt Eigenvektor zum Eigenwert λ (zu einem Eigenwert gibt es mehrere Eigenvektoren).
6.1.0.0.3
α ∈ R.
6.1.1
Bemerkung: v 6= 0 ist wichtige Forderung, weil f (0) = 0 = α · 0 für alle
Folgerungen
1) f ∈ Hom(V, V ) ist genau dann diagonalisierbar, wenn V eine Basis aus Eigenvektoren
zu f besitzt.
2)
v ∈ V ist Eigenvektor zu f
(f − λ · IdV )(v) = 0 und v 6= 0
v ∈ Kern(f − λ · IdV ) und v 6= 0
⇔
⇔
Kern(f − λ · IdV ) =: Eig(f, λ) heißt Eigenraum von f zum Eigenwert λ und ist ein
Unterraum von V , dim Eig(f, λ) heißt geometrische Vielfachheit des Eigenwert λ.
6.1.2
Beispiele
a) f = IdV hat Eigenwert 1 und jeder Vektor v ∈ V \ {0} ist Eigenvektor (f (v) = IdV (v) =
v = 1 · v).
b) In V = R2 betrachten wir Spiegelung fS an einer Geraden G = lin(v1 ), v1 6= 0.
x2
x
G
v2
v1
fS (x)
x1
fS (v2 )
Die Abbildung fS ist diagonalisierbar, denn
fS (v1 ) = v1 = 1 · v1
fS (v2 ) = −v2 = (−1) · v2
für v2 ⊥ v1 .
6.1. EIGENWERTE UND EIGENVEKTOREN
109
fS hat Eigenwert 1 und −1 mit Eigenvektoren v1 bzw. v2 . v1 , v2 bilden Basis von R2 .
Eig(fS , 1) = lin(v1 ) = G , Eig(fS , −1) = lin(v2 )
Geometrische Vielfachheit von Eigenwert 1 und −1 ist jeweils 1.
c) Die Drehung fD(ϕ) des R2 um 0 (0 < ϕ < π) besitzt dagegen keine (reellen) Eigenvektoren und ist somit nicht diagonalisierbar (in R).
x2
fD(ϕ) (v)
ϕ
v
x1
d) Sei V = U ⊕W , W komplementärer Unterraum zu V (z.B.: W = U ⊥ ), U 6= {0}, U ⊂ V .
P := PU : V → U
mit
P (u + w) = u für u ∈ U, w ∈ W
P hat Eigenwert 1, weil P (u) = u = 1 · u
P hat Eigenwert 0, weil P (w) = 0 = 0 · w
6.1.3
mit geometrischer Vielfachheit dim U
mit geometrischer Vielfachheit dim W
Diagonalisierbare Matrizen
Betrachten wir wieder Abbildung fA : Rn → Rn mit fA (x) = Ax, A ∈ Rn×n . fA ist
diagonalisierbar, falls es v1 , . . . , vn ∈ Rn gibt mit der Eigenschaft: fA (vi ) = A · vi = λi vi für
i = 1, . . . , n und v1 , . . . , vn linear unabhängig, also


λ1 . . . 0


A · (v1 , v2 , . . . , vn ) = (λ1 v1 , . . . , λn vn ) = v1 , . . . , vn  ... . . . ... 
0 . . . λn
⇔ AT = T Λ mit T =
unabhängig sind.

λ1

⇔ T −1 AT = Λ =  ...
0
(v1 , . . . , vn ) ∈ Rn×n . Dabei ist T regulär, weil v1 , . . . , vn linear

... 0
.
..
. .. 
. . . λn
110
KAPITEL 6. EIGENWERTTHEORIE
6.1.3.0.1 Definition: Wir nennen A ∈ Rn×n diagonalisierbar, wenn fA diagonalisierbar ist, d.h. wenn eine reguläre Matrix T existiert mit T −1 AT = Λ. Dabei übertragen
sich die entsprechenden Begriffe von fA unmittelbar auf A, also λi sind Eigenwerte von A,
T = (v1 , . . . , vn ), vi sind die Eigenvektoren von A (Avi = λi vi ) usw.
6.1.3.0.2
Folgerung: Für diagonalisierbare Matrizen A gilt:
n
Y
λi
Det A = λ1 · λ2 · . . . · λn =
i=1
denn
1
−1
−1
Det
| {z Λ} = Det(T AT ) = Det(T ) · Det A · Det T = Det T · Det A · Det T .
=λ1 ·...·λn
6.1.3.1
Beispiele
1.
A=
ist diagonalisierbar, denn
0 1
1 0
0 1
x2
x1
Ax =
.
=
x1
x2
1 0
1
Also ist 11 ein Eigenvektor zum Eigenwert 1. Weiterhin ist −1
ein Eigenvektor zum
Eigenwert −1.
1 1
1 0
−1
⇒ T =
, T AT =
1 −1
0 −1
1
Eig(A, ±1) = Eig(fA , ±1) = lin
±1
Geometrische Vielfachheit von Eigenwert ±1 ist dim Eig(A, ±1) = 1.
2.
A=
ist nicht diagonalisierbar, denn
0 1
0 0
0 1
x1
x2
Ax =
=
0 0
x2
0
0
1
1
=
. Da A
d.h., jeder Eigenvektor ist Vielfaches von
0
0
0
Eigenwert zu A.
1
⇒ Eig(A, 0) = Eig(fA , 0) = lin
0
Geometrische Vielfachheit von 0 ist 1.
gilt, ist 0 einziger
6.1. EIGENWERTE UND EIGENVEKTOREN
6.1.4
111
Eigenschaften von Eigenvektoren
6.1.4.0.1 Satz: Eigenvektoren zu verschiedenen Eigenwert einer Abbildung f ∈ Hom(V, V )
sind linear unabhängig.
Beweis: Sind v1 , . . . , vm Eigenvektoren zu Eigenwerten λ1 , . . . , λn mit λi 6= λj für i 6= j.
Anwendung der vollständigen Induktion nach m:
• Induktionsanfang
m = 1: Eigenvektor v1 muss gemäß Definition 6= 0 sein, also linear unabhängig.
• Induktionsschluss
Sei Behauptung für m − 1 bewiesen. Dann betrachten wir Nullrelation
µ1 v1 + µ2 v2 + . . . + µm−1 vm−1 + µm vm = 0
⇒
f (µ1 v1 + . . . + µm vm ) = f (0) = 0
Wegen f (vi ) = λi vi für i = 1, . . . , m folgt
Aus (6.1.4.1):
⇒
(6.1.4.1)
µ1 f (v1 ) + . . . + µm f (vm ) = 0
µ1 λ1 v1 + . . . + µm−1 λm−1 vm−1 + µm λm vm = 0
λm µ1 v1 + . . . + λm µm−1 vm−1 + λm µm vm = 0
Subtraktion beider Gleichungen liefert
µ1 (λ1 − λm )v1 + . . . + µm−1 (λm−1 − λm )vm−1 = 0 .
Nach Induktionsvoraussetzung sind v1 , . . . , vm−1 linear unabhängig. Somit µi (λi −
λm ) = 0 für i = 1, . . . , m − 1. Wegen λi − λm 6= 0, muss µi = 0 sein. Aus (6.1.4.1)
folgt: µm vm = 0 und wegen vm 6= 0 ist auch µm = 0. Somit ist (6.1.4.1) nur trivial
und v1 , . . . , vm linear unabhängig.
6.1.4.1
Folgerungen
1) Hat f ∈ Hom(V, V ) mit dim V = n (bzw. A ∈ Rn×n ) n verschiedene Eigenwerte, so
ist f (bzw. A) diagonalisierbar, denn die zugehörigen Eigenvektoren v1 , . . . , vn sind n
linear unabhängige Vektoren von V bzw. Rn und damit eine Basis.
2) f (bzw. A) hat höchstens n verschiedene Eigenwerte.
3) Allgemeines Kriterium zur Diagonalisierbarkeit:
f (bzw. A) ist genau dann diagonalisierbar, wenn die Summe der geometrischen Vielfachheiten der Eigenwerte von f (bzw. A) gleich n = dim V ist.
Beweis:
112
KAPITEL 6. EIGENWERTTHEORIE
a) (⇒) Wenn f diagonalisierbar, so existiert eine Basis B := {v1 , . . . , vn } aus Eigenvektoren von V . Sei mi die Anzahl der Eigenvektoren aus B zum Eigenwert λi .
Dann ist
mi ≤ dim Eig(f, λi ) =: ni (= geometrische Vielfachheit von λi ).
(6.1.4.2)
Wegen
Eig(f, λi ) ∩ Eig(f, λj ) = {0} für λi 6= λj
ist nach Dimensionsformel für Unterräume
n1 + n2 + . . . + nr = dim (Eig(f, λ1 ) + Eig(f, λ2 ) + . . . + Eig(f, λr )) ≤ dim V = n
⇒ m1 + . . . + mr ≤ n1 + . . . + nr ≤ n
|
{z
} (6.1.4.2)
=n
b) (⇐) Sei
Pr
i=1
⇒
n1 + . . . + nr = n,
(mi = ni )
ni = n. Dann wählen wir in jedem Eig(f, λi ) eine Basis
(i)
Bi := {v1 , . . . , vn(i)i } für i = 1, . . . , r
Bilde C := B1 ∪ B2 ∪ . . . ∪ Br . Zum Nachweis, dass C eine Basis von V bildet,
müssen wir nur die lineare Unabhängigkeit von C prüfen. C ist dann Basis aus
Eigenvektoren und somit f diagnonalisierbar.
Sei
n1
n2
nr
X
X
X
(1) (1)
(r) (r)
(2) (2)
λj vj +
λj vj = 0
λj vj + . . . +
j=1
|
{z
=:w (1)
}
j=1
|
{z
=:w (2)
}
j=1
|
{z
=:w (r)
}
Dann ist w (i) ∈ Eig(f, λi ) und w (1) + w (2) + . . . + w (r) = 0. Nach Hilfssatz muss
jedes w (i) = 0 sein. Wegen der linearen Unabhängigkeit der Basen Bi muss auch
(i)
λj = 0 für i = 1, . . . , r, j = 1, . . . , ni . Also ist die Nullrelation nur trivial möglich
und C eine Basis von V .
6.1.4.2
Verfahren zur Diagonalisierbarkeit von A ∈ Rn×n
1. Schritt: Bestimmung der Eigenwerte λ von A.
2. Schritt: Bestimmung der geometrischen Vielfachheiten aller Eigenwerte λ, d.h. der Dimensionen der zugehörigen Eigenräume = Dimensionen der Lösungsmengen der
linearen Gleichungssysteme
(A − λEn )x = 0 .
3. Schritt: Anwendung des Kriteriums aus 3).
(6.1.4.3)
6.2. DAS CHARAKTERISTISCHE POLYNOM
113
6.1.4.2.1 Bemerkung: Eine Basis von Rn aus Eigenvektoren zu A ergibt sich durch
Aneinanderreihung der Basen der Eigenräume.
6.2
Das charakteristische Polynom
6.2.0.0.1
Satz:
λ ∈ C ist Eigenwert zu A ∈ Rn×n
⇔
Det(A − λEn ) = 0
Beweis:
λ ist Eigenwert
6.2.0.0.2
⇔
Av = λv mit v 6= 0
⇔
⇔
⇔
⇔
⇔
(A − λEn )v = 0
(6.1.4.3) hat nichttriviale Lösung
Rang(A − λEn ) < n
A − λEn nicht regulär
Det(A − λEn ) = 0
Definition:
a11 − λ
a12
a21
a22 − λ
P (λ) = PA (λ) := Det(A − λEn ) = ..
.
an1
...
heißt charakteristisches Polynom zur Matrix A.
6.2.0.0.3
6.2.0.1
. . . ann − λ
...
...
..
.
a1n
a2n
..
.
Folgerung: Die Eigenwerte von A sind die Nullstellen von PA (λ).
Beispiele
1)
PEn (λ) = Det ((1 − λ)En ) = (1 − λ)n · Det En = (1 − λ)n
2)
A=
3 4
,
2 1
3 − λ
4 PA (λ) = = (3 − λ)(1 − λ) − 2 · 4 = λ2 − 4λ − 5
2
1 − λ
PA (λ) = 0
⇔
⇔
⇒ A ist diagonalisierbar.
λ2 − 4λ − 5 = 0
√
λ = λ1/2 = 2 ± 4 + 5,
Berechnung der Eigenvektoren von A:
λ1 = 5, λ2 = −1
114
KAPITEL 6. EIGENWERTTHEORIE
• zu Eigenwert λ1 = 5
(3 − 5)x1
+4x2 = 0
⇔
2x1 +(1 − 5)x2 = 0
2
Eig(A, 5) = lin
1
x1 = 2x2
• zu Eigenwert λ2 = −1
(3 − (−1))x1
+4x2 = 0
⇔
2x1 +(1 − (−1))x2 = 0
1
Eig(A, −1) = lin
−1
6.2.1
x1 = −x2
Grundlegendes über Polynome
Seien komplexe Zahlen c0 , c1 , . . . , cn gegeben und
P (z) := c0 + c1 z + . . . + cn z n ,
z∈C.
Dann vermittelt das komplexe Polynom P mit den Koeffizienten cj eine Abbildung
P :C→C
Ist cn 6= 0, so heisst P ein Polynom vom Grad n.
1. Koeffizientenvergleich
Zwei Polynome sind genau dann gleich, wenn sie in ihren Koeffizienten übereinstimmen.
Denn 1, z, z 2 , . . . , z n bilden eine Basis im komplexen Vektorraums Pn aller Polynome
höchstens n-ten Grades.
2. Division durch Linearfaktor
Ist z0 ∈ C eine Nullstelle von P vom Grad n ≥ 1, so
P (z) = (z − z0 )Q(z)
mit eindeutigem Polynom Q vom Grad n − 1.
Beweis: Das Polynom Pe(z) = P (z + z0 ) hat Nullstelle in z = 0.
Pe(z) = e
cn z n + . . . + e
c1 z + e
c0 = z(e
cn z n−1 + . . . + e
c1 ) mit e
cn 6= 0
|{z}
=0
Ersetze Variable z durch z − z0
P (z) = Pe(z − z0 ) = (z − z0 ) (e
cn (z − z0 )n−1 + . . . + e
c1 )
{z
}
|
=Q(z)
6.2. DAS CHARAKTERISTISCHE POLYNOM
115
3. Fundamentalsatz der Algebra
Jedes Polynom vom Grad n ≥ 1 hat mindestens eine Nullstelle in C.
4. Zerlegung in Linearfaktoren
P (z) = cn
r
Y
(z − λk )mk
k=1
Dabei sind λk ∈ C die paarweise verschiedenen Nullstellen von P und mk ∈ N ihre
Vielfachheiten mit
m1 + . . . + mr = n .
Diese Zerlegung entsteht durch wiederholte Anwendung des Fundamentalsatzes und der
Division durch zugehörigen Linearfaktor zu einer Nullstelle.
6.2.1.0.1 Folgerung: Jedes Polynom vom Grad n ≥ 1 hat n komplexe Nullstellen,
jeweils mit ihrer Vielfachheit gezählt.
6.2.1.0.2
Beispiel: Berechnung der Nullstellen von P (z) = z 3 + z 2 − 2
1) Eine Nullstelle ist λ1 = 1.
2) P (z) : (z − 1) = (z 3 + z 2 − 2) : (z − 1)
(z 3
−(z 3
+z 2
−2) : (z − 1) = z 2 + 2z + 2 = Q(z)
−z 2 )
2z 2
−2
−(2z 2 −2z)
2z −2
−(2z −2)
0
3) Weitere Nullstellen von P sind die Nullstellen von Q
Q(z) = 0
⇔
⇔
z 2 + 2z + 2 = 0
z = λ2/3 = −1 ±
√
1 − 2 = −1 ± i
Zerlegung von P in Linearfaktoren:
P (z) = 1 · z 3 + z 2 − 2 = 1 · (z − 1)(z − (−1 + i))(z − (−1 − i)) .
116
KAPITEL 6. EIGENWERTTHEORIE
6.2.2
Anwendung auf charakteristisches Polynom
6.2.2.0.1
Darstellung des charakteristischen Polynoms:
PA (λ) = Det(A − λEn ) = (−1)
n
4.
r
Y
(λ − λk )mr ,
k=1
wobei λ1 , . . . , λr die verschiedenen Eigenwerte der Matrix A sind mit den algebraischen
Vielfachheiten mk .
6.2.2.0.2 Zusammenhang zwischen algebraischen und geometrischen Vielfachheiten: Es gilt
nk ≤ mk
(nk = dim Eig(A, λk ) = geometrische Vielfachheit von λk )
Beweis:
a) Sei λk ein Eigenwert zu A ∈ Rn×n und Bk := {v1 , . . . , vnk } ⊂ Rn eine Basis von
Eig(a, λk ). Ergänze diese zu Basis v1 , . . . , vn von Rn und setze T := (v1 , . . . , vn ) ∈ Rn×n .
Dabei ist Rang T = n und es existiert T −1 .
⇒
En
|{z}
= T −1 T = T −1 (v 1 , . . . , vn ) = (T −1 v1 , T −1 v2 , . . . , T −1 vn )
T
=(eT
1 ,...,en )
⇒
T −1 vi = eTi für i = 1, . . . , n
b)
PA (λ) = Det(A − λEn ) = Det(T −1 )Det(A − λE)Det T
= Det(T −1 (A − λE)T ) = Det(T −1 AT − λE)
Es ist
AT = A(v1 , . . . , vn ) = Av1 , . . . ,
|{z}
=λk v1
⇒
⇒
=eT
2
λk T −1 vnk , cnk +1 , . . . , cn )
| {z }
= eT
nk , wegen a)
λk − λ
0
0
0
λ
−
λ
0
k
0
0
λk − λ
PA (λ) = 0
0
0
.
.
..
..
..
.
0
0
0
Grad von R ist n − nk .
, . . . , Avn
=
λk vnk , weil
Bk ⊂ Eig(A, λk )
T −1 AT = (λk T −1 v1 , λk T −1 v2 , . . . ,
| {z } | {z }
=eT
1
Avnk
| {z }
∗
∗
= (λk − λ)nk R(λ)
6.2. DAS CHARAKTERISTISCHE POLYNOM
6.2.2.0.3
117
Folgerung:
A ist diagonalisierbar
⇔
nk = mk für jeden Eigenwert λk zu A
(n1 + n2 + . . . + nr ≤ m1 + m2 + . . . + mr = n)
6.2.3
Bemerkung zu komplexen Eigenwerten einer Matrix
A ∈ Rn×n
Ist λ0 ∈ C eine Nullstelle von PA (λ), d.h. ein Eigenwert zu A mit Eigenvektor v ∈ Cn , so
ist auch λ0 ein Eigenwert zu A mit Eigenvektor v, denn:
PA (λ) = a0 + a1 λ + . . . + an λn hat reelle Koeffizienten aj
Wegen
PA (λ0 ) = a0 + a1 λ0 + . . . + an λn0 = 0
ist
a0 + a1 λ0 + . . . + an λn0 = 0
⇒
PA (λ0 ) = a0 + a1 λ0 + . . . + an (λ0 )n = 0
Weiterhin bedeutet v ∈ Cn :
 
z1
 .. 
v=.
mit
zn
⇒
⇒ λ0 ist Eigenwert zu A
zj ∈ C , d.h. zj = xj + iyj
mit xj , yj ∈ R
 
z1
 .. 
v =  .  , z j = xj − iyj .
zn
für
j = 1, . . . , n .
Wegen Av = λ0 v folgt Av = λ0 v.
Av = Av = λ0 v
6.2.4
(A = A, da A ∈ Rn×n )
Eigenwerte orthogonaler Matrizen A ∈ Rn×n
(AT A = En bzw. A ∈ O(n))
1) Für alle Eigenwerte λ ∈ C von A ∈ O(n) gilt |λ| = 1.
Beweis:
118
KAPITEL 6. EIGENWERTTHEORIE
Sei Av = λv mit v ∈ Cn , v 6= 0.
⇒
Av = λv
⇒
(Av)T Av = (λv)T λv
⇒
vT AT Av = λλv T v
⇒
v T En v = |λ|2v T v
Wegen v T v = z 1 z1 + z 2 z2 + . . . + z n zn = (x21 + y12) + (x22 + y22 ) + . . . + (x2n + yn2 )
> 0 (weil v 6= 0 als Eigenvektor zu A),
ist 1 = |λ|2 .
2) Jedes A ∈ SO(3), d.h. A ∈ R3×3 , AT A = E3 , Det A = +1, hat den Eigenwert λ = +1.
Beweis:
Wegen Bemerkung zu komplexen Eigenwerten kann A höchstens 2 Eigenwerte aus C \ R
haben, d.h. mindestens ein Eigenwert λ1 ist reell. Nach 1) ist |λ1 | = 1. Sei λ1 = −1 und
λ2 , λ3 die beiden anderen Eigenwerte.
Es galt:
Det
λ1 λ2 λ3
| {z A} = |{z}
=+1
=−1
⇒
λ2 λ3 = −1
Wäre λ2 ∈ C \ {−1, +1}, so λ3 = λ2 und λ2 λ3 = λ2 λ2 = |λ2 |2 = 1.
⇒ Widerspruch und somit
(λ2 = −1 und λ3 = +1)
oder
(λ2 = +1 und λ3 = −1)
3) Für jedes A ∈ SO(3) existiert eine orthogonale Matrix T , so dass


1 0 0
cos
ϕ
−
sin
ϕ
T
 mit einer Drehmatrix D(ϕ) =
T AT = 0
, ϕ ∈ [0, 2π).
D(ϕ)
sin ϕ cos ϕ
0
Beweis:
Nach 2) gibt es Eigenvektor v1 zu Eigenwert λ = +1, d.h. Av1 = (+1)v1 mit v1 ∈
R3 , v1 6= 0.
O.B.d.A. sei ||v1 || = 1. Ergänze v1 zu einer Orthonormalbasis v1 , v2 , v3 des R3 , es gilt
also
hvi , vj i = viT vj = δij für i, j = 1, 2, 3
Setze T = (v1 , v2 , v3 ), so ist T ∈ O(3), also T T T = E3 .
 T


v1
1 α β

T T AT = T T (A(v1 , v2 , v3 )) = v2T  ( Av1 , Av2 , Av3 ) = 0
|{z}
B
T
v3
0
=v1
6.2. DAS CHARAKTERISTISCHE POLYNOM
119
Wegen Gruppeneigenschaft der Menge O(3) und T, A ∈ O(3), folgt T T AT ∈ O(3).


1 α β
 ist orthogonale Matrix
⇒ 0
B
0
Aus
⇒
α = 0, β = 0
(wegen Orthonormalität der Spalten)
⇒ B ∈ O(2)
1 0 0
−1
0
= 1 · DetB
Det A = Det(T
AT
)
=
|{z}
B
0
=T T
folgt Det B = 1, also B ∈ SO(2), d.h. B = D(ϕ).
6.2.4.0.1 Interpretation: Zu jeder orthogonalen Abbildung fA : R3 → R3 mit Det A =
+1 gibt es eine „ausgezeichnete Richtung“ (Drehachse), gegeben durch v1 ∈ R3 einer Orthonormalbasis v1 , v2 , v3 . fA repräsentiert eine Drehung des R3 um diese Drehachse um
Winkel ϕ.
x3
fA
v1
x2
v3
v2
x1
Analog gilt für A ∈ O(3) \ SO(3) (d.h. AT A = E3 , Det A = −1):
• A hat Eigenwert λ = −1
•

 


−1 0 0
−1 0 0
1 0 0
 =  0 1 0 0

T AT T =  0
D(ϕ)
D(ϕ)
0
0 0 1
0
• fA stellt dann die Hintereinanderausführung einer Drehung von Drehachse v1 um ϕ
und einer Spiegelung an E = lin(v2 , v3 ) = {v1 }⊥ .
120
KAPITEL 6. EIGENWERTTHEORIE
x3
fA
v1
x2
E
v3
v2
x1
6.2.4.0.2
Allgemein: Zu jedem A ∈ O(n) existiert T ∈ O(n), so dass


1 ··· ··· ··· ··· ···
···
···
0
 .. . .
.. 
.
.
. 
.
.. 
.

.
1
. 

.
.. 
 ..
−1
. 



.. 
..
T T AT =  ...
.
. 


.. 
 ..
−1
. 
.
.
.. 
 ..
D(ϕ1 )
. 


.

.
.
..
.. 
 ..
0 ··· ··· ··· ··· ···
···
· · · D(ϕr )
mit ϕi ∈ [0, 2π)
Beweis: (siehe Beutelspacher, S. 268 ff.)
6.3
Hauptachsentransformation symmetrischer Matrizen
Der Name „Hauptachsentransformation“ stammt aus der Theorie der Kegelschnitte, z.B.
sucht man eine orthogonale Tranformation f : R → R, welche die Koordinatenachsen
(x1 −, x2 −Achse) in die „Hauptachsen“(ξ1 −, ξ2 −Achse) einer Ellipse transformiert.
6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN
121
ξ2
ξ1
Geeignetes Mittel zur Beschreibung solcher Kegelschnitte sind die symmetrischen Matrizen,
d.h. A ∈ Rn×n mit
A = AT
6.3.1
⇔
für
aij = aji
i, j = 1, . . . , n
Eigenschaften symmetrischer Matrizen A ∈ Rn×n
1. Für fA : Rn → Rn mit fA (x) = Ax, x ∈ Rn gilt:
hfA (v), wi = (Av)T w = v T AT w = v T (Aw) = hv, fA (w)i
Allgemein heißt f ∈ Hom(V, V ) mit Euklidischem Vektorraum V und hf (v), wi =
hv, f (w)i für alle v, w ∈ V ein selbstadjungierter Endomorphismus.
2. Alle Eigenwerte von A sind reell, und die Eigenvektoren von A können aus Rn gewählt
werden.
Beweis:
a) Charakteristisches Polynom PA (λ) = Det(A − λEn ) hat nach Fundamentalsatz der
Algebra eine Nullstelle λ0 ∈ C mit zugehörigen Eigenvektoren v ∈ Cn . Dann gilt
v 6= 0, Av = λ0 v und außerdem Av = λ0 v.
⇒
(|{z}
Av )T v = v T AT v = v T (Av) = λ0 v T v
=λ0 v
⇒
T
T
λ0 v v = λ0 v v
(λ0 = a0 + ib0 , λ0 = a0 − ib0 , a0 , b0 ∈ R)
Wegen v 6= 0 ist vT v > 0 und somit λ0 = λ0 , also λ0 ∈ R.
b) Eigenvektoren v sind Lösungen des linearen Gleichungssystem (A − λEn )v = 0,
welches in Rn lösbar ist.
122
KAPITEL 6. EIGENWERTTHEORIE
3. Eigenvektoren zu verschiedenen Eigenwerten von A sind orthogonal zueinander.
Beweis:
Sei vj ∈ Rn Eigenvektor zu Eigenwert λj von A für j = 1, 2, d.h. Avj = λj vj .
(λ v )T v = (Av1 )T v2 = v1T AT v2 = v1T (Av2 ) = v1T λ2 v2 = λ2 v1T v2
| 1{z1 } 2
=λ1 v1T
⇒
(λ1 − λ2 )v1T v2 = 0
Ist λ1 6= λ2 , so v1T v2 = 0.
6.3.1.0.1 Folgerung: Hat die symmetrische Matrix A alles verschiedene Eigenwerte,
so bilden die zugehörigen Eigenvektoren, normiert auf 1, eine Orthonormalbasis des Rn .
6.3.1.0.2 Hauptachsensatz: Zu jeder symmetrischen
nale Matrix T mit

λ1 0 . . . . . .

.. ..
.
.
0

.
.
..
T T AT = D = 
. λ1 . .
 ..
.
.. ..
 ..
.
.
0 ... ... 0
Matrix A gibt es eine orthogo
0
.. 
.
.. 
.


0
λr
In der Diagonalmatrix D stehen die Eigenwerte λ1 , . . . , λr ∈ R von A jeweils mit der entsprechenden algebraischen Vielfachheit (=geometrische Vielfachheit). Die Spalten bilden
eine Orthonormalbasis des Rn aus Eigenvektoren zu A.
Beweis: (durch vollständige Induktion nach der Zeilenzahl n von A)
• Induktionsanfang
n = 1. Damit ist A bereits in Diagonalgestalt.
• Induktionsvorraussetzung
Sei Behauptung richtig für Zeilenzahl n − 1.
• Induktionsschluss
a) Sei A ∈ Rn×n . Nach Fundamentalsatz und 2. existiert mindestens ein λ1 ∈ R,
v1 ∈ Rn mit v1 6= 0, Av1 = λ1 v1 . O.B.d.A. sei ||v1 || = 1.
b) Setze U1 = lin{v1 }. Dann ist dim U1 = 1 und dim U1⊥ = n−1. Wähle zu Unterraum
U1⊥ eine Orthonormalbasis v2 , . . . , vn . Dann gilt
hvi , vj i = viT vj = δij für i, j = 1, 2, . . . , n,
(v1 ⊥vj , j = 2, . . . , n)
6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN
123
Setze S = (v1 , v2 , . . . , vn ) ∈ Rn×n . Dann ist S ∈ O(n).
 
 
v1T
v1T
v T  v T 
 2
 2
S T AS =  ..  A(v1 , . . . , vn ) =  ..  ( Av1 , Av2 , . . . , Avn )
 .  |{z}
.
=λ1 v1
T
vnT
vn


λ1 · 1 c
 0



=  ..
 mit c ∈ Rn−1 , A′ ∈ R(n−1)×(n−1)
′
 .
A
0
Dabei ist S T AS symmetrisch, weil
(S T (AS))T = (AS)T S = S T AT S = S T AS
Folglich c = 0, A′ = (A′ )T .
c) Auf A′ kann die Induktionsvorraussetzung angewendet werden, d.h. es gibt
Setze S :=
′
T ′ ∈ O(n − 1) : (T ′ )T A′ T = D ′
1 0
, dann ist S ′ ∈ O(n). Berechne:
0 T′
1 0
λ1 0
1
0
(S ) (S A S)S =
0 T′
0 A′
| {z } |{z} b) 0 (T ′ )T
T
=:T
T
λ1 0
λ1
0
λ1
0
1
0
=: D
=
=
=
0 D′
0 (T ′ )T AT ′
0 A′ T ′
0 (T ′ )T
′ T
T
′
Mit T := SS ′ ; S, S ′ ∈ O(n) und der Gruppeneigenschaft von O(n) ist T ∈ O(n).
6.3.1.1
Schema zur praktischen Durchführung der Hauptachsentransformation symmetrischer Matrizen A
Gegeben sei A ∈ Rn×n , A = AT .
1. Schritt: Bilde PA (λ) = Det(A − λEn ) und bestimme dessen verschiedene Nullstellen
λ1 , . . . , λr , d.h. die verschiedenen Eigenwerte von A (etwa eine Nullstelle „erraten“ und dann Abdividieren des zugehörigen Linearfaktors).
(k)
(k)
2. Schritt: Für jedes k = 1, . . . , r bestimme eine Basis Bk := {w1 , . . . , wnk } von Eig(A, λk ),
indem das lineare Gleichungssystem
(A − λk En )x = 0
(z.B. mittels Gaußschen Algorithmus) gelöst wird.
124
KAPITEL 6. EIGENWERTTHEORIE
(k)
(k)
3. Schritt: Orthonormiere Bk zu einer Orthonormalbasis v1 , . . . , vnk von Eig(A, λk ) mittels des Schmidtschen Verfahrens.
4. Schritt: Durch Aneinanderreihung dieser Orthonormalbasen entsteht die Orthonormalbasis:
(1)
(2)
(r)
{v1 , . . . , vn } = {v1 , . . . , vn(1)
, v1 , . . . , vn(2)
, . . . , v1 , . . . , vn(r)r }
1
2
des Rn aus Eigenvektoren zu A.

λ1
0

.
 ..


T T AT =  ...

 ..
.
.
 ..
0
Setze T := (v1 , v2 , . . . , vn ). Dann ist

0 ... ... ... ... 0
.. 
.. ..
.
.
.
.. 
..
..
.
. λ1
.

.. 
.. .. ..
.
.
.
.

.
.
..
. λr . . .. 


.. ..
.
. 0
. . . . . . . . . . . . 0 λr
(Möglichkeit zur Rechenkontrolle!)
6.3.1.2
Beispiel zur Hauptachsentransformation


1 1 1
A = 1 1 1
1 1 1
1. Schritt: Bestimmung der Eigenwerte von A
1 − λ
1
1
1−λ
1 = −λ3 + 3λ2 = λ2 (3 − λ)
Det(A − λE3 ) = 1
1
1
1 − λ
PA (λ) = 0
⇔
λ = λ1/2/3 ,
⇒ λ1 = 3,
λ2/3 = 0
Vielfachheit von 3 ist 1, und Vielfachheit von 0 ist 2.
2. Schritt: Bestimmung der Eigenvektoren
i) zum Eigenwert λ1 = 3:
Eigenvektor-Gleichung:
(1 − 3)x1
+x2
+x3 = 0
x1 +(1 − 3)x2
+x3 = 0
x1
+x2 +(1 − 3)x3 = 0
 
 
1
1




Ein Eigenvektor zu 3 ist 1 . Eig(A, 3) = lin
1.
1
1
6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN
125
ii) zum Eigenwert λ2/3 = 0:
Eigenvektor-Gleichung:
x1 +x2 +x3 = 0
(⇔ Ax = 0)
 
 
1
1



0 .
Zwei linear unabhängige Eigenvektoren sind −1 und
0
−1
   
1
1
Eig(A, 0) = lin −1 ,  0 .
0
−1
3. Schritt: Orthonormierung der Eigenvektoren
zu i)
zu ii)
 
1
1
v1 = √ 1
3 1


1
1
v2 = √ −1 , U2 = lin(v2 )
2
0
 
      
 1
1
1
1
1
−2
T 










0 − PU 2
0
0 − v2
0
ve3 =
=
· v2 = − 12 
1
−1
−1
−1
−1
 
−1
1  
1
√
−1
· ve3 =
v3 =
||e
v3 ||
6
2
4. Schritt: Orthonormalbasis des R3 aus Eigenvektoren zu A: v1 , v2 , v3
√



√
2
3
−1
3
0
0
√
√
1
T = (v1 , v2 v3 ) = √ √2 − 3 −1 ⇒ T T AT = 0 0 0
6
0 0 0
2
0
2
6.3.2
Anwendung der Hauptachsentransformation bei Kurven zweiter Ordnung
6.3.2.0.1 Definition: Die Menge aller Punkte x =
dratischen Gleichung der Form
x1
x2
, der Koordinaten einer qua-
a11 x21 + 2a12 x1 x2 + a22 x22 + 2b1 x1 + 2b2 x2 + c = 0
genügen, heißt Kurve 2. Ordnung mit gegebenen aij , bi , c ∈ R, i, j = 1, 2.
(6.3.2.4)
⇔
xT Ax + 2bx + c = 0,
A = (aij ) = AT , b = (b1 , b2 )
(6.3.2.4)
126
KAPITEL 6. EIGENWERTTHEORIE
6.3.2.1
Klassifikation:
1. Schritt: Beseitigung von gemischten Produkten durch Hauptachsentransformation von
A:
λ1 0
T
, T = (v1 , v2 ), Avi = λi vi , (v1 , v2 heißen Hauptachsen)
T AT =
0 λ2
Mit Koordinatentransformation
(6.3.2.4)
y = TTx
⇔
bT y + c = 0
y T (T T AT ) y + 2 |{z}
| {z }
⇔
=e
b
= λ1 0
0 λ2
(6.3.2.4)
ist
x = Ty
λ1 y12 + λ2 y22 + 2(eb1 y1 + eb2 y2 ) + c = 0
⇔
2. Schritt: Beseitigung der linearen Glieder durch Verschiebung des Koordinatenursprungs
Falls λi 6= 0:
λi yi2
Für λ1 , λ2 6= 0:
(6.3.2.4)
+ 2ebi yi = λi
⇔
λ1 ξ12
+
ebi
yi +
λi
λ2 ξ22
+
!2
−
eb2
i
λi
eb2
eb2
c− 1 − 2
λ1 λ2
!
=0
ebi
. Nach Division der letzten Gleichung und geeigneter Umbennung
λi
der Variablen erhält man sogenannte Normalformen.
mit ξi = yi +
6.3.2.2
Normalformen von Kurven 2. Ordnung
I. Eigenwerte λ1 , λ2 6= 0:
1. Gleiche Vorzeichen von λ1 , λ2 :
x2 y 2
+ 2 =1
a2
b
2
y2
x
b) 2 + 2 = −1
a
b
x2 y 2
c) 2 + 2 = 0
a
b
a)
(Ellipse)
(leere Menge)
(Punkt)
2. Entgegengesetzte Vorzeichen von λ1 , λ2 :
x2 y 2
− 2 =1
a2
b
x2 y 2
b) 2 − 2 = 0
a
b
a)
(Hyperbel)
(Geradenpaar)
x
a
±
y
=0
b
6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN
127
II. Ein Eigenwert λ1 = 0:
1. Linearglieder lassen sich nicht alle beseitigen:
y 2 = 2px
(Parabel)
2. Linearglieder lassen sich alle beseitigen:
y2
=1
b2
y2
b) 2 = −1
b
y2
c) 2 = 0
b
a)
(paralleles Geradenpaar)
(y = ±b)
(leere Menge)
(Doppelgerade) (y = 0)
6.3.2.2.1
Beispiel einer Kurve 2. Ordnung:
√
x21 − 2 2x1 x2 + 2x2 − 1 = 0
√ 2
1
−
√
, b = (0, 1), c = −1. Die Eigenwerte von A sind λ1 =
Dann ist A =
− 2
0
−1, λ2 = 2, d.h. es liegt Fall I.2 vor, und in den neuen Koordinaten
√
√
√ 1 1
1
ξ1 = √ x1 + 2x2 − 2 ,
ξ2 = √ − 2x1 + x2 +
2
3
3
wird diese Kurve beschrieben durch die Gleichung
−ξ12 + 2ξ22 −
1
=0
2
und stellt eine Hyperbel dar.
4
2
-2
2
4
-2
-4
—–
---
x1 −, x2 −Achse (ursprüngliche Koordinatenachsen)
ξ1 −, ξ2 −Achse (Hauptachsen der Hyperbel)
Herunterladen