Lineare Algebra I

Werbung
Vorlesungsmanuskript zu
Lineare Algebra I
Werner Balser
Institut für Angewandte Analysis
Wintersemester 2007/08
Inhaltsverzeichnis
1 Vektorräume
5
1.1
Lineare Räume
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2
Einfache Folgerungen aus den Axiomen
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.3
Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1.4
Lineare Hülle, lineare Unabhängigkeit
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.5
Erzeugendensystem und Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.6
Existenz von Basen in endlich-dimensionalen Räumen
. . . . . . . . . . . . . . . . . . . .
13
1.7
Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
1.8
Wechsel des Skalarenkörpers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.9
Summe von Unterräumen
16
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Matrizen
5
19
2.1
Denition und elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
2.2
Das Produkt von Matrizen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
2.3
Rechenregeln
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
2.4
Zeilen- und Spaltenrang
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
2.5
Elementare Operationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
2.6
Normalform und Rang einer Matrix
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
2.7
Zeilenstufenform und Rangberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
2.8
Invertierbare Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
3 Lineare Gleichungssysteme
30
3.1
Das Gauÿsche Eliminationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
3.2
Struktur der Lösungsmenge
32
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
3.3
Berechnen der inversen Matrix
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 Determinanten
33
35
4.1
Gruppen und Permutationen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
4.2
Vorzeichen von Permutationen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
4.3
Denition der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
4.4
Rechenregeln für Determinanten
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
4.5
Weitere Eigenschaften von Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
4.6
Entwicklungssätze
44
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5 Euklidische und unitäre Räume
46
5.1
Denition des Skalarprodukts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
5.2
Die Norm eines Vektors
47
5.3
Orthogonalität und Winkel
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
5.4
Orthogonalsysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
5.5
Beste Approximation, orthogonale Projektion und Fourierkoezienten . . . . . . . . . . .
52
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6 Lineare Abbildungen
54
6.1
Denition und elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
6.2
Kern und Bild
55
6.3
Lineare Abbildungen und Basen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
6.4
Isomorphie und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
6.5
Der Dualraum, die duale Abbildung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
59
6.6
Die adjungierte Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
59
6.7
Längentreue Abbildungen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
6.8
Denite Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
6.9
Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7 Lineare Abbildungen und Matrizen
65
7.1
Die Darstellungsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
7.2
Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
7.3
Ähnliche Matrizen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
7.4
Hermitesche, normale und unitäre Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . .
68
3
7.5
Charakteristisches Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8 Normalformen und Denitheit von Matrizen
70
75
8.1
Trigonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
8.2
Der Satz von Cayley-Hamilton
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
76
8.3
Hauptachsentransformation
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
78
8.4
Diagonalisierung normaler Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . .
79
8.5
Denite Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
80
9 Ergänzungen
83
9.1
Kegelschnitte
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2
Drehungen und Spiegelungen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
83
85
Kapitel 1
Vektorräume
1.1 Lineare Räume
Im Folgenden sei
K
ein Körper. Wir können uns unter
K
entweder
R
oder
C
vorstellen, auÿer wenn wir
ausdrücklich einen anderen Körper voraussetzen. Die meisten der folgenden Resultate gelten aber genauso
für einen beliebigen Körper
K.
Wir nennen
K
λ ∈ K heiÿt
C, wird in der
auch den Skalarenkörper, und ein Element
manchmal auch ein Skalar. Die genaue Denition eines Körpers, und speziell von
R
und
Vorlesung Analysis I gegeben. Allgemeine Körper werden in der Vorlesung Algebra behandelt.
Denition 1.1.1
Eine Menge
V,
zusammen mit zwei Abbildungen
+ : V × V −→ V,
(v, w) 7−→ v + w,
· : K × V −→ V,
(λ, v) 7−→ λ · v
heiÿt ein linearer Raum oder ein Vektorraum über
K,
(= λ v),
wenn folgende Axiome alle gelten:
(V1)
∀ u, v, w ∈ V :
(V2)
∃0∈V
∀v∈V :
v + 0 = v
(Existenz eines Nullvektors)
(V3)
∀v∈V
∃ ṽ ∈ V :
v + ṽ = 0
(Exist. eines additiven Inversen)
(V4)
∀ v1 , v2 ∈ V :
(V5)
∀v∈V
(V6)
∀ v, w ∈ V ,
(V7)
∀v∈V ,
(V8)
∀v∈V :
u + (v + w) = (u + v) + w
v1 + v2 = v2 + v1
∀ λ, µ ∈ K :
(Kommutativges. der Addition)
λ (µ v) = (λ µ) v
∀λ∈K :
∀ λ, µ ∈ K :
(Assoz.-Ges. der Multiplik.)
λ (v + w) = λ v + λ w
(1. Distrib.-Ges.)
(λ + µ) v = λ v + µ v
(2. Distrib.-Ges.)
1v = v
Ist dies der Fall, so heiÿen die Elemente von
von einem reellen, für
Beispiel 1.1.2
(Assoz.-Ges. der Addit.)
K=C
V
auch Vektoren. Für den Fall
K=R
spricht man auch
von einem komplexen Vektorraum.
Beachte für dieses Beispiel sowie die ganze Vorlesung, dass
der natürlichen Zahlen bezeichnet. Insbesondere ist
anders sein kann, und wir schreiben
0 6∈ N,
N0 = N ∪ {0}.
Die folgenden Mengen sind alle Vektorräume über
K:
5
N = {1, 2, 3, . . .}
die Menge
was in manchen Büchern und Vorlesungen
Kn
(a) Die Menge
n∈N
aller Spaltenvektoren der Länge

x1
 x2 


x =  . 
 .. 
xn
x j ∈ K.
mit Zahlen
Dabei ist für
x
mit Elementen in
K,
d. h., die Menge aller

(x1 , . . . , xn )T ,
=
wie oben und einen zweiten Spaltenvektor


y1
 y2 


y =  . 
 .. 
yn
sowie
λ∈K
(y1 , . . . , yn )T
=
Addition und Skalarmultiplikation deniert durch


x1 + y1
 x2 + y2 


x + y = 
 ,
.
.


.
xn + yn
Für
n=1
ist
Kn
praktisch gleich
K.
Für
n=2


λ x1
 λ x2 


λx =  .  .
.
 . 
λ xn
bzw.
n=3
und
K=R
kann man
Ebene bzw. des Raumes auassen und nennt deshalb auch allgemein die Zahlen
des Vektors
x. Beachte auch, dass die Schreibweise x = (x1 , . . . , xn )T
xk
x
als Punkt der
die Koordinaten
ein Spezialfall der sogenannten
Transposition einer Matrix ist, welche in Denition 2.3.1 noch genauer behandelt wird.
(b) Die Menge
C[a, b] aller stetigen Funktionen auf einem festen abgeschlossenen
K und der üblichen Addition und Multiplikation.
Intervall
[a, b], a ≤ b,
mit Werten in
(c) Die Menge
K[t]
K[t]
aller Polynome in einer Variablen
als K adjungiert
(d) Die Menge
Kn [t]
t
mit Koezienten in
K.
Man liest das Symbol
t.
aller Polynome vom Grad
≤n
mit Koezienten in
K.
(e) Die Menge aller Funktionen auf einem festen, nicht-leeren Denitionsbereich
oder allgemeiner, mit Werten in einem festen aber beliebigen Vektorraum
(f ) Kartesische Produkte von beliebig vielen Vektorräumen über
(g) Die Menge
V
D
mit Werten in
über
K,
K.
K.
KJ aller Abbildungen f einer nicht-leeren Menge J
j ∈ J . Vergleiche hierzu auch Aufgabe 5.1.6.
in
K
mit
f (j) 6= 0
höchstens für
endlich viele
Falls
K=R
oder
=C
ist, hat ein Vektorraum
V
entweder nur ein Element, welches dann der Nullvektor
sein muss, oder unendlich viele Elemente, da ja dann
K selber bereits eine unendliche Menge ist; vergleiche
dazu auch Aufgabe 1.2.5. Es gibt aber auch Körper mit endlich vielen, z. B. zwei, Elementen, und für
n
solche Körper ist dann z. B. auch K eine endliche Menge. Solche Fälle spielen aber in dieser Vorlesung
keine Rolle.
Aufgabe 1.1.3
fungen in
K
n
Zeige, dass
Kn
ein Vektorraum ist, d. h., zeige dass für die oben denierten Verknüp-
alle Axiome eines Vektorraumes erfüllt sind.
Aufgabe 1.1.4
n ∈ N,
keinen
Elementen. Berechne die Anzahl der Elemente von
Kn bzw.
Begründe, warum die Menge der Polynome vom Grad
n,
bei festem
Vektorraum bildet.
Aufgabe 1.1.5
Kn [t],
für
n ∈ N,
Sei
K
ein Körper mit
sowie von
p≥2
K[t].
6
Aufgabe 1.1.6 (Vektoren und MAPLE)
Begleitend zur Vorlesung werden wir das ComputeralgebraKn , aber auch mit
Paket MAPLE benutzen, das, wie auch viele andere solche Systeme, mit Vektoren aus
Polynomen symbolisch, d. h. formelmäÿig, rechnen kann. Die Kommandozeilen
> restart;
> with(LinearAlgebra);
> x := Vector([1, 2, 3]);
> y := Vector([3, 2, 1]);
> z := VectorAdd(x,y);
berechnen die Summe der zuvor eingegebenen Vektoren
der Version
8
x und y . Finde einen Rechner, auf dem MAPLE in
oder höher installiert ist, starte das Paket mit xmaple8 oder einem ähnlichen Kommando,
gib dann obige Zeilen ein und beobachte, was passiert. Dabei ist das erste Kommando > restart nicht
unbedingt notwendig, aber immer angeraten, da es Reste von etwaigen früheren Befehlen beseitigt und
das Programm sozusagen in den Ausgangszustand versetzt. Der zweite Befehl ruft ein Programmpaket
zum Thema lineare Algebra auf. Es gibt auch noch ein zweites Paket mit dem Namen linalg, welches
sich in etlichen Punkten von diesem hier aufgerufenen Paket unterscheidet.
1.2 Einfache Folgerungen aus den Axiomen
Im Folgenden bezeichnet
V
immer einen Vektorraum über
K.
Allein mit Hilfe der Axiome kann man
weitere Rechenregeln beweisen, die in jedem Vektorraum gelten müssen:
Behauptung 1.2.1
In jedem Vektorraum
(a) Es gibt nur einen Nullvektor in
(b) Für alle
v∈V
(c) Zu jedem
gilt
v∈V
λv = 0
K
gelten folgende Aussagen:
V.
dabei steht links die Zahl
−v = (−1) v
⇐⇒
λ=0
(e) Die Gleichung
v + x = w,
(f ) Die Gleichung
α x = v,
Beweis:
über
gibt es nur ein additives Inverses
denn es gilt auch
(d)
0 v = 0;
V
für alle
oder
mit
mit
0,
ṽ , das
rechts der Nullvektor.
wir im Folgenden auch mit
−v
bezeichnen,
v ∈V.
v=0
v, w ∈ V ,
α ∈ K \ {0}
(oder beides).
besitzt genau eine Lösung
und
v ∈V,
x∈V,
nämlich
x = w + (−v).
besitzt genau eine Lösung, nämlich
x = α−1 v .
0 + v = 0̃ + v = v für alle v ∈ V ; zu zeigen ist 0 = 0̃. Durch
0 = 0̃ + 0 = 0 + 0̃ = 0̃, und das war zu zeigen. Zu (b): Sei w = 0 v
gesetzt. Mit Hilfe des zweiten Distributivgesetzes folgt w = (0 + 0) v = w + w . Durch Addition eines
additiven Inversen von w zu beiden Seiten der Gleichung folgt w = 0. Zu (c): Es gilt für jedes v ∈ V :
v + (−1) v = (1 − 1) v = 0 v = 0 nach (b). Also ist (−1) v ein additives Inverses zu v . Sei ṽ ein weiteres
solches. Dann folgt unter Verwendung von Kommutativ- und Assoziativgesetz der Vektoraddition: ṽ =
ṽ + 0 = ṽ + v + (−1) v = v + ṽ + (−1) v = 0 + (−1) v = (−1) v . Zu (d): Genauso wie bei (b) zeigt man,
dass λ 0 = 0 für jedes λ ∈ K. Sei jetzt λ v = 0, und sei o. B. d. A. angenommen, dass λ 6= 0 ist. Dann
−1
folgt 0 = λ
0 = (λ−1 λ) v = v , wobei die Axiome (V5) und (V8) verwendet wurden. Die Beweise von
(e) und (f ) werden als Übungsaufgabe gestellt.
2
Zu (a): Vorausgesetzt sei
Einsetzen von
0
Aufgabe 1.2.2
bzw.
0̃
für
v
folgt
Beweise die Aussagen (e) und (f ) der obigen Behauptung.
7
Bemerkung 1.2.3
−v für das additive Inverse eines Vektors v .
w − v und sprechen von der Dierenz der
Wir schreiben in Zukunft also immer
w + (−v), für v, w ∈ V , schreiben wir
Vektoren w und v . In einem Vektorraum V
Statt
dann auch kurz
gibt es also neben der Addition und der Multiplikation mit
Skalaren eine dritte, abgeleitete Operation, die Subtraktion. Beachte aber, dass im Allgemeinen weder ein
Produkt von Vektoren noch etwa gar ein Quotient deniert ist.
Aufgabe 1.2.4 (Allgemeine Distributivgesetze)
v, v1 , . . . , vn ∈ V
λ
n
X
vk =
k=1
Aufgabe 1.2.5
Zeige: Für alle
n ∈ N, λ, λ1 , . . . , λn ∈ K
und
gilt immer
n
X
λ vk ,
n
X
k=1
λk
v =
k=1
Zeige: In einem Vektorraum über
oder
R
n
X
λk v .
k=1
C
gibt es entweder nur einen oder unendlich
viele Vektoren. Warum ist dies nicht richtig für allgemeine Körper
K?
1.3 Unterräume
Denition 1.3.1
Eine nichtleere Teilmenge
U ⊂V
U
heiÿt ein Unterraum oder Teilraum, falls
abge-
schlossen bezüglich der Addition und der Multiplikation mit Skalaren ist, d. h., falls gilt:
(U1)
∀ v, w ∈ U :
(U2)
∀v∈U
v + w ∈ U,
∀λ∈K :
λ v ∈ U.
Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen +
und · von
U ×U
nach
U
abbilden.
Satz 1.3.2
über
K;
U
Sei
ein Unterraum eines Vektorraums
d. h. also, in
Beweis:
U
V
über
K.
Dann ist
U
selber wieder ein Vektorraum
sind alle Vektorraumaxiome (V1) (V8) erfüllt.
Die Gültigkeit von (V1) und (V4) (V8) ist sofort klar, da nur die Menge der Vektoren
verkleinert wurde. Da aus (U2) für
λ=0
folgt, dass
0∈U
ist, gilt auch (V2), und für
λ = −1
folgt aus
2
(U2) auch (V3).
Aufgabe 1.3.3
Zeige:
V
selber sowie die Teilmenge
sind immer Unterräume von
weiter, dass für ein
Aufgabe 1.3.4
v∈V
{0},
welche also nur aus dem Nullvektor besteht,
Man nennt diese beiden auch die trivialen Unterräume von
die Menge aller Vielfachen
{λ v : λ ∈ K}
V.
Zeige
ebenfalls ein Unterraum ist.
Zeige: Die Menge aller Polynome ist ein Unterraum des Vektorraums aller Funktionen
mit Denitionsbereich
Aufgabe 1.3.5
V.
K.
Die Vektoren aus
R2
bzw.
R3
kann man sich in natürlicher Weise als Punkte einer Ebene
bzw. des Raumes veranschaulichen. Untersuche, welche Geraden in der Ebene bzw. im Raum Unterräume
sind.
Lemma 1.3.6
Seien
Uj , j ∈ J ,
V . Dann
\
U =
Uj
Unterräume von
j∈J
ein Unterraum von
V.
8
ist auch ihr Durchschnitt
Beweis:
Die Gültigkeit von (U1) und (U2) für
U ist unmittelbar klar auf Grund der Denition des
U nicht leer ist. Dies folgt aber, da nach Satz 1.3.2
Durchschnitts, aber wir müssen noch zeigen, dass
jedes
Uj
selber ein Vektorraum ist und somit den Nullvektor enthalten muss, und dieser ist dann auch
Element des Durchschnitts
Aufgabe 1.3.7
2
U.
Untersuche, ob die Vereinigung zweier Unterräume wieder ein Unterraum ist.
1.4 Lineare Hülle, lineare Unabhängigkeit
Denition 1.4.1
vj ∈ V , für j ∈ J 6= ∅. Dabei
vj gleich sind, und deshalb sprechen wir statt von der
Menge besser von dem System der Vektoren (vj , j ∈ J). Ist J1 ⊂ J , so heiÿt (vj , j ∈ J1 ) Teilsystem von
(vj , j ∈ J). Gelegentlich werden wir auch Teilmengen von V als Systeme auassen, was ohne weiteres
möglich ist, während umgekehrt ein System im allgemeinen keine Teilmenge von V ist. Für endlich viele
j1 , . . . , jn ∈ J und Skalare λ1 , . . . , λn ∈ K heiÿt die Summe
Gegeben seien eine beliebige Anzahl von Vektoren
soll erlaubt sein, dass auch einige der Vektoren
v =
n
X
λ k vj k
(1.4.1)
k=1
(vj , j ∈ J). Der Nullvektor ist also immer eine Linearkombination, da ja
sein können. Die Menge aller Linearkombinationen von (vj , j ∈ J) heiÿt die lineare
eine Linearkombination der
alle
λk
gleich
0
L(vj , j ∈ J). Die Vektoren (vj , j ∈
j1 , . . . , jn ∈ J und Zahlen λ1 , . . . , λn ∈ K die
Hülle dieser Vektoren, und wir schreiben für diese Menge in Zeichen
J)
heiÿen linear unabhängig, falls für beliebige Indizes
Gleichung
n
X
λ k vj k = 0
(1.4.2)
k=1
λk = 0 sind. Ist dies nicht
λ1 , . . . , λn , die nicht alle gleich 0
nur dann gilt, wenn alle
so, d. h., gilt (1.4.2) für mindestens eine Wahl von
j1 , . . . , j n ∈ J
sind, so heiÿen die Vektoren linear abhängig.
und
Bemerkung 1.4.2
Es ist bequem, statt (1.4.1) kürzer
v=
X
λj vj
(1.4.3)
j∈J
zu schreiben. Dabei sollen die
λj
alle aus dem Körper
höchstens endlich viele dieser Skalare von
0
K
sein, und es ist wichtig zu beachten, dass
verschieden sein dürfen. Wir stellen uns dabei vor, dass die
rechts stehende Summe zwar formal unendlich viele Elemente enthalten kann, dass wir aber alle Terme
mit λj = 0 ignorieren können, sodass nur eine endliche Summe zu berechnen ist oder sogar nur die leere
Summe übrig bleibt, welche per Denition immer den Nullvektor ergibt. Mit dieser Kurzschreibweise zeigt
(vj , j ∈ J) dadurch, dass die Gleichung (1.4.3) für
sind. Es ist sinnvoll, auch ein leeres System zuzulassen,
sich dann die lineare Unabhängigkeit des Systems
v=0
nur dann bestehen kann, wenn alle
für welches also
J = ∅
λj = 0
ist. Dieses soll als linear unabhängig angesehen werden, und entsprechend der
Konvention, dass eine leere Summe den Wert
0
haben soll, sehen wir den Nullvektor als die einzige
Linearkombination des leeren Systems an.
Beispiel 1.4.3
Die Menge K[t] aller Polynome mit Koezienten in K ist ein Vektorraum über K. Jedes
Pn
j
j
j=0 aj t ist oenbar eine Linearkombination des Systems der Monome (t , j ∈ N0 ).
Nach dem sogenannten Identitätssatz für Polynome, der in der Vorlesung Analysis behandelt wird, ist
Polynom
p(t) =
p(t) = 0
für alle
t∈K
gleichwertig mit
a0 = . . . = an = 0.
die Monome linear unabhängig sind.
9
Dies bedeutet dasselbe wie die Aussage, dass
Aufgabe 1.4.4
Formuliere die obigen Begrie der Linearkombination und der linearen Unabhängigkeit
(v1 , . . . , vn )
noch einmal für den wichtigsten Spezialfall eines endlichen Systems
Lösung:
Da bei einer Linearkombination auch einige der Zahlen
λk = 0
von Vektoren in
V.
sein dürfen, kann man o. B. d.
A. so sagen:
Für beliebige Skalare
System
(v1 , . . . , vn )
λ1 , . . . , λn ∈ K
Pn
heiÿt
k=1
λ k vk
eine Linearkombination von
(v1 , . . . , vn ).
Das
heiÿt linear unabhängig, falls die Gleichung
n
X
λk vk = 0
(1.4.4)
k=1
λk = 0 sind. Ist dies nicht so, d. h., gilt (1.4.2) für mindestens eine Wahl von λ1 , . . . , λn ,
0 sind, so heiÿt das System linear abhängig. Statt das System (v1 , . . . , vn ) ist linear
soll es auch erlaubt sein zu sagen die Vektoren v1 , . . . , vn sind linear (un)abhängig.
2
nur gilt, wenn alle
die nicht alle gleich
(un)abhängig
Aufgabe 1.4.5
Zeige: Ein System von unendlich vielen Vektoren ist genau dann linear unabhängig,
wenn jedes endliche Teilsystem linear unabhängig ist.
Aufgabe 1.4.6
v∈V
Zeige: Ein System aus einem Vektor
nicht der Nullvektor ist. Zwei Vektoren
v1 , v2
ist genau dann linear unabhängig, wenn
v
sind genau dann linear abhängig, wenn einer der Vektoren
ein skalares Vielfaches des anderen ist.
Behauptung 1.4.7
Für jedes System
(a) Sind die Vektoren
(vj , j ∈ J)
aus
V
gelten immer folgende Aussagen:
(vj , j ∈ J)
linear unabhängig, und ist
j ∈ J,
vj = vk
J1 ⊂ J ,
so ist auch
(vj , j ∈ J1 )
linear
unabhängig.
(b) Gilt
vj = 0
J 6= ∅,
(c) Ist
für ein
oder
für
j, k ∈ J
mit
j 6= k ,
so ist
(vj , j ∈ J)
(vj , j ∈ J) linear unabhängig, so gibt es zu
λj ∈ K, j ∈ J , von denen höchstens endlich
und sind die Vektoren
eindeutig bestimmte Skalare
linear abhängig.
v ∈ L(vj , j ∈ J)
6= 0 sind, sodass
jedem
viele
(1.4.3) gilt.
(d) Wenn
j0 ∈ J
Beweis:
J
mindestens zwei Elemente enthält, ist
gibt, für welches
vj0
(vj , j ∈ J)
genau dann linear abhängig, wenn es ein
als Linearkombination der übrigen
vj
geschrieben werden kann.
Zu (a): Folgt sofort aus der Denition der linearen Unabhängigkeit. Zu (b): Setze
J1 = {j, k} im zweiten Fall und wende Teil (a) sowie Aufgabe
v ∈ L(vj , j ∈ J) kann per Denition als Linearkombination (1.4.1) dargestellt
im ersten bzw.
J1 = {j}
1.4.6 an. Zu (c): Jedes
werden, und dies kann
kurz in der Form (1.4.3) geschrieben werden, wobei von den möglicherweise unendlich vielen Skalaren
λj
v mit
P
0 = j∈J (λj − αj ) vj , was auf Grund der linearen Unabhängigkeit
j ∈ J gilt αj = λj . Zu (d): Genau dann ist (vj , j ∈ J) linear abhängig,
eine Wahl von λj ∈ K, wobei für mindestens ein j0 ∈ J gilt λj0 6= 0. Diese
höchstens endlich viele von
Koezienten
αj
nur sein kann, wenn für alle
wenn
P
j∈J
0
verschieden sind. Wenn auch eine zweite solche Darstellung für
gilt, so folgt oenbar
λ j vj = 0
gilt für
Gleichung ist aber äquivalent zu
vj 0 = −
X
j∈J\{j0 }
λj
vj ,
λj0
2
was zu zeigen war.
Satz 1.4.8
Für ein System (vj , j ∈ J) ist die lineare Hülle L(vj , j ∈ J) ein Unterraum von
genau der Durchschnitt aller Unterräume von V , welche alle vj enthalten.
10
V,
und zwar
Beweis:
Sei
U
der Durchschnitt aller Unterräume, welche alle
selber ein Unterraum, und nach Denition folgt, dass
Also ist
L(vj , j ∈ J) ⊂ U . Umgekehrt
L(vj , j ∈ J) = U .
U
vj
enthalten. Nach Lemma 1.3.6 ist
alle Linearkombinationen der
zeigt man schnell, dass
L(vj , j ∈ J)
vj
selber ein Unterraum ist, und
2
deshalb folgt
Aufgabe 1.4.9
Zeige: Drei Vektoren in
R2
U
enthalten muss.
sind immer linear abhängig. Finde zwei Vektoren in
R2 ,
welche linear unabhängig sind.
1.5 Erzeugendensystem und Basis
Denition 1.5.1
Vektoren (vj , j ∈ J) aus V heiÿen ein Erzeugendensystem für V , falls jeder Vektor
eine Linearkombination der vj ist, d. h., falls L(vj , j ∈ J) = V ist. Wenn die (vj , j ∈ J) zugleich
ein Erzeugendensystem und linear unabhängig sind, heiÿen sie auch eine Basis von V .
aus
V
Oenbar ist das leere System Basis von
V
genau dann, wenn
V
nur aus dem Nullvektor besteht. Ob es in
einem allgemeinen Vektorraum eine Basis gibt, ist zunächst nicht klar und soll noch genauer untersucht
werden. In manchen Vektorräumen gibt es aber eine natürliche Basis:
Behauptung 1.5.2
Im Vektorraum der Polynome sind die Monome eine Basis. In
Kn
entsprechen
diesen Monomen die Spaltenvektoren

ek
0

 .. 
 . 
 
 0 
 

= 
 1 ←k ,
 0 
 
 . 
 .. 
0
1 ≤ k ≤ n,
(1.5.1)
an der Stelle Nr. k steht. Diese sind ebenfalls eine Basis,
Kn . Allgemeiner sind in KJ wie in Beispiel 1.1.2
(g) diejenigen Funktionen, welche an einer Stelle j ∈ J den Wert 1 annehmen und sonst gleich 0 sind,
wobei der Pfeil andeuten soll, dass die einzige
1
und wir nennen diese auch die kanonische Basis von
eine Basis. Beachte aber, dass dies nicht so ist, wenn wir die Menge aller Funktionen auf
in
K
J
mit Werten
betrachten.
Aufgabe 1.5.3
Zeige die Richtigkeit der vorstehenden Behauptung.
Aufgabe 1.5.4 (Einheitsvektoren und MAPLE)
toren in
Kn .
Führe die Kommandos
> restart;
> with(LinearAlgebra);
> x := UnitVector(1,5);
> y := UnitVector(4,5);
> z := VectorAdd(x,y,4,-1);
11
MAPLE kennt die oben denierten Einheitsvek-
4
aus und nde insbesondere heraus, was die beiden Parameter
und
−1
im letzten Kommando bedeuten.
Aufgabe 1.5.5
Sei (vj , j ∈ J) ein Erzeugendensystem für V . Zeige: Falls ein j0 ∈ J existiert, für
eine Linearkombination der übrigen Vektoren vj ist, so ist auch (vj , j ∈ J \ {j0 }) ein Erzeugendensystem von V . Wir sagen dann auch, dass das Erzeugendensystem (vj , j ∈ J) verkürzbar ist.
welches
vj0
Eine Basis eines Vektorraums kann also aus endlich, aber auch aus unendlich vielen Vektoren bestehen;
dies ist wichtig für den nächsten Abschnitt. Hier zeigen wir noch folgendes Resultat:
Proposition 1.5.6
K
Für ein nicht-leeres Systems
(vj , j ∈ J)
von Vektoren in einem Vektorraum
V
über
sind folgende Aussagen äquivalent:
(a) Die
(vj , j ∈ J)
bilden eine Basis von
V.
(vj , j ∈ J) sind ein unverkürzbares Erzeugendensystem von V ; d. h., sie sind ein Erzeugendensystem von V , und für jede Teilmenge J1 ⊂ J gilt: Wenn (vj , j ∈ J1 ) ebenfalls eine Erzeugendensystem von V ist, so folgt J1 = J .
(b) Die
(vj , j ∈ J) sind ein unverlängerbares linear unabhängiges System; d. h., sie sind linear unabhängig, und für jede Obermenge J1 ⊃ J gilt: Falls (wj , j ∈ J1 ) ein linear unabhängiges System ist,
(c) Die
und falls
w j = vj
(d) Jeder Vektor
ist für alle
v ∈ V
j ∈ J,
so folgt
J1 = J .
(vj , j ∈ J)
für welche (1.4.3)
lässt sich auf genau eine Weise als eine Linearkombination der
schreiben; d. h., es gibt eindeutig bestimmte
λ j ∈ K, j ∈ J ,
nur endlich viele
6= 0,
gilt.
Beweis:
Wir zeigen: (a)=⇒ (b)
=⇒
j0 ∈ J \ J1
λj ∈ K, j ∈ J1 mit
Zu (a)=⇒ (b): Falls es ein
also gäbe es
(c)
=⇒
(d)
=⇒
(a).
gäbe, dann müsste
vj 0 =
X
vj0
eine Linearkombination der
(vj , j ∈ J1 ) sein,
λj vj .
j∈J1
Setzt man
λj0 = −1
und
λj = 0
für
j ∈ J \ (J1 ∪ {j0 }), so folgt
X
λ j vj = 0 ,
j∈J
was der linearen Unabhängigkeit von
Zu (b)
=⇒
(c): Da das System
(vj , j ∈ J)
(vj , j ∈ J)
widerspricht.
ein Erzeugendensystem für
V 6= {0}
ist, kann es nicht nur
aus dem Nullvektor bestehen. Falls es linear abhängig wäre, wäre nach Behauptung 1.4.7 (d) ein
Linearkombination der übrigen Vektoren
vj ,
vj0
eine
und nach Aufgabe 1.5.5 ergäbe sich ein Widerspruch zu (b).
Also ist (vj , j ∈ J) linear unabhängig. Wenn das System verlängerbar wäre, dann gäbe es einen Vektor
v ∈ V , der nicht als Linearkombination von (vj , j ∈ J) geschrieben werden könnte, was aber ebenfalls (b)
widerspräche.
Zu (c)
=⇒
(d): Falls ein
v ∈ V
keine Linearkombination von
(vj , j ∈ J)
wäre, könnte man diesen
Vektor zum System hinzufügen, ohne die lineare Unabhängigkeit zu verlieren. Also ist jedes
v
eine solche
Linearkombination, und aus Behauptung 1.4.7 (c) folgt, dass diese Darstellung eindeutig ist.
Zu (d)
=⇒
(a): Klar ist, dass
(vj , j ∈ J)
ein Erzeugendensystem ist. Da jeder Vektor, also auch der Null-
vektor, nur auf eine Weise als Linearkombination darstellbar ist, folgt auch die lineare Unabhängigkeit.
2
12
1.6 Existenz von Basen in endlich-dimensionalen Räumen
Denition 1.6.1
Ein Vektorraum
V
über
K
heiÿt endlich-dimensional, falls er ein Erzeugendensystem
aus endlich vielen Vektoren besitzt; falls nicht, nennen wir ihn unendlich-dimensional. Da das leere System
aus endlich vielen Vektoren besteht und Erzeugendensystem des Vektorraums ist, welcher nur aus dem
Nullvektor besteht, folgt dass dieser endlich-dimensional ist.
Aufgabe 1.6.2
Zeige: Der Vektorraum
K[x]
aller Polynome ist unendlich-dimensional.
Die Existenz einer Basis in einem endlich-dimensionalen Raum folgt aus dem nächsten Satz:
Satz 1.6.3 (Basisauswahlsatz)
Sei V 6= {0} ein Vektorraum über K, und sei (v1 , . . . , vm ) ein ErV , also insbesondere ist V endlich-dimensional. Dann gibt es eine Teilmenge
{j1 , . . . , jn } ⊂ {1, . . . , m} so, dass (vj1 , . . . , vjn ) eine Basis von V ist.
zeugendensystem von
Beweis:
(v1 , . . . , vm ) linear unabhängig ist, dann ist es bereits eine Basis, und die
{j1 , . . . , jn } = {1, . . . , m}. Falls nicht, ist einer der Vektoren vj eine Linearkombination der übrigen. Durch Änderung der Numerierung können wir erreichen, dass dies für j = n zutrit,
und mit Aufgabe 1.5.5 folgt, dass dann (v1 , . . . , vm−1 ) ebenfalls Erzeugendensystem von V ist. Durch
Wiederholung dieses Schlusses ergibt sich die Behauptung in endlich vielen Schritten.
2
Falls das System
Behauptung gilt für
Aufgabe 1.6.4
Zeige, dass die Polynome
(t2 − t + 1, t2 + t, t − 1, t)
ein Erzeugendensystem für
R2 [t]
sind, und wähle daraus ein Basis aus.
Bemerkung 1.6.5 (Basen in unendlich-dimensionalen Räumen)
Auch in unendlich-dimensiona-
len Räumen gibt es immer eine Basis. Der Beweis beruht auf dem sogenannten Zornschen Lemma, was
zum Auswahlaxiom der Mengenlehre äquivalent ist. In dieser und späteren Vorlesungen spielt die Existenz
von Basen in unendlicher Dimension keine groÿe Rolle, und wir lassen deshalb den Beweis hier aus.
Aufgabe 1.6.6 (Basen und MAPLE)
Basen von Unterräumen von
Kn
Finde heraus, welche MAPLE-Kommandos geeignet sind, um
zu nden.
1.7 Dimension
In jedem Vektorraum
V 6= {0}
gibt es unendlich viele verschiedene Basen, wie sich aus dem folgenden
Lemma ergibt:
Lemma 1.7.1 (Austauschlemma)
V =
6 {0} Vektorraum über K, und sei (vj , j ∈ J) eine Basis
v in der Form (1.4.3) geschrieben werden, wobei nicht alle
sein können. Wähle ein j0 ∈ J mit λj0 6= 0. Dann ist auch das System, welches aus der Basis
Ersetzen von vj0 durch v entsteht, wieder eine Basis von V .
V.
λj = 0
von
durch
Sei weiter
Beweis:
v ∈ V \ {0};
Für ein beliebiges
Sei
also kann
w∈V
wollen wir zeigen, dass die Gleichung
X
w = αv +
j∈J\{j0 }
13
αj vj
durch eindeutig bestimmte Koezienten
α, αj ∈ K
erfüllbar ist, von denen höchstens endlich viele nicht
verschwinden. Durch Einsetzen von (1.4.3) kann diese Gleichung umgeschrieben werden in die Form
w = α λj0 vj0 +
X
αj + α λj vj .
j∈J\{j0 }
Da
(vj , j ∈ J)
eine Basis von
V
ist, gibt es eindeutig bestimmte
w =
X
βj ∈ K
mit
βj vj ,
j∈j
und da nach Voraussetzung
j ∈ J \ {j0 }
Raumes V .
α
eindeutig nach
Aufgabe 1.7.2
λj0 6= 0 ist, können die Beziehungen βj0 = α λj0 und βj = αj + α λj
und αj aufgelöst werden. Also ist das neue System ebenfalls eine Basis
für
des
2
U ein Unterraum von Cn , n ≥ 1, mit folgender Eigenschaft: Für jeden Vektor
u = (u1 , . . . , un ) ∈ U ist auch u = (u1 , . . . , un )T in U enthalten. Sei weiter (u1 , . . . , um ) eine Basis von
U . Zeige mit Hilfe des Austauschlemmas: Für jedes j = 1, . . . , m kann man den Vektor uj entweder durch
u1 + uj oder durch u1 − uj ersetzen, ohne die lineare Unabhängigkeit des Systems zu verlieren. Schlieÿe
hieraus, dass es eine Basis von U gibt, welche nur aus reellen Vektoren uj besteht.
Sei
T
Aufgabe 1.7.3
das Polynom
Die Monome sind bekanntlich eine Basis von
t2 − 1
R[t].
Untersuche, welches Monom durch
ersetzt werden kann, so dass wir weiterhin eine Basis von
R[t]
haben.
Satz 1.7.4 (Austauschsatz von Steinitz)
Sei V 6= {0} Vektorraum über K, und sei (vj , j ∈ J) eine
(w1 , . . . , wm ) ein endliches linear unabhängiges System von Vektoren aus V .
Dann gibt es j1 , . . . , jm ∈ J derart, dass das System, welches aus (vj , j ∈ J) durch Ersetzen von vjk
durch wk , für 1 ≤ k ≤ m, entsteht, ebenfalls Basis von V ist. Insbesondere sind die jk alle voneinander
verschieden, sodass J mindestens m Elemente haben muss.
Basis von
Beweis:
V.
Sei weiter
Folgt aus dem Austauschlemma mit vollständiger Induktion über
zu zeigen. Also sei angenommen, dass der Satz für ein
m ≥ 1
m: Für m = 1 ist nichts mehr
richtig ist. Für ein linear unabhängiges
(w1 , . . . , wm , wm+1 ) wenden wir dann die Induktionshypothese auf (w1 , . . . , wm ) an und können
j1 , . . . , jm ∈ J gibt, für welche (nach der Ersetzung) vjk = wk gilt für k =
1, . . . , m. Der Vektor wm+1 kann dann in der Form
X
wm+1 =
λ j vj
System
somit annehmen, dass es
j∈J
λj = 0 für alle j ∈ J \ {j1 , . . . , jm }, so wäre wm+1 eine Linearkombination der
vjk = wk , was der linearen Unabhängigkeit des Systems (w1 , . . . , wm , wm+1 ) widerspräche. Also gibt es
ein jm+1 ∈ J \ {j1 , . . . , jm } mit λjm+1 6= 0. Anwendung des Austauschlemmas auf dieses jm+1 zeigt dann
die Gültigkeit der Behauptung auch für m + 1.
2
geschrieben werden. Wäre
Korollar zu Satz 1.7.4
Sei
V
endlich-dimensional. Dann haben zwei Basen von
V
immer die gleiche
Anzahl von Elementen.
Beweis:
Sei
V , und sei (w1 , . . . , wm ) linear unabhängig. Dann folgt m ≤ n aus
(w1 , . . . , wm ) ebenfalls eine Basis von V ist, kann man die Bezeichnungen
ergibt sich die Behauptung.
2
(v1 , . . . , vn )
Basis von
dem Austauschsatz. Wenn
vertauschen, und daraus
14
Aufgabe 1.7.5
N)
in
V
Zeige: Genau dann gilt
dim V = ∞,
wenn es ein abzählbar-unendliches System
(vj , j ∈
gibt, welches linear unabhängig ist.
Denition 1.7.6
Als Dimension eines Vektorraumes
dim V = 0
über
K
denieren wir
∞
falls
V
unendlich-dimensional ist,

n ∈ N0
falls
V
eine Basis aus
genau dann, wenn
V
nur aus dem Nullvektor besteht.
dim V =
Insbesondere ist
V


Aufgabe 1.7.7 (Dimension und MAPLE)
n
Vektoren besitzt.
Finde selber die Funktion der Kommandos > Dimension
bzw. > Dimensions heraus.
Aufgabe 1.7.8
Korollar zu Satz 1.7.4
dim V < ∞,
Kn , Kn [t]
Finde die Dimension der Vektorräume
so folgt
Ist
U
ein Unterraum von
V,
so folgt
und
K[t].
dim U ≤ dim V .
Ist sogar
dim U =
U =V.
Beweis:
Falls U unendlich-dimensional ist, gibt es wegen Aufgabe 1.7.5 ein abzählbar-unendliches Sys(uj , j ∈ N) in U , welches linear unabhängig ist, und dies ist selbstverständlich auch in V linear
unabhängig. Also gilt die Behauptung in diesem Fall. Im anderen Fall sei (u1 , . . . , um ) eine Basis von
U , also insbesondere dim U = m. Für dim V = ∞ ist nichts mehr zu zeigen, also sei n = dim V < ∞
vorausgesetzt. Mit dem Austauschsatz von Steinitz folgt dann m ≤ n, und bei Gleichheit muss (uj , j ∈ N)
bereits Basis von V sein, woraus U = V folgt.
2
tem
Aufgabe 1.7.9
V
Finde ein Beispiel eines Vektorraumes
besitzt, so dass
Aufgabe 1.7.10
dim U = dim V
Sei
n ∈ N,
V
über
K,
welcher einen echten Unterraum
und sei
V
ein
n-dimensionaler
Vektorraum über
(a) Für
m>n
sind
m
Vektoren in
V
immer linear abhängig.
(b) Für
m<n
sind
m
Vektoren in
V
kein Erzeugendensystem von
(c) Falls
n Vektoren in V
V.
U 6=
ist.
K.
Zeige:
V.
linear unabhängig oder ein Erzeugendensystem sind, so bilden sie bereits eine
Basis von
Sozusagen komplementär zum Basisauswahlsatz ist der folgende Ergänzungssatz, der auch oft angewandt
werden kann:
Satz 1.7.11 (Basisergänzungssatz)
und sei
wählen,
(v1 , . . . , vm ) ein
dass (v1 , . . . , vn )
Beweis:
eine Basis von
Wähle irgendeine Basis
Aufgabe 1.7.12
Sei
V
ein
n-dimensionaler
V . Dann
linear unabhängiges System in
V
K,
sei 0 ≤ m < n,
vm+1 , . . . , vn so
ist.
(w1 , . . . , wn )
von
V
und wende den Austauschsatz von Steinitz an!
Ergänze den Vektor
v =
zu einer Basis von
Vektorraum über
kann man Vektoren
1
1
R2 .
15
∈ R2
2
Aufgabe 1.7.13
dungen von
D
n∈N
Seien
nach
und
D
n
eine Menge mit
hat die Dimension
K
Elementen. Zeige: Der Vektorraum aller Abbil-
n.
1.8 Wechsel des Skalarenkörpers
Jeder Vektorraum über
Skalaren nur auf
Satz 1.8.1
V
Sei
R
V
C
ist oenbar auch Vektorraum über
ein
n-dimensionaler Vektorraum über C,
R auf, so hat V die Dimension 2 n,
als Vektorraum über
Beweis:
R,
denn dazu muss die Multiplikation mit
eingeschränkt werden. Hinsichtlich der Dimension gilt folgendes:
wobei
sei. Fasst man
(vj , j ∈ N). Dieses
V über R betrachten, und deshalb gilt die Behauptung in
diesem Fall. Im anderen Fall sei (v1 , . . . , vn ) eine Basis von V (über C). Wir zeigen, dass das System
(v1 , . . . , vn , i v1 , . . . , i vn ) Basis vonPV über R ist. Dazu sei ein v ∈ V betrachtet. Mit λj = αj + i βj ,
n
αj , βj ∈ R, gilt die Gleichung v = j=1 λj vj genau dann, wenn
Sei
dim V = ∞
n = ∞ zugelassen
2 ∞ = ∞ sein soll.
wobei auch
(über
C).
Dann gibt es ein linear unabhängiges System
System bleibt linear unabhängig, wenn wir
v =
n
X
αj vj
+
n
X
j=1
βj i vj
,
j=1
2
und das war zu zeigen.
Wenn
V
Vektorraum über
zieren. Man kann aber
V
R
ist, kann man zunächst ein
v∈V
nicht mit einer komplexen Zahl multipli-
in kanonischer Weise vergröÿern und so zu einem Vektorraum über
C machen;
dies geschieht analog zur Konstruktion der komplexen Zahlen:
Satz 1.8.2 (Komplexizierung)
Sei V ein Vektorraum über R. Dann ist auch V × V = {(v1 , v2 ) :
v1 , v2 ∈ V } ein Vektorraum über R, und wir können jedes v ∈ V mit (v, 0) ∈ V × V identizieren, so
dass V ein Unterraum von V × V wird. Für α, β ∈ R, und (v1 , v2 ) ∈ V × V sei
(α + i β) (v1 , v2 ) = (α v1 − β v2 , β v1 + α v2 )
gesetzt. Dann wird
i v = i (v, 0)
V ×V
zu einem Vektorraum über
C,
wobei die Paare
(0, v)
gerade den Vektoren
entsprechen.
Aufgabe 1.8.3
Beweise den obigen Satz!
1.9 Summe von Unterräumen
Denition 1.9.1
Sei
V
ein Vektorraum über
K,und
seien
A
und
B
beliebige Teilmengen von
V.
Wir
denieren
A + B = {a + b : a ∈ A , b ∈ B}
(1.9.1)
A und B . Besteht A nur aus einem einzigen Vektor a, so schreiben wir statt A + B
a + B . Beachte, dass man sich die Menge a + B als die Translation oder Verschiebung von B um
den Vektor a vorstellen kann. Ist U ein Unterraum von V sowie v ∈ V , so heiÿt die Menge v + U auch
eine lineare Mannigfaltigkeit in V , und wir sagen, dass die Dimension dieser linearen Mannigfaltigkeit
gleich der von U ist.
als die Summe von
auch
16
Satz 1.9.2
U1 ∩ U2
Seien U1 und U2 Unterräume eines Vektorraumes
Unterräume von V , und es gilt
V
über
K.
Dann sind auch
U1 + U2
und
dim(U1 + U2 ) + dim(U1 ∩ U2 ) = dim U1 + dim U2 ,
auch falls einige der Räume unendlich-dimensional sind.
Beweis:
Dass der Durchschnitt von Unterräumen ebenfalls Unterraum ist, ist in Lemma 1.3.6 gezeigt
u, ũ ∈ U1 + U2 . Dann gibt es nach Denition Vektoren u1 , ũ1 ∈ U1 und u2 , ũ2 ∈ U2
u = u1 + u2 und ũ = ũ1 + ũ2 . Also folgt u + ũ = (u1 + ũ1 ) + (u2 + ũ2 ) = û1 + û2 , mit û1 ∈ U1 ,
û2 ∈ U2 , und somit ist u + ũ ∈ U1 + U2 . Für α ∈ K ist α u = α u1 + α u2 , und daraus folgt genauso
α u ∈ U1 + U2 . Um die Dimensionsgleichung zu erhalten, bemerken wir zunächst, dass (U1 ∪ U2 ) ⊂
(U1 + U2 ) gilt. Wenn also einer der beiden Unterräume Uj unendlich-dimensional ist, dann gibt es dort
eine Folge von linear unabhängigen Vektoren, und somit ist auch U1 + U2 unendlich-dimensional, und
dann gilt die Gleichung. Seien jetzt beide Unterräume endlich-dimensional. Dann ist auch U1 ∩U2 endlichdimensional, und wir wählen eine Basis (v1 , . . . , vν ) von U1 ∩ U2 (beachte, dass der Durchschnitt auch
nur aus dem Nullvektor bestehen kann, sodass diese Basis auch leer sein kann, was ν = 0 entspricht. Mit
dem Basisergänzungssatz können wir weitere Vektoren u11 , . . . , u1µ1 und u21 , . . . , u2µ2 so wählen, dass
(v1 , . . . , vν , u11 , . . . , u1µ1 ) bzw. (v1 , . . . , vν , u21 , . . . , u2µ2 ) Basis von U1 bzw. U2 ist. Wir zeigen nun, dass
(v1 , . . . , vν , u11 , . . . , u1µ1 , u21 , . . . , u2µ2 ) Basis von U1 +U2 ist (woraus die Behauptung durch Abzählen der
Basisvektoren folgt): Jeder Vektor aus U1 +U2 ist von der Form u = u1 +u2 , und uj ist Linearkombination
der gewählten Basis von Uj . Also ist das angegebene System ein Erzeugendensystem von U1 + U2 . Für
worden. Seien jetzt
mit
die lineare Unabhängigkeit setzen wir an
0 =
ν
X
αj vj +
j=1
µ1
X
βk u1k +
k=1
µ2
X
γ` u2` = v + u1 + u2 .
`=1
v + u1 ∈ U1 und u2 ∈ U2 . Wegen −u2 = v + u1 folgt aber, dass v + u1 ∈ U2 , also sogar im
U1 ∩ U2 ist. Daher muss gelten βk = 0 für k = 1, . . . , µ1 . Wegen der linearen Unabhängigkeit
(v1 , . . . , vν , u21 , . . . , u2µ2 ) folgt dann aber, dass auch alle αj und γ` verschwinden müssen.
2
Dann ist
Durchschnitt
von
Denition 1.9.3
Seien U1 und U2 Unterräume eines Vektorraumes V über K, und sei U1 ∩ U2 = {0}.
Dann nennen wir die Summe U1 + U2 auch eine direkte Summe und schreiben U1 ⊕ U2 . In diesem Fall
gilt also die Gleichung
dim(U1 ⊕ U2 ) = dim U1 + dim U2 ,
u ∈ U1 ⊕ U2 gibt es genau ein Paar u1 ∈ U1 und u2 ∈ U2 mit u = u1 + u2 . Entsprechend
denieren wir die Summe U1 + . . . + Um endlich vieler Unterräume U1 , . . . , Um von V als die Menge
aller u = u1 + . . . + um mit uj ∈ Uj , 1 ≤ j ≤ m, und nennen die Summe direkt und schreiben dann
und zu jedem
U1 ⊕ . . . ⊕ Um ,
wenn für
uj ∈ Uj
die Gleichung
0 = u1 + . . . + um
nur dann bestehen kann, wenn
u1 = . . . = um = 0
ist. Beachte auch die Analogie zur linearen Unabhän-
gigkeit.
Aufgabe 1.9.4
Untersuche, wann die Summe zweier eindimensionaler Unterräume von
V
eine direkte
Summe ist.
Aufgabe 1.9.5
über
•
K,
und sei
Sind
Sei m ∈ N, seien U1 , . . . , Um Unterräume eines endlich-dimensionalen Vektorraumes V
U = U1 + . . . + Um . Zeige: Genau dann ist diese Summe direkt, wenn folgendes gilt:
(j)
(u(j)
1 , . . . , usj )
Basen für
Uj ,
für jedes
j = 1, . . . , m,
so ist das System
(2)
(m)
(1)
(2)
(m)
(u(1)
1 , . . . , us1 , u1 , . . . , us2 , . . . , u1 , . . . , usm ) ,
also sozusagen die Vereinigung dieser Basen, eine Basis für
17
U.
Aufgabe 1.9.6
Sei m ∈ N, seien U1 , . . . , Um Unterräume eines Vektorraumes V über K, und sei U =
U1 + . . . + Um . Zeige: Genau dann ist diese Summe direkt, wenn es zu jedem u ∈ U eindeutig bestimmte
uj ∈ Uj gibt, für welche u = u1 + . . . + um ist.
Aufgabe 1.9.7
U1 + . . . + Um .
Sei
m ∈ N, seien U1 , . . . , Um Unterräume eines Vektorraumes V
U die lineare Hülle der Vereinigung aller Uj ist.
über
K,
und sei
U =
Zeige, dass
Aufgabe 1.9.8
Finde selbst eine mögliche Denition für die Summe, bzw. die direkte Summe, einer
beliebigen Anzahl von Unterräumen eines Vektorraums.
18
Kapitel 2
Matrizen
2.1 Denition und elementare Eigenschaften
Denition 2.1.1
Seien
n, m ∈ N.
Eine Abbildung
{1, . . . , m} × {1, . . . , n} −→ K ,
(j, k) 7−→ ajk
(2.1.1)
kann man sich als ein rechteckiges Zahlenschema

A =
a11
 a21

 ..
 .
am1
veranschaulichen. Dieses Schema heiÿt eine
ajk
heiÿen die Elemente von
A,
a12
a22
...
...
.
.
.
am2
...
m × n-Matrix,

a1n
a2n 


.
.

.
amn
oder eine Matrix vom Typ
und wir schreiben manchmal auch kurz
A = ajk .
m × n. Die Zahlen
m × 1-Matrizen
Die

sk =
heiÿen die Spalten von
werden die Zeilen von
A,
A
die

a1k
 a2k 


 ..  ,
 . 
amk
1 × n-Matrizen
zj = aj1 , aj2 , . . . , ajn ,
1 ≤ k ≤ n,
1 ≤ j ≤ m,
genannt. Also hat eine Matrix vom Typ
m×n
gerade
m
Zeilen und
n
Spalten.
Im Fall n = m sprechen wir von einer quadratischen Matrix. Die Menge der m × n-Matrizen wird auch
m×n
mit K
bezeichnet. Zwei Matrizen A und B vom gleichen Typ m × n werden addiert, indem man zu
jedem Element von
A
das an der gleichen Stelle stehende Element von
B
hinzuzählt. Anders ausgedrückt
heiÿt das:
A = ajk ,
Eine Matrix
A
B = bjk
wird mit einem Faktor
λ∈C
=⇒
A + B = ajk + bjk .
multipiziert, indem man jedes ihrer Elemente mit
λ
mal-
nimmt.
Satz 2.1.2
n, m ∈ K
n m.
Für
der Dimension
ist
Km×n
mit den oben eingeführten Verknüpfungen ein Vektorraum über
19
K
Beweis:
Da diese Matrixmenge eigentlich Abbildungen der Form (2.1.1) sind, ist die Vektorraumeigen-
schaft klar wegen Beispiel 1.1.2. Da der Denitionsbereich der Abbildungen
nm
Elemente umfasst, folgt
2
die Behauptung mit Aufgabe 1.7.13.
Aufgabe 2.1.3
in
Kn .
n, m ∈ N.
Seien
m×n
Gib eine Basis in K
an und vergleiche mit der kanonischen Basis
Km×n aus? Wir bezeichnen diesen auch als Nullmatrix.
Wie sieht der Nullvektor in
Aufgabe 2.1.4 (Eingabe von Matrizen in MAPLE)
MAPLE kennt auch Matrizen. Die Befehlsfol-
ge
> restart;
> with(LinearAlgebra);
> A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]);
> B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]);
> C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]);
deniert z. B. drei Matrizen
A, B, C ,
mit welchen dann auch gerechnet werden kann; siehe dazu die
noch folgenden Aufgaben. Untersuche selber, ob man die Angabe der Zeilen- und/oder Spaltenzahl auch
weglassen kann, und was geschieht, wenn die eingegebenen Zeilen zu kurz oder zu lang, zu wenige oder
zu viele sind.
Aufgabe 2.1.5
Entscheide, welche der folgenden Matrizen addiert werden können, und berechne gege-
benenfalls ihre Summe.
A =
1
−1
D =
1
2
−1
,
2
B =
1
0
0
0
,
E =
Multipliziere alle diese Matrizen mit dem Faktor
1
2
1
2
,
,
C =
F =
−1
1
−1
−2
−1
−2
,
.
λ = 2.
Aufgabe 2.1.6 (Matrixaddition mit MAPLE)
Die folgende Sequenz von MAPLE-Kommandos ad-
diert die entsprechenden Matrizen:
> restart;
> with(LinearAlgebra);
> A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]);
> B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]);
> C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]);
> A1 := Add(A,B);
> A2 := Add(A,C);
> A3 := Add(A,B,2,3);
Finde heraus, welche Bedeutung die optionalen Parameter
2
und
3
im letzten Kommando haben. Finde
auch einen Weg, wie man mit Hilfe von MAPLE eine Matrix mit einer Zahl multipliziert.
20
2.2 Das Produkt von Matrizen
Denition 2.2.1
Wir setzen für
a1 , . . . , an , b1 , . . . , bn ∈ C


b1
n
X


a1 , . . . , an  ...  =
aj bj .
j=1
bn
Das heiÿt: Für eine Zeile und eine Spalte gleicher Länge ist jeweils ein Produkt deniert, und das Ergebnis
A und B Matrizen sind, und wenn
die
A dieselbe Länge wie die Spalten von B haben, dann ist das Produkt A B die Matrix C = cjk ,
für die cjk gerade das Produkt der j -ten Zeile von A mit der k -ten Spalte von B ist. Mit anderen Worten:
Ist




b11 b12 . . . b1s
a11 a12 . . . a1n
 b21 b22 . . . b2s 
 a21 a22 . . . a2n 




, B =  .
A =  .

.
.  ,
.
.
.
.
. 
.
.


 ..
.
.
.
.
.
bn1 bn2 . . . bns
am1 am2 . . . amn
so ist A B = cjk mit
n
X
cjk =
ajν bνk ,
1 ≤ j ≤ m, 1 ≤ k ≤ s.
dieser Operation ist ein Skalar. Allgemein denieren wir: Wenn
Zeilen von
ν=1
Aufgabe 2.2.2
Zeige für
k -ten
B,
Spalte von
Aufgabe 2.2.3
die
A, B, C wie oben: Die k -te Spalte von C ist gleich dem Produkt
j -te Zeile von C ist das Produkt der j -ten Zeile von A mit B .
von
A
mit der
Berechne die Produkte folgender Matrizen:

1
 −1 


 −2  ,
0

Lösung:
1
0
1 0 −1
−1 2
0
−1
1
1
3
−b
a+b
a
2
.
Das Ergebnis ist
0
−3
bzw.
−a + 2
a+6
2b + a
3a + 2b
.
2
Aufgabe 2.2.4 (Matrixmultiplikation mit MAPLE)
> restart;
> with(LinearAlgebra);
> A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]);
> B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]);
> C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]);
> V1 := VandermondeMatrix([1,2,3,4]);
21
MAPLE kann auch Matrizen multiplizieren:
> V2 := VandermondeMatrix([a,b,c,d]);
> A3:=MatrixMatrixMultiply(A,B);
> A4:=MatrixMatrixMultiply(A,C);
> A4:=MatrixMatrixMultiply(C,A);
> A5:=MatrixMatrixMultiply(V1,V2);
Wie steht es mit der Gültigkeit des Kommutativgesetzes bei der Matrixmultiplikation? Beachte, dass
MAPLE auch mit Matrizen umgehen kann, deren Elemente nicht Zahlen sondern Variablen sind, und
dass das System auch sogenannte Vandermondesche Matrizen kennt, die später noch eine Rolle spielen
werden.
Beispiel 2.2.5
Für
0
1
A =
0
0
,
x11
x21
X =
x12
x22
gilt oenbar
AX =
A2 = A A = 0 .
und daraus folgt
0
x11
0
x12
,
XA =
x12
x22
0
0
Das bedeutet, dass eine Matrixgleichung
,
AX = B
im Allgemeinen
keine Lösung haben wird, und wenn doch, braucht die Lösung nicht eindeutig bestimmt zu sein. Weiter
sieht man, dass für Matrizen
A
und
X
AX
die Produkte
und
XA
beide deniert sein können, aber im
Allgemeinen verschieden ausfallen. Mit anderen Worten heiÿt das, dass für die Matrixmultiplikation im
Allgemeinen kein Kommutativgesetz gilt.
Aufgabe 2.2.6
Berechne und vergleiche
A =
AB
0
1
0
0
und
BA
für
,
B =
1
0
0
0
2.3 Rechenregeln
Denition 2.3.1
m × n-Matrix

a11 a12
 a21 a22

A =  .
.
.
 ..
.
am1 am2
Für eine beliebige
...
...
...

a1n
a2n 


.
.

.
amn
heiÿt

A =
die zu
A
a11
 a21

 ..
 .
am1
a12
a22
...
...
.
.
.
am2
...

a1n
a2n 


.
.

.
amn
konjugiert komplexe Matrix. Weiter nennen wir

AT =
a11
 a12

 ..
 .
a1n
a21
a22
...
...
.
.
.
a2n
22
...

am1
am2 

,
.
.

.
amn
.
welche die Zeilen von
ponierte zu
A.
A
als Spalten enthält und umgekehrt, die transponierte Matrix oder kurz die Trans-
Für eine quadratische Matrix

A =
a11
 a21

 ..
 .
an1
a12
a22
...
...
.
.
.
an2
...

a1n
a2n 


.
.

.
ann
a11 , . . . , ann die Diagonalelemente von A. Falls ajk = 0 ist für alle k < j , d. h., wenn
alle Elemente unterhalb der Diagonalen verschwinden, dann heiÿt A eine obere Dreiecksmatrix. Falls
heiÿen die Zahlen
ajk = 0 ist für alle k > j , dann sprechen wir von einer unteren Dreiecksmatrix. Falls sogar
beides gilt, d. h., falls alle Elemente auÿer evtl. den Diagonalelementen verschwinden, dann heiÿt A eine
dagegen
Diagonalmatrix. Wenn
A
eine Diagonalmatrix mit den Diagonalelementen
λ1 , . . . , λ n
ist, schreiben wir
manchmal
A =
Die
n × n-Matrix
diag [λ1 , . . . , λn ] .

I =






1
0
0
0
1
0
0
0
1
...
...
...
0
0
0
.
.
.
.
.
.
.
.
.
..
.
.
.
.
0
0
0
...
1
also die Diagonalmatrix, deren Diagonalelemente alle gleich
1




 ,


sind, heiÿt Einheitsmatrix. Wenn man das
sogenannte Kronecker-Delta
0
1
δjk =
einführt, kann man sagen, dass
I
die Elemente
Aufgabe 2.3.2 (Matrizen und MAPLE)
δjk
für
für
j=
6 k
j=k
hat.
Finde MAPLE-Kommandos zur Berechnung der transpo-
nierten Matrix sowie zur einfachen Eingabe von Diagonalmatrizen und der Einheitsmatrix, welche in
Englisch identity matrix heiÿt und deshalb in dieser Vorlesung auch mit
ratur ist aber auch das Symbol
E
I
bezeichnet wird. In der Lite-
üblich.
Satz 2.3.3 (Rechenregeln für Matrizen)
Für feste Zahlen
n, m, r, s ∈ N
gelten die folgenden Aussa-
gen:
(a)
A ∈ Km×n , B ∈ Kn×r , λ ∈ K =⇒
(b)
A ∈ Km×n , B, C ∈ Kn×r =⇒
(c)
A, B ∈ Km×n , C ∈ Kn×r =⇒
m×n
, B∈K
n×r
λ (A B) = (λA) B = A (λB).
A (B + C) = A B + A C .
(A + B) C = A C + B C .
r×s
(d)
A∈K
, C∈K
(e)
A ∈ Km×n , I = [δjk ] ∈ Kn×n =⇒
(f )
I = [δjk ] ∈ Kn×n , A ∈ Kn×r =⇒
(g)
A, B ∈ Km×n =⇒
(h)
A ∈ Km×n , B ∈ Kn×r =⇒
=⇒
(A B) C = A (B C).
A I = A.
I A = A.
(A + B)T = AT + B T .
(A B)T = B T AT .
Aufgabe 2.3.4
Beweise den oben stehenden Satz.
Aufgabe 2.3.5
Zeige: Wenn man eine Matrix
nalmatrix
Zeile von
Λ = diag[λ1 , . . . , λn ] multipliziert,
A mit dem Faktor λk malnimmt.
A
passender Gröÿe von rechts bzw. links mit einer Diago-
so erhält man das Produkt, indem man die
23
k -te
Spalte bzw.
2.4 Zeilen- und Spaltenrang
Denition 2.4.1
Spaltenraum von
Beispiel 2.4.2
Km
Sei
A;
A ∈ Km×n .
Die lineare Hülle der Zeilen bzw. Spalten von
A
heiÿt Zeilenraum bzw.
die Dimension dieser Räume heiÿt Zeilenrang bzw. Spaltenrang von
Für eine Matrix, deren erste Spalten die ersten
s
A.
Vektoren der kanonischen Basis von
sind, während evtl. weitere Spalten nur noch Nullen enthalten, liest man ab dass ihr Zeilen- und Spal-
tenrang beide gleich
s
sind. Im Folgenden soll gezeigt werden, dass die Werte von Zeilen- und Spaltenrang
für beliebige Matrizen immer übereinstimmen.
Aufgabe 2.4.3
Zeige: Für jede Matrix
m.
Zeilenrang höchstens gleich
A ∈ Km×n
ist der Spaltenrang von
Aufgabe 2.4.4
Finde den Zeilen- und Spaltenrang der Einheitsmatrix.
Aufgabe 2.4.5
Zeige: Für
Linearkombination der
A
höchstens gleich
n,
der
Finde einfache Beispiele dafür, dass diese Abschätzungen scharf sind.
A ∈ Km×n und x ∈ Kn ist A x ein Vektor des Spaltenraums, also
Spalten von A. Finde selber eine analoge Aussage für die Zeilen von A.
eine
2.5 Elementare Operationen
Denition 2.5.1
Sei
n ∈ N, n ≥ 2. Jede der folgenden drei Arten von quadratischen n-reihigen Matrizen
n:
heiÿt eine Elementarmatrix der Gröÿe
λ ∈ K \ {0} und 1 ≤ j ≤ n sei Ej (λ) die Diagonalmatrix, deren
ist, während die übrigen Diagonalelemente gleich 1 sind.
(a) Für
λ
1 ≤ j < k ≤ n sei Pjk = Pkj
j -ten und k -ten Spalte entsteht.
(b) Für
(c) Für
1 ≤ j, k ≤ n, j 6= k ,
sei
Seien
matrizen der Gröÿe
n
n≥2
Ejk die
(j, k),
Matrix mit Einsen überall auf der Diagonalen und einer
sowie Nullen in allen übrigen Positionen.
A ∈ Kn×m .
und
Zeige, dass die Multiplikation von links mit Elementar-
folgenden Zeilenoperationen für
A
A
entspricht:
(a)
Ej (λ) A
(b)
Pjk A
entsteht aus
A
durch Vertauschen der Zeilen Nr.
(c)
Ejk A
entsteht aus
A
durch Addition der Zeile Nr.
entsteht aus
Diagonalelement gleich
die Matrix, welche aus der Einheitsmatrix durch Vertauschen der
zusätzlichen Eins in der Position
Aufgabe 2.5.2
j -tes
durch Multiplikation der Elemente in der
k
j
und
j -ten
Zeile mit dem Faktor
λ.
k.
zur Zeile Nr.
j.
Benutze Regel (h) aus Satz 2.3.3, um herauszunden, welche Wirkung eine Multiplikation von rechts mit
Elementarmatrizen der Gröÿe
Denition 2.5.3
m
hat.
Für eine Matrix
A
heiÿt jede der Operationen, welche nach Aufgabe 2.5.2 der Multi-
plikation von links bzw. rechts mit einer Elementarmatrix passender Gröÿe entspricht, eine elementare
Zeilen- bzw. Spaltenoperation für
trix
B
B
aus
A
A.
Beachte, dass jede solche Operation umkehrbar ist. Wenn eine Ma-
durch endlich viele dieser elementaren Zeilen- und Spaltenoperationen entsteht, dann heiÿt
äquivalent zu
A.
24
Aufgabe 2.5.4
Wir wollen im Folgenden jede Hintereinanderausführung von endlich vielen elementaren
Zeilen- oder Spaltenoperationen als erlaubt bezeichnen. Überprüfe durch eine Kombination von Operationen des Typs (a),(c), dass auch die Addition eines Vielfachen einer Zeile bzw. Spalte zu einer anderen
Zeile bzw. Spalte eine erlaubte Operation ist.
Aufgabe 2.5.5 (Elementare Operationen mit MAPLE)
Finde selber die Befehle in MAPLE, wel-
che den oben eingeführten elementaren Zeilen- und Spaltenoperationen entsprechen.
Denition 2.5.6 (Äquivalenzrelationen) Sei eine nicht-leere Menge X
gegeben. Eine Teilmenge R ⊂
x1 ∈ X zu einem x2 ∈ X in Relation steht, wenn
das Paar (x1 , x2 ) zu R gehört. Eine solche Relation auf X heiÿt eine Äquivalenzrelation, falls für beliebige
x, x1 , x2 , x3 ∈ X gilt:
X ×X
heiÿt eine Relation auf
X.
Wir sagen dass ein
(R)
(x, x) ∈ R
(S)
(x1 , x2 ) ∈ R =⇒ (x2 , x1 ) ∈ R
(T)
(x1 , x2 ) ∈ R
(Reexivität)
und
(Symmetrie)
(x2 , x3 ) ∈ R =⇒ (x1 , x3 ) ∈ R
(Transitivität)
(x1 , x2 ) ∈ R schreiben wir auch x1 ∼ x2 und sagen in Worten: x1 ist äquivalent zu x2 . Für x ∈ X
Ax = {x̃ ∈ X : x ∼ x̃ }. Wir nennen ein solches Ax eine Äquivalenzklasse. Ein beliebiges Element
Statt
sei
einer Äquivalenzklasse heiÿt auch ein Repräsentant dieser Äquivalenzklasse.
Aufgabe 2.5.7
Ax
Zeige: Ist auf
eine Zerlegung von
Aufgabe 2.5.8
X;
X 6= ∅ eine Äquivalenzrelation gegeben, so bilden die
Ax ∩ Ay 6= ∅ folgt Ax = Ay , und ∪x∈X Ax = X .
Äquivalenzklassen
d. h., aus
Zeige: Auf der Menge
Km×n
aller Matrizen fester Gröÿe hat der oben eingeführte Begri
der Äquivalenz die drei Eigenschaften einer Äquivalenzrelation.
Satz 2.5.9
Der Spaltenrang einer Matrix ist invariant gegenüber elementaren Spaltenoperationen; der
Zeilenrang einer Matrix ist invariant gegenüber elementaren Zeilenoperationen.
Beweis:
Es genügt, die Aussage für Spalten zu beweisen, da dann durch Übergang zur transponierten
a1 , . . . , an ∈ Km , und sei U =
L(a1 , . . . , an ) der Spaltenraum von A. Das Vertauschen von Vektoren in (a1 , . . . , an ) ändert nichts daran,
dass diese Spaltenvektoren ein Erzeugendensystem für U sind, und gleiches gilt für Multiplikation einer
Spalte mit einem von 0 verschiedenen Faktor. Wir wollen nun dasselbe zeigen für den Fall der Ersetzung
der Spalte ak durch die Summe ak + aj , für j 6= k : Jeder Vektor u ∈ U kann dargestellt werden als
Pn
u = ν=1 αν aν . Setzt man
(
αν
(ν 6= j)
βν =
αj − αk
(ν = j)
Matrix auch die für Zeilen folgt. Sei
A
eine Matrix mit den Spalten
so folgt
βk (ak + aj ) +
X
βν aν = αk (ak + aj ) + (αj − αk ) aj +
ν6=k
Lemma 2.5.10
Seien
αν aν = u .
ν6=j,k
2
Dies war zu zeigen.
BA
X
A, B
nicht gröÿer als der von
so, dass das Matrixprodukt
A.
25
BA
deniert ist. Dann ist der Spaltenrang von
Beweis:
Sei C = B A. Sind a1 , . . . , an bzw. c1 , . . . , cn die Spalten von A bzw. C , so gilt nach Aufgabe 2.2.2
Pn
ck =P
B ak für 1 ≤ k ≤ n. Nach den Rechenregeln für Matrizen folgt aus 0 = k=1 λk ak die Gleichung
n
0 = k=1 λk ck . Daraus schlieÿen wir: Wenn ein Teilsystem der Spalten von A linear abhängig ist, so ist
dasselbe Teilsystem der Spalten von C ebenfalls linear abhängig. Also kann der Spaltenrang von C nicht
gröÿer sein als der von A.
2
Aufgabe 2.5.11
der von
A
A, B ,
Gib ein Beispiel für Matrizen
für die der Spaltenrang von
BA
echt kleiner als
ist.
Satz 2.5.12
Der Spaltenrang einer Matrix ist invariant gegenüber elementaren Zeilenoperationen; der
Zeilenrang einer Matrix ist invariant gegenüber elementaren Spaltenoperationen.
Beweis:
Zeilenoperationen entsprechen der Multiplikation von links mit Elementarmatrizen. Also kann
der Spaltenrang wegen Lemma 2.5.10 bei Zeilenoperationen nicht zunehmen. Da Zeilenoperationen reversibel sind, folgt sogar, dass der Spaltenrang bei elementaren Zeilenoperationen gleich bleibt. Die Aussage
2
für den Zeilenrang folgt wieder durch die Betrachtung der transponierten Matrizen.
2.6 Normalform und Rang einer Matrix
Satz 2.6.1 (Normalform unter Äquivalenz)
Jede Matrix
der Form
B =
wobei
I
eine Einheitsmatrix der Gröÿe
I
0
0
0
A ∈ Km×n
ist äquivalent zu einer Matrix
,
0 ≤ s ≤ min{m, n} ist, während die Nullen für Nullmatrizen
s = 0 so zu interpretieren ist, dass B die
s = m einige der Nullmatrizen in B als leer anzusehen sind.
s
mit
entsprechender Gröÿe stehen; dabei ist zu beachten, dass
Nullmatrix ist, während für
Beweis:
s=n
Die Umformung von
A
bzw.
auf die Form
B
geschieht durch Anwenden des folgenden Algorithmus,
in dem die nach jeder Umformung enstandene Matrix der Einfachheit halber weiterhin mit
A
bezeichnet
sein soll:
(a) Falls
A
die Nullmatrix ist, ist
B = A,
also
s = 0,
und der Algorithmus ist beendet.
A nicht die Nullmatrix ist, so können wir durch evtl. Vertauschen von Zeilen und/oder Spalten
a11 6= 0 ist. Danach können wir die erste Zeile oder Spalte mit einem
Faktor multiplizieren, so dass sogar a11 = 1 gilt.
(b) Falls
erreichen, dass anschlieÿend
a11 = 1 können wir Vielfache der ersten Zeile von allen folgenden subtrahieren, so dass
aj1 = 0 ist für alle j = 2, . . . , m. Danach können wir Vielfache der ersten Spalte von allen
folgenden subtrahieren, so dass danach a1k = 0 ist für alle k = 2, . . . , n. Beachte, dass dabei die
(c) Im Fall
danach
Elemente der ersten Spalte nicht mehr verändert werden.
(d) Falls
m = 1
oder
n = 1
ist, ist der Algorithus beendet. Sonst wenden wir dieselben Schritte
sinngemäÿ auf die kleinere Matrix

a22


.
.
.
...
am2
...
a2n

.
.
.


amn
an; diese Schritte verändern die erreichte Form der ersten Zeile und Spalte von
26
A
nicht.
Beachte für das Folgende, dass dieser Algorithmus auch die Berechnung von Zeilen- und Spaltenrang
2
einer Matrix gestattet.
Korollar zu Satz 2.6.1
Beweis:
Der Zeilenrang und der Spaltenrang einer Matrix
A stimmen immer überein.
Zeilen- und Spaltenrang sind beide invariant unter Zeilen-, aber auch unter Spaltenoperationen,
und durch diese kann
A
auf die Form
Zeilen- und Spaltenrang für
B
B
wie im Satz 2.6.1 gebracht werden. Nach Beispiel 2.4.2 stimmen
überein, und somit gilt dasselbe auch für
Denition 2.6.2 (Rang einer Matrix)
2
A.
Der gemeinsame Wert von Zeilen- und Spaltenrang einer Ma-
trix wird im Folgenden als Rang der Matrix bezeichnet, und wir schreiben auch rang A für den Rang einer
A.
Matrix
Proposition 2.6.3 (Rechenregeln für den Rang)
(a)
∀ A ∈ Km×n :
rang A
≤ min{n, m}.
(b)
∀ A ∈ Km×n :
rang A
=
(c)
∀ A ∈ Km×n , B ∈ Kn,r :
Beweis:
von
A
T
rang A .
rang (A B)
≤ min{rang A, rang B}.
Zu (a): Klar nach Denition von Rang bzw. Zeilen- und Spaltenrang. Zu (b): Der Spaltenrang
ist gleich dem Zeilenrang von
AT
und umgekehrt, und daraus folgt die Behauptung. Zu (c): In
Lemma 2.5.10 wurde gezeigt, dass der Spaltenrang einer Matrix bei Multiplikation von links mit einer
beliebigen anderen Matrix nicht zunehmen kann, und daher folgt rang (A B)
der Transponierten und Anwenden von (b) folgt dann rang (A B)
rang A
T
= rang A,
=
≤ rang B . Durch Betrachten
T
= rang (B T AT ) ≤
2
rang (A B)
und daraus folgt die Behauptung.
2.7 Zeilenstufenform und Rangberechnung
Denition 2.7.1
wenn die ersten
k
k
Sei
A
eine beliebige Matrix. Wir sagen: Die
Einträge in dieser Zeile gleich
0
ist, der folgende Eintrag von Null verschieden ist. Dabei darf
erste Element der
j -ten
j -te
Zeile von
A
hat
k
führende Nullen,
sind und, im Falle dass die Länge der Zeile gröÿer als
k=0
sein, was dann bedeutet, dass das
Zeile nicht verschwindet. Die Matrix heiÿt in Zeilenstufenform, falls jede ihrer
Zeilen entweder nur Nullen enthält oder mehr führende Nullen als die Vorgängerzeile hat.
Bei einer Matrix in Zeilenstufenform kann es vorkommen, dass die letzten Zeilen nur noch Nullen enthalten. Streicht man diese, so sind die übrigen Zeilen linear unabhängig. Mit anderen Worten: Der Rang
einer Matrix in Zeilenstufenform ist gleich der Anzahl der nicht-trivialen Zeilen der Matrix. Daher genügt
es zur Berechnung des Ranges von
A
die Matrix durch Zeilenoperationen so lange umzuformen, bis eine
Zeilenstufenform erreicht ist. Dies kann folgendermaÿen geschehen:
1. Setze
j = 1.
2. Finde das kleinste
k
` ≥ j existiert mit a`k 6= 0; falls kein solches k existiert, so
j und `, sodass danach ajk 6= 0 ist. Dies bedeutet, dass die
höherer Nummer mindestens k − 1 führende Nullen enthalten.
für welches ein
brich ab. Sonst vertausche die Zeilen
Zeile
j
genau, und die Zeilen mit
3. Subtrahiere Vielfache der
j -ten
von allen folgenden Zeilen, um zu erreichen, dass diese Folgezeilen
alle mindestens eine führende Null mehr besitzen als die Zeile Nr.
27
j.
4. Erhöhe
j
um
Aufgabe 2.7.2
1
und fahre fort mit Schritt 2.
Berechne die Ränge der Matrizen

1
A =  −1
1

1
 0
B = 
 1
1

1
2  ,
3
Aufgabe 2.7.3 (Rangberechnung mit MAPLE)

0 1
0 2 
 .
−1 0 
0 1
Führe die nachfolgenden MAPLE-Befehle aus:
> restart;
> with(LinearAlgebra);
> A := Matrix(3,5, [[1,0,0,1,-1], [1,1,-1,2,0], [2,-1,-1,0,0]]);
> Rank(A);
Interpretiere das Resultat, und variiere die Sequenz so, dass sie die Ränge der Matrizen aus der vorangegangenen Aufgabe löst.
2.8 Invertierbare Matrizen
Denition 2.8.1
reihige Matrix
mit
GL(n, K)
B
n-reihige Matrix A heiÿt invertierbar, falls es eine quadratische nB A = I ist. Die Menge aller invertierbaren n-reihigen Matrizen wird
Eine quadratische
gibt, für welche
bezeichnet. Diese Bezeichnung ist die Abkürzung für die englische Bezeichnung general
linear group.
Satz 2.8.2
(a)
A
A
Für jede quadratische
n-reihige
Matrix
ist invertierbar genau dann, wenn rang A
A
gilt:
=n
ist, also wenn alle Spalten, oder alle Zeilen, von
linear unabhängig sind.
(b) Sei
(c) Aus
B
so, dass
BA=I
BA=I
und
gilt. Dann gilt auch
CA=I
folgt
A B = I.
B = C.
Beweis:
Zu (a): Falls I = B A gilt, folgt mit Satz 2.6.3 (c) und der Denition des Rangs, dass n =
≤ min{rang B, rang A} ≤ n, und somit ist n = rang A = rang B . Umgekehrt: Ist rang A = n,
so sind die Zeilen von A linear unabhängig und deshalb eine Basis im Raum aller Zeilenvektoren der
Länge n (denn dieser Raum ist nach Satz 2.1.2 ein n-dimensionaler Vektorraum über K). Also ist jeder
Zeilenvektor eine Linearkombination der Zeilen von A, und deshalb gibt es Zeilenvektoren zj (der Länge
N ) mit eTj = zj A, j = 1, . . . , n. Fasst man diese Zeilenvektoren zu einer Matrix B zusammen, so folgt
I = B A. Zu (b): Im Beweis von (a) wurde bereits gezeigt, dass aus I = B A folgt rang B = n. Daher ist
auch B nach (a) invertierbar, und somit gibt es ein C mit C B = I . Durch Multiplikation von rechts mit
A folgt hieraus A = C B A = C . Zu (c): Aus I = B A = C A folgt durch Multiplikation von rechts mit B
unter Beachtung von A B = I , dass B = C (A B) = C ist.
2
rang I
Aufgabe 2.8.3
Aus Satz 2.8.2 und Satz 2.6.1 folgt: Eine Matrix
A
ist genau dann invertierbar, wenn
sie äquivalent zur Einheitsmatrix ist. Schlieÿe hieraus, dass eine invertierbare Matrix ein Produkt von
endlich vielen Elementarmatrizen ist.
28
Denition 2.8.4
Nach Satz 2.8.2 gibt es zu jedem
und wir nennen dieses
B
die inverse Matrix zu
A
A ∈ GL(n, K)
eine eindeutige Matrix
oder kürzer Inverse von
A
B
mit
B A = I,
A−1 für
und schreiben auch
diese Matrix.
Satz 2.8.5 (Rechenregeln für Inverse)
A A−1 = A−1 A = I .
(a)
∀ A ∈ GL(n, K) :
(b)
A ∈ GL(n, K) =⇒ AT ∈ GL(n, K),
(c)
A, B ∈ GL(n, K) =⇒ A B ∈ GL(n, K),
Beweis:
(AT )−1 = (A−1 )T .
und
und
Aufgabe 2.8.6
von
A
(A−1 )T AT = (A A−1 )T = I T = I ,
) (A B) = B −1 (A−1 A) B = B −1 B = I .
Zu (a): Folgt aus Satz 2.8.2 (b). Zu (b): Folgt aus
Satz 2.3.3 (h) benutzt wurde. Zu (c): Folgt aus
−1
(A B)−1 = B −1 A−1 .
Zeige: Wenn
ist gleich
A
(B
−1
A
−1
invertierbar ist, dann ist auch
A.
29
A−1
wobei
2
invertierbar, und die inverse Matrix
Kapitel 3
Lineare Gleichungssysteme
3.1 Das Gauÿsche Eliminationsverfahren
Denition 3.1.1
Im Folgenden seien stets eine Matrix

A =
a11
 a21

 ..
 .
am1
a12
a22
...
...
.
.
.
am2
...

a1n
a2n 


.
.

.
amn
∈ Km×n
T
m
T
und ein Vektor b = (b1 , b2 , . . . , bm ) ∈ K fest gewählt. Für einen weiteren Vektor x = (x1 , x2 , . . . , xn ) ∈
n
K ist die Gleichung A x = b äquivalent mit den m linearen Gleichungen in n Unbekannten x1 , . . . , xn
a11 x1 + a12 x2 + . . . + a1n xn
= b1 ,
a21 x1 + a22 x2 + . . . + a2n xn
= b2 ,
.
.
.
.
.
.
am1 x1 + am2 x2 + . . . + amn xn
Deshalb nennen wir
Ax = b
.
.
.
= bm .
auch ein (inhomogenes) lineares Gleichungssystem. Die Matrix
Koezientenmatrix des Gleichungssystems, und
b
A
heiÿt auch
heiÿt Inhomogenitätenvektor. Die Gleichung
heiÿt die zugehörige homogene Gleichung oder homogenes Gleichungssystem. Wir schreiben auch
x, welche die Gleichung A x = b
A x = 0. Jedes x ∈ L(A) \ {0} heiÿt
für die Menge aller Vektoren
der homogenen Gleichung
erfüllen, und
L(A)
Ax = 0
L(A, b)
für die Lösungsmenge
eine nicht-triviale Lösung des homogenen
m
Gleichungssystems. Wir nennen das inhomogene System universell lösbar, wenn es für jedes b ∈ K
ein
m
x ∈ L(A, b) gibt. Wir sagen, dass das inhomogene System für ein b ∈ K eindeutig lösbar ist, wenn es
genau ein
x ∈ L(A, b)
gibt. Die Matrix

(A, b) =
a11
 a21

 ..
 .
am1
heiÿt die erweiterte Matrix des Gleichungssystems
a12
a22
...
...
.
.
.
am2
a1n
a2n
.
.
.
...
amn

b1
b2 

. 
. 
.
bm
A x = b.
Bemerkung 3.1.2 (Gauÿsches Eliminationsverfahren) Es ist leicht einzusehen, dass die Lösungsmenge
L(A, b)
bei elementaren Zeilenoperationen für die erweiterte Matrix unverändert bleibt. Da z. B.
das Vertauschen zweier Spalten von
A
einer Vertauschung der entsprechenden Unbekannten entspricht,
30
Ax = b
wollen wir uns beim Berechnen der Lösungen von
auf Zeilenoperationen beschränken; beachte
aber, dass diese immer auf die erweiterte Matrix anzuwenden sind. Wir gehen dabei folgendermaÿen vor:
1. Falls
A=0
ist, breche ab. Sonst weiter mit 2.
A mit der niedrigsten Nummer, welche nicht nur Nullen enthält; ihre Nummer
ajk 6= 0 ist. Vertausche in der erweiterten Matrix die Zeile Nr. j
mit der ersten. Subtrahiere danach Vielfache der ersten von allen folgenden Zeilen, um in der k -ten
Spalte alle Elemente mit Nummern (j, k), 2 ≤ j ≤ m, zu 0 zu machen. Ist dies geschehen, hat die
2. Suche die Spalte von
sei gleich
k,
und
j
sei so, dass
neue erweiterte Matrix die Form

0
 0

 .
 ..
0
wobei
ã1k 6= 0
...
...
...
0
0
ã1k
0
.
.
.
.
.
.
0
0
ã1,k+1 . . . ã1n
b̃1



 ,
b̃ 
Ã
ist. Danach wenden wir dieselben Schritte 1. und 2. auf die kleinere Matrix
(Ã, b̃)
wieder an.
Das oben beschriebene Verfahren führt in endlich vielen Schritten zu einer Endmatrix
(Â, b̂)
in Zeilen-
stufenform, und wir können folgendes ablesen:
(a) Da wir nur Zeilenoperationen benutzt haben, ist rang A
(b) Eventuell enthalten einige der untersten Zeilen von
= rang Â
(Â, b̂)
und rang (A, b)
= rang (Â, b̂).
nur noch Nullen; diese sind für die Be-
stimmung der Lösungsmenge ohne Bedeutung und können deshalb weggelassen werden. Die Anzahl
der verbliebenen Gleichungen ist dann gleich rang (A, b).
(c) Wenn danach in der untersten Zeile von
(Â, b̂) nur rechts im Inhomogenitätenteil eine von 0 verschie-
dene Zahl steht, ergibt sich ein Widerspruch und die Lösungsmenge ist deshalb leer. Dies geschieht
oenbar genau dann, wenn der Rang von
(d) Wenn rang A
A
kleiner als der Rang der erweiterten Matrix
(A, b)
ist.
= rang (A, b)) ist, ist in der letzten Zeile von  mindestens ein Element von 0 verschie-
den. Wir können daher in der untersten Gleichung alle der Unbekannten bis auf eine beliebig wählen
und dann die Gleichung nach der verbleibenden Unbekannten auösen. Setzt man die erhaltenen
Unbekannten in die darüberstehenden Gleichungen ein, kann man danach mit der vorausgehenden
Gleichung genauso verfahren.
(e) Da die Anzahl der so zu lösenden Gleichungen gleich rang A
für
n − rang A Unbekannte beliebige freie
= rang (A, b)) ist, können wir insgesamt
Parameter einsetzen, während die übrigen bestimmt sind,
aber natürlich von der Wahl dieser Parameter abhängen.
Insgesamt kann man auf diese Weise die allgemeine Lösung des Gleichungssystems ermitteln. Sie kann
leer sein oder nur aus einem Vektor bestehen, kann aber auch einen oder mehrere freie Parameter enthalten. Wir wollen dies noch in einigen Beispielen deutlicher sehen.
Aufgabe 3.1.3
Löse
2 x1
x1
Aufgabe 3.1.4
+ x2
x2
− x2
− x3
+ x3
− x3
=
=
=
0,
1,
−2 .
Löse
2 x1
x1
+ x2
x2
− x2
−
x3
+
x3
− 2 x3
31
=
0,
=
1,
= −2 .
Aufgabe 3.1.5
Löse
2 x1
x1
−
+
−
+ x2
x2
− x2
x3
x3
2 x3
=
=
=
0,
1,
−3/2 .
Aufgabe 3.1.6 (Lösen von linearen GLS mit MAPLE)
Führe folgende MAPLE-Kommandos aus:
> restart;
> with(LinearAlgebra);
> A := Matrix(3,5, [[1,0,0,1,-1], [1,1,-1,2,0], [2,-1,-1,0,0]]);
> b := Vector(3, [0,1,0]);
> LinearSolve(A,b);
Interpretiere das Resultat, und variiere die Sequenz so, dass sie die linearen Gleichungssysteme aus den
vorangegangen Aufgaben löst.
3.2 Struktur der Lösungsmenge
Wir wissen bereits, wie man ein lineares Gleichungssystem löst, wollen aber nun allgemeine Aussagen
über die Lösungsmenge machen.
Satz 3.2.1 (Struktur der Lösungsmenge)
(a)
xp ∈ L(A, b) ,
xh ∈ L(A)
(b)
x1 , x2 ∈ L(A, b)
(c)
x1 , x2 ∈ L(A), α, β ∈ K
=⇒
=⇒
Für
A
und
b
wie in obiger Denition gilt:
xp + xh ∈ L(A, b).
x1 − x2 ∈ L(A).
=⇒
α x1 + β x2 ∈ L(A).
L(A) ist ein Unterraum von Kn , und falls L(A, b) 6= ∅ ist,
gilt für jedes x0 ∈ L(A, b), dass L(A, b) = x0 + L(A) ist. Dies wiederum heiÿt, dass L(A, b) eine lineare
Mannigfaltigkeit ist und die gleiche Dimension wie der Unterraum L(A) hat.
In anderen Worten bedeutet das: Die Menge
Beweis:
Zu (c):
Zu (a): A (xp + xh ) = A xp + A xh = b + 0 = b.
A (α x1 + β x2 ) = α A x1 + β A x2 = 0.
Satz 3.2.2
Beweis:
von
Kn
Es ist stets
Zu (b):
dim L(A) = n − rang A.
In Kapitel 6 werden wir sehen, dass die Matrix
nach
Km
A (x1 − x2 ) = A x1 − A x2 = b − b = 0.
2
A
eine sogenannte lineare Abbildung von
deniert, und ihr Rang ist gleich der Dimension des Bildes dieser Abbildung; deshalb
folgt die Behauptung aus der allgemeinen Gleichung in Satz 6.2.2 (b). Man kann aber die Gültigkeit der
Behauptung auch aus dem Gauÿschen Eliminationsverfahren zur Berechnung der Lösungen ablesen: Die
allgemeine Lösung des homogenen Systems enthält
davon gleich
1
und die übrigen gleich
Die allgemeine Lösung von
(x1 , . . . , xs )
0,
s = n − rang A freie Parameter. Wählt man einen
s linear unabhängige Vektoren x1 , . . . , x2 ∈ L(A).
so erhält man
A x = 0 ist
L(A).
eine Linearkombination dieser Lösungen, also ist das System
2
sogar eine Basis von
32
Satz 3.2.3
Ein inhomogenes lineares Gleichungssystem ist genau dann lösbar, wenn der Rang der Ko-
ezientenmatrix gleich dem der erweiterten Matrix ist.
Beweis:
Dies folgt bereits aus dem Gauÿschen Eliminationsverfahren, kann aber auch folgendermaÿen
bewiesen werden: Klar ist, dass rang A
≤
x ∈ Kn
existiert, für welches A x = b
A, und deshalb kann der Rang von (A, b) nicht
gröÿer als der von A sein. Umgekehrt, falls rang A = rang (A, b) ist, dann muss b eine Linearkombination
n
der Spalten von A sein, und deshalb gibt es ein x ∈ K mit A x = b.
2
b
ist, dann ist
Satz 3.2.4
rang (A, b) ist. Falls ein
eine Linearkombination der Spalten von
Es gelten folgende Aussagen:
(a) Genau dann hat das homogene Gleichungssystem eine nicht-triviale Lösung, wenn rang A
(b) Genau dann ist das inhomogene Gleichungssystem universell, also für jedes
rang A
=m
ist, d. h., wenn
Lösung von
Beweis:
ist.
lösbar, wenn
ist.
(c) Genau dann ist das inhomogene Gleichungssystem für jedes
n=m
b ∈ Km
<n
Ax = b
b ∈ Km
eindeutig lösbar, wenn rang A
=
A
quadratisch und invertierbar ist. Ist dies der Fall, so ist die eindeutige
−1
gegeben als x = A
b.
2
Folgt aus den vorangegangenen Resultaten.
3.3 Berechnen der inversen Matrix
A ∈ Kn×n
Die Berechnung der inversen Matrix einer Matrix
derselben Gröÿe, für welche
Spalte von
schen Basis von
Kn
Aufgabe 3.3.1
X
X
k = 1, . . . , n
besteht in dem Aunden einer Matrix
ist. Dies gilt nach Aufgabe 2.2.2 genau dann, wenn für
A x = ek löst, wobei ek den k -ten Vektor der kanoniX mit dem Gauÿschen Eliminaionsverfahren
n×2n
berechnet werden. Dies geschieht am eektivsten so, dass man die Matrix (A, I) ∈ K
durch elementare Zeilentransformationen solange umformt, bis die Form (I, X) erreicht ist; dies lässt sich genau dann
erreichen, wenn A tatsächlich invertierbar ist. Ist diese Form dann erzielt, so ist die Matrix X gerade die
Inverse zu A. Um einzusehen, dass dies richtig ist, beachte dass die Lösungsmenge einer Matrixgleichung
der Form A X = B mit Matrizen A, X , B passender Gröÿe bei elementaren Zeilenumformungen von
(A, B) nicht geändert wird.
die
k -te
AX = I
das lineare Gleichungssystem
bezeichnet. Also können die Spalten von
Zeige: Eine zweireihige quadratische Matrix
a
c
d −b
−c
a
A =
mit
∆ = a d − b c 6= 0
b
d
ist invertierbar, und es gilt
A−1 =
1
∆
.
Finde eine einfache Weise, sich diese Formel einzuprägen. Wir werden im nächsten Kapitel sehen, dass
die Zahl
ad−bc
gerade die Determinante von
A
ist. Beachte aber, dass es für gröÿere Matrizen keine so
elementare Formel für die inverse Matrix gibt.
Aufgabe 3.3.2
Berechne die inverse Matrix zu

1
A =  1
0
0
1
1
33

1
−1  .
1
Aufgabe 3.3.3 (Inverse Matrix mit MAPLE)
Die folgende Sequenz von MAPLE-Kommandos be-
rechnet inverse Matrizen:
> restart;
> with(LinearAlgebra);
> A := Matrix(5, 5, [ [1, 0, 0, 1, -1], [1, 1, -1, 2, 0], [2, -1, -1, 0, 0], [-1, 1, 0, 2, 1], [-1, 2, 3, 1, 0] ]);
> MatrixInverse(A);
> B := Matrix(2, 2, [ [1, 1], [-1, -1] ]);
> MatrixInverse(B);
Interpretiere das Resultat, und variiere die Sequenz so, dass sie die Inverse der Matrix aus der vorangegangenen Aufgabe berechnet.
Aufgabe 3.3.4
Zeige: Eine obere bzw. untere Dreiecksmatrix
re Diagonalelemente alle von
A
ist genau dann invertierbar, wenn ih-
0
verschieden sind, und dann ist die inverse Matrix ebenfalls eine obere
−1
bzw. untere Dreiecksmatrix. Die Diagonalelemente von A
sind dabei gerade die Kehrwerte der Diagonalelemente von
A,
und die Auÿerdiagonalelemente können rekursiv, d. h., nacheinander, berechnet
werden.
Aufgabe 3.3.5 (Dreiecksmatrixinversion mit MAPLE)
Die folgende Sequenz
> restart;
> with(LinearAlgebra);
> A := Matrix(5, 5, [ [a_11, a_12, a_13, a_14, a_15], [0, a_22, a_23, a_24, a_25], [0, 0, a_33,
a_34, a_34], [0, 0, 0, a_44, a_45], [0, 0, 0, 0, a_55] ]);
> MatrixInverse(A);
veranlasst MAPLE, die Inverse einer Dreiecksmatrix mit fünf Zeilen und Spalten formelmäÿig anzugeben.
Wo liegt hier eigentlich eine Schwäche von MAPLE versteckt?
34
Kapitel 4
Determinanten
4.1 Gruppen und Permutationen
Denition 4.1.1
Eine Menge
G,
zusammen mit einer Abbildung, auch Verknüpfung oder Operation
genannt,
: G × G −→ G,
◦
(g1 , g2 ) 7−→ g1 ◦g2 ,
heiÿt eine Gruppe, wenn folgende Axiome gelten:
(G1)
∀ g1 , g2 , g3 ∈ G :
(G2)
∃e∈G ∀g∈G :
e
(G3)
∀ g ∈ G ∃ g̃ ∈ G :
g̃ ◦g = e
g1 ◦(g2 ◦g3 ) = (g1 ◦g2 )◦g3
◦
(Assoziativgesetz)
g = g
(Existenz eines Einselements)
(Existenz eines Inversen)
Da in den Axiomen das Einselement bzw. das Inverse auf der linken Seite steht, spricht man auch genauer
von einer Linkseins und einem Linksinversen. Falls zusätzlich noch gilt
(G4)
∀ g1 , g2 ∈ G :
g1
◦
g2 = g2
◦
g1
(Kommutativgesetz)
dann sprechen wir von einer kommutativen oder abelschen Gruppe. Die Anzahl der Elemente einer Gruppe
G
heiÿt auch die Ordnung der Gruppe.
σ : {1, . . . , n} −→ {1, . . . , n} heiÿt Permutation der Zahlen 1, . . . , n. Die Menge
1, . . . , n heiÿt die symmetrische Gruppe Sn . Für σ1 , σ2 ∈ Sn heiÿt die Hinterσ1 ◦σ2 auch das Produkt von σ1 , σ2 ; beachte genau die Reihenfolge, da die Hinterein-
Eine bijektive Abbildung
aller Permutationen von
einanderausführung
anderausführung von Abbildungen im Allgemeinen nicht kommutativ ist.
Bemerkung 4.1.2
Man kann zeigen, dass in jeder Gruppe eine Linkseins immer eine Rechtseins ist,
d. h., aus (G2) folgt
g ◦e = g
für alle
g ∈ G.
Genauso ist ein Linksinverses stets auch Rechtsinverses.
Auÿerdem gibt es nur ein Einselement und zu jedem
g ∈ G
nur ein Inverses. Der Beweis soll hier
ausgelassen werden, wird aber in der Vorlesung Algebra behandelt. Für das Inverse zu g schreibt man auch
g −1 . Man fasst also die Verknüpfung in einer Gruppe üblicherweise als eine Art von Multiplikation auf
und spricht deshalb von einer multiplikativen, oder einer multiplikativ geschriebenen Gruppe. Manchmal
ist es aber sinnvoller, die Verknüpfung ◦ als Addition + zu schreiben, was insbesondere dann häug,
aber leider nicht immer, geschieht, wenn die Gruppe abelsch ist.
35
Aufgabe 4.1.3
Zeige: In jeder Gruppe
Aufgabe 4.1.4
Sei
(a) Für jedes
G
g∈G
g1 , g2 ∈ G
(b) Für
Aufgabe 4.1.5
I
gilt die Regel
(g1 ◦g2 )−1 = g2−1 ◦g1−1
für alle
g1 , g2 ∈ G.
eine Gruppe. Zeige:
(g −1 )−1 = g .
gilt
gilt
Sei
G
g1−1 = g2−1 ⇐⇒ g1 = g2 .
eine beliebige nicht-leere Menge. Zeige, dass die Menge aller Bijektionen von
sich bezgl. der Hintereinanderausführung eine Gruppe bilden. Zeige für den Fall, dass
Elemente hat, dass diese Gruppe nicht bijektiv ist. Bestimme für den Fall, dass
die Anzahl der verschiedenen Bijektionen von
Beispiel 4.1.6
n-reihigen
I
I
I
I
auf
mindestens drei
eine endliche Mange ist,
in sich, also die Ordnung der Gruppe aller Bijektionen.
Jeder Vektorraum ist bezgl. der Addition eine abelsche Gruppe. Die Menge
GL(n, K) der
n ≥ 2 ist
invertierbaren Matrizen ist eine Gruppe bezüglich der Matrixmultiplikation, und für
Sn ist ebenfalls eine Gruppe bezüglich der Hintereinanderist sie nicht kommutativ; vergleiche hierzu Aufgabe 4.1.5.
diese Gruppe nicht kommutativ. Die Menge
n≥3
ausführung, und für
Beispiel 4.1.7
Eine Permutation
σ
ist durch die Festlegung aller ihrer Bilder
σ(1), . . . , σ(n)
eindeutig
festgelegt. Wir schreiben deshalb etwa
σ =
Ist z. B.
n = 4,
1
σ(1)
2
σ(2)
...
...
n
σ(n)
so ist das Produkt von
σ1
und
σ2
1
2
2
3
3
4
4
1
σ 1 ◦σ 2 =
In jeder Gruppe
(a) Die Zuordnung
Beweis:
σ(1), σ(2), . . . , σ(n)
.
g0 ∈ G
g 7−→ g
,
σ2 =
1
2
2
3
1
1
2
2
3
4
4
3
,
gleich
(b) Ist ein
=
und wählt man
σ1 =
Satz 4.1.8
3
1
4
4
G
gilt:
−1
ist eine bijektive Abbildung von
fest gewählt, so ist auch die Abbildung
.
G
in sich selber.
g 7−→ g0 ◦g
bijetiv von
G
Zu (a): Unter Benutzung von Aufgabe 4.1.4 schlieÿen wir wie folgt: Es gilt
in
G.
(g −1 )−1 = g , woraus
g̃ = g0 ◦g
2
−1
−1
die Surjektivität folgt, und wegen g1 = g2
⇐⇒ g1 = g2 folgt die Injektivität. Zu (b): Es ist
−1
genau dann, wenn g = g0 ◦g̃ ist, und daher gilt die Behauptung.
Aufgabe 4.1.9
alle
j = 1, . . . , n
Zeige durch Induktion über
gilt, dann folgt
n:
Wenn für eine Permutation
σ ∈ Sn
immer
j ≤ σ(j)
für
σ(j) = j .
Aufgabe 4.1.10 (Permutationen und MAPLE)
MAPLE kann mit Permutationen arbeiten. Aller-
[a1 , a2 , . . . , as ] bedeutet
a1 auf a2 , a2 auf a3 u. s. w., und as wieder auf a1 abildet. Wenn alle ak
verschiedene Zahlen aus {1, . . . , n} sind, dann nennt man [a1 , a2 , . . . , as ] einen Zykel. Wenn man vereinbart, dass alle a ∈ {1, . . . , n}, die in der Liste [a1 , a2 , . . . , as ] nicht auftreten, auf sich selber abgebildet
werden, dann legt jeder solche Zykel eine Permutation aus Sn fest. Man überlegt sich jetzt leicht, dass
dings wird hier die Darstellung durch elementfremde Zykeln benutzt: Das Symbol
hier eine Abbildung, welche
36
jede Permutation durch endlich viele paarweise disjunkte Zykeln deniert werden kann. Z. B. bedeutet in
[ [1, 2, 3], [4, 5] ] die Permutation, welche die 1 auf die 2, die 2 auf die 3, die 3 auf
5, und die 5 auf die 4 abbildet. Dies ist also ein Element von S5 , kann aber auch als
Element von Sn mit n ≥ 6 aufgefasst werden, da ja die Regel gilt, dass alle Zahlen k , die in den Zykeln
nicht vorkommen, also hier alle k ≥ 6, auf sich selber abgebildet werden. Die Befehle
MAPLE das Symbol
die
1,
die
4
auf die
> restart;
> with(group);
> mulperms([ [1,2,3], [4,5] ], [ [2,3], [1,5] ]);
berechnen das Produkt der beiden angegebenen Permutationen.
4.2 Vorzeichen von Permutationen
Denition 4.2.1
σ ∈ Sn . Ein Zahlenpaar (j, k), 1 ≤ j < k ≤ n, heiÿt eine Inversion oder ein
σ(j) > σ(k) ist. Die Anzahl solcher Fehlstände sei m(σ). Wir setzen das Vorzeichen oder Signum sgn (σ) gleich 1, bzw. gleich −1, wenn die Anzahl aller Inversionen von σ gerade,
m(σ)
bzw. ungerade, ist. Anders ausgedrückt ist also sgn (σ) = (−1)
Eine Permutation τ ∈ Sn heiÿt eine
Transposition, falls ein Zahlenpaar (j, k), 1 ≤ j < k ≤ n, existiert, welches durch τ vertauscht wird,
während alle anderen Zahlen von τ festgelassen werden; d. h. genauer
Fehlstand von
σ,
Sei
wenn
τ (j) = k ,
Die identische Abbildung
Beispiel 4.2.2
(1, 2, 4, 3)
τ (k) = j ,
τ (`) = `
id : {1, . . . , n} −→ {1, . . . , n}
Die identische Permutation
id
∀ ` 6= j, k , 1 ≤ ` ≤ n .
heiÿt auch identische Permutation.
besitzt keinen Fehlstand, also ist sgn (id)
gibt es genau einen Fehlstand, nämlich das Paar
Aufgabe 4.2.3 (Vorzeichen und MAPLE)
(3, 4).
Deshalb ist sgn (σ)
= 1.
= −1.
Für
σ =
Das Vorzeichen einer Permutation kann mit Hilfe von
MAPLE indirekt berechnet werden, da für elementfremde Zykeln die sogenannte Parität gleich dem Vor-
zeichen ist und mit dem Kommando > parity berechnet werden kann. Überprüfe dies mit der Sequenz
> restart;
> with(group);
> parity([ [2,3], [1,5] ]);
> parity([ [1,2,3], [4,5] ]);
Satz 4.2.4 (Regeln für das Vorzeichen)
(a)
sgn (σ)
=
Y
1≤j<k≤n
(b)
∀ σ1 , σ2 ∈ Sn :
(c)
∀ σ ∈ Sn :
σ(j) − σ(k)
j−k
sgn (σ1 ◦σ2 )
sgn (σ
−1
Für alle
n≥2
.
=
sgn (σ1 ) sgn (σ2 ).
) = sgn (σ).
37
und alle
σ, τ ∈ Sn
gilt:
Beweis:
Zu (a): Nach Denition von
Y
(σ(j) − σ(k))
m(σ)
gilt
Y
=
1≤j<k≤n
(σ(j) − σ(k))
1≤j<k≤n
1≤j<k≤n
σ(j)<σ(k)
Y
Y
(σ(j) − σ(k))
(σ(j) − σ(k))
j>k
j<k
σ(j)<σ(k)
σ(j)<σ(k)
Y
(−1)m(σ)
=
(σ(j) − σ(k))
σ(j)>σ(k)
(−1)m(σ)
=
Y
(σ(j) − σ(k))
1≤σ(j)<σ(k)≤n
Y
(−1)m(σ)
=
(j − k) ,
1≤j<k≤n
woraus die Behauptung folgt. Zu (b): Unter Verwendung von (a) zeigt man
sgn (σ ◦τ )
Y σ(τ (j)) − σ(τ (k)) τ (j) − τ (k)
τ (j) − τ (k)
j−k
=
j<k
=
sgn (τ )
Y σ(τ (j)) − σ(τ (k))
τ (j) − τ (k)
j<k
=
=
=
sgn (τ )
j<k
j<k
τ (j)<τ (k)
τ (j)>τ (k)
Y σ(τ (j)) − σ(τ (k))
τ (j) − τ (k)
sgn (τ )
Y σ(τ (j)) − σ(τ (k)
τ (j) − τ (k)
j<k
j>k
τ (j)<τ (k)
τ (j)<τ (k)
Y
sgn (τ )
τ (j)<τ (k)
Zu (c): Mit (b) folgt
Y σ(τ (j)) − σ(τ (k))
τ (j) − τ (k)
Y σ(τ (j)) − σ(τ (k))
τ (j) − τ (k)
σ(τ (j)) − σ(τ (k)
=
τ (j) − τ (k)
1 = sgn (id) = sgn (σ) sgn (σ −1 ),
Zeige: Alle Transpositionen
Aufgabe 4.2.6
Berechne das Vorzeichen der Permutationen
Lösung:
Fehlstände, und deshalb ist sgn σ2
σ1
(1, 2),
= −1.
Satz 4.2.7
σ ∈ Sn
hat nur den Fehlstand
Zu jeder Permutation
2
und daraus folgt die Behauptung.
Aufgabe 4.2.5
τ ∈ Sn
sgn (σ) sgn (τ ) .
haben Vorzeichen
also ist sgn σ1
−1,
und es gilt
σ1 = (2, 1, 3, 4)
= −1.
Für
σ2
und
sind
τ −1 = τ .
σ2 = (2, 3, 4, 1).
(1, 4), (2, 4)
existieren endlich viele Transpositionen
und
τ1 , . . . , τm ∈ Sn
(3, 4)
2
mit
σ = τ1 ◦ . . . ◦τm .
Beweis:
Wir benutzen Induktion über n: Für n = 1 ist nichts zu zeigen. Sei jetzt n ≥ 2, und sei
k = σ(n). Falls k < n ist, gibt es eine Transposition τ , welche n und k vertauscht. Falls k = n ist, sei
τ = id gesetzt. Die Permutation σ̃ = τ ◦σ erfüllt dann σ̃(n) = n und kann deshalb auch als Permutation
in Sn−1 angesehen werden. Nach Induktonshypothese gibt es dann τ1 , . . . , τj ∈ Sn−1 mit σ̃ = τ1 ◦ . . . ◦τj .
Wenn wir die τk zu Permutationen in Sn machen, indem wir τk (n) = n setzen, folgt die Behauptung. 2
38
4.3 Denition der Determinante
Denition 4.3.1
Für
A ∈ Kn×n heiÿt die Zahl
X
sgn (σ) a1σ(1) a2σ(2) · . . . · anσ(n)
det A =
n∈N
und
σ∈Sn
die Determinante von
Beispiel 4.3.2
A.
n = 1
Für
ist
A = [a]
und
det A = a.
n = 2
Für
gibt es zwei Permutationen in
S2 ,
nämlich
σ1 = id = (1, 2) ,
Das Vorzeichen von
σ2
ist
−1,
und deshalb folgt
a11
a21
det
Im Fall
n=3
hat
S3
σ2 = (2, 1) .
a12
a22
= a11 a22 − a12 a21 .
sechs Elemente, nämlich
σ1 = id = (1, 2, 3)
σ4 = (1, 3, 2)
σ2 = (2, 3, 1) ,
σ5 = (2, 1, 3) ,
σ3 = (3, 1, 2) ,
σ6 = (3, 2, 1) ,
wobei die ersten bzw. letzten drei Permutationen das Vorzeichen

a11
det  a21
a31
a12
a22
a32
a13
a23 
a33
24
bzw.
−1
haben. Deshalb ist
a11 a22 a33 + a12 a23 a31 + a13 a21 a32
− a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .
=
Diese Formel heiÿt auch Sarrussche Regel. Für
für die Determinante bereits
1

n = 4
enthält die in der Denition stehende Formel
Terme und ist für die Berechnung ungeeignet! Wir werden aber einen
eektiven Algorithmus zur Berechnung der Determinante kennen lernen, und auch für
n=3
werden wir
Determinanten ausschlieÿlich mit diesem Algorithmus berechnen.
Aufgabe 4.3.3
Berechne die Determinante der Matrizen
A =
Aufgabe 4.3.4
1
−1
1
2

1
B =  0
0
,

0 1
−1 1  .
0 2
Nach Denition ist die Determinante eine endliche Summe von Termen, die bis auf ein
Vorzeichen von der Form
a1σ(1) a2σ(2) · . . . · anσ(n)
sind. Zeige, dass dieses Produkt auch in der Form
aσ−1 (1) 1 aσ−1 (2) 2 · . . . · aσ−1 (n) n
geschrieben werden kann. Leite daraus ab, dass in jedem solchen Produkt genau ein Element aus jeder
Zeile, aber auch aus jeder Spalte, von
Aufgabe 4.3.5
A
steht.
Beweise die Formel

a11
det  0
0
a12
a22
0

a13
a23 
a33
= a11 a22 a33
und überlege, ob eine analoge Formel auch für gröÿere Matrizen gilt.
39
Lösung:
n
sei
A
Da
a21 = a31 = a32 = 0 sind, folgt die Behauptung aus der Sarrusschen Regel. Für beliebiges
ajk = 0 ist sobald j > k ist. Das bedeutet, dass in der Denition der Determinante nur
stehen bleiben, für die immer j ≤ σ(j) ist. Dies ist aber nach Aufgabe 4.1.9 nur für die
so, dass
solche Terme
identische Permutation der Fall, und deshalb ist

a11
 0

det  .
 ..
0
a12
a22
...
...
.
.
.
..
0
...

a1n
a2n 


.
.

.
ann
.
= a11 a22 · . . . · ann .
2
Aufgabe 4.3.6
Überprüfe mit Hilfe der Denition folgende Regel für Determinanten: Falls eine Zeile
oder eine Spalte einer quadratischen Matrix
Aufgabe 4.3.7
A
nur Nullen enthält, ist
det A = 0.
Zeige allein mit der Denition der Determinante, dass

a11
 0

det  .
 ..
0
a12
a22
...
...
.
.
.
..
an2
...

a1n
a2n 


.
.

.
ann
.


= a11 det 
a22
...
a2n
.
.
.
..
.
.
.
an2
...
.


 .
ann
4.4 Rechenregeln für Determinanten
a1 , . . . , an ∈ Kn die Spalten einer Matrix A, und wir schreiben
n
n
auch det[a1 , . . . , an ] an Stelle von det A. Dadurch wird det eine Abbildung von K × . . . × K (mit n
n
Faktoren) nach K. Eine solche Abbildung heiÿt auch eine n-stellige Form auf K .
Für die folgenden Rechenregeln seien
Satz 4.4.1 (Rechenregeln für Determinanten)
Für
a, b, a1 , . . . , an ∈ Kn
und
λ, µ ∈ K
gilt:
τ ∈ Sn gilt det[aτ (1) , . . . , aτ (n) ] = − det[a1 , . . . , an ]. In Worten ausgedrückt
heiÿt das: Beim Vertauschen zweier Spalten wechselt die Determinante das Vorzeichen.
(a) Für Transpositionen
(b)
det[λ a + µ b, a2 , . . . , an ] = λ det[a, a2 , . . . , an ] + µ det[b, a2 , . . . , an ]. Diese Eigenschaft besagt in
Worten, dass die Determinante linear in der ersten Spalte ist.
Beweis:
Zu (a): Nach Denition ist
det[aτ (1) , . . . , aτ (n) ]
=
X
sgn (σ)
a1σ(τ (1)) · . . . · anσ(τ (n))
σ∈Sn
= −
X
sgn (σ ◦τ )
a1σ(τ (1)) · . . . · anσ(τ (n)) .
σ∈Sn
Da nach Satz 4.1.8 (b) mit
σ
auch
σ ◦τ
einmal die Gruppe
Sn
durchläuft, folgt die Behauptung. Zu (b):
Folgt direkt aus der Denition der Determinante.
Denition 4.4.2
2
Aussage (b) des vorstehenden Satzes besagt, dass die Determinante linear in der ersten
Spalte ist, und wegen (a) gilt Gleiches für jede andere Spalte. Man sagt kurz dass die Determinante eine
Multilinearform ist. Wegen Satz 4.4.1 (a) nennt man die Determinante auch alternierend.
40
Satz 4.4.3
(a) Falls
Für jedes
A
A ∈ Kn×n
gilt:
eine obere oder untere Dreiecksmatrix ist, dann ist ihre Determinante gleich dem Produkt
ihrer Diagonalelemente.
(b)
det A = det AT ,
Beweis:
det I = 1.
Zu (a): Wurde für obere Dreiecksmatrizen in Aufgabe 4.3.5 bewiesen und folgt für untere aus
(b). Zu (b): Nach Denition der Determinante ist
det AT =
X
sgn (σ)
Y
σ
aσ(j)j =
σ
j
=
X
sgn (σ
−1
)
Y
σ −1
und da nach Satz 4.1.8 (a) mit
σ
X Y
auch
σ −1
sgn (σ)ajσ −1 (j)
j
ajσ−1 (j) ,
j
die Gruppe
Sn
2
durchläuft, folgt die Behauptung.
Wegen ihrer Wichtigkeit formulieren wir noch einmal folgende Regeln für Determinanten, die sich sofort
aus Satz 4.4.1 ergeben:
Korollar zu Satz 4.4.1
(a) Wenn
B
aus
A
Für jedes
A ∈ Kn×n
gilt:
durch Vertauschen zweier Spalten entsteht, so ist
(b) Entsteht
B
aus
A
(c) Entsteht
B
aus
A,
det B = − det A.
durch Multiplikation einer Spalte mit einem Faktor
λ ∈ C,
so ist
det B = λ det A.
indem man ein Vielfaches einer Spalte zu einer anderen adddiert, so ist
det B =
det A.
Wegen Satz 4.4.3 (b) gelten die Regeln (a) (c) auch für die Zeilen an Stelle der Spalten von
Aufgabe 4.4.4
A.
Zeige: Wenn eine quadratische Matrix zwei gleiche Zeilen oder zwei gleiche Spalten ent-
hält, dann ist ihre Determinante gleich
0.
Bemerkung 4.4.5 (Berechnung einer Determinante)
Mit Hilfe der obigen Rechenregeln kann man
auch gröÿere Determinanten relativ leicht berechnen. Dabei benutzt man folgenden Algorithmus, welcher
wie beim Lösen von linearen Gleichungssystemen abläuft und wieder als Gauÿsches Eliminationsverfahren
A
bezeichnet wird: Falls die erste Spalte von
Spalte der Matrix
j=1
A
ein Element
aj1 6= 0
nur Nullen enthält, ist
und vertausche die
j -te
det A = 0. Sonst suche in der ersten
A mit der ersten, auÿer falls
Zeile von
ist. Danach ziehe Vielfache der ersten Zeile von allen anderen ab, so dass alle anderen Elemente
der ersten Spalte durch Nullen ersetzt werden. Durch diese Schritte wird aus

B =
und für diesen Fall gilt
det A = det B
b11
 0

 ..
 .
0
b12
b22
b13
b23
.
.
.
.
.
.
bn2
bn3
A
eine Matrix
B
der Form

...
...
b1n
b2n 

.  ,
. 
.
bnn
...
falls wir keine Zeilen vertauschen mussten bzw.
det A = − det B
sonst. Wegen Aufgabe 4.3.7 gilt


det B = b11 det 
b22
...
b2n
.
.
.
..
.
.
.
bn2
...
.
Das bedeutet, dass wir die Berechnung der Determinante von


 .
bnn
A
auf die Berechnung einer Determinante
einer kleineren Matrix zurückgeführt haben! Diese Determinante kann wieder nach dem gleichen Schema
berechnet werden.
41
Aufgabe 4.4.6
Berechne die Determinante der Matrix

A =
Bemerkung 4.4.7

0
1 0
1
2 0 
 .
−1
0 1 
1 −1 0
0
 1

 2
−1
In dem oben eingeführten Verfahren zur Berechnung einer Determinante kann man
auch die entsprechenden Operationen für Spalten verwenden, wenn dies vorteilhaft erscheint. Auÿerdem
folgt aus der Denition, dass die Determinante eine ganze Zahl ist, falls die Elemente der Matrix ganzzahlig sind. Dies kann zur Kontrolle der Rechnung genutzt werden.
Aufgabe 4.4.8 (Determinanten mit MAPLE)
Führe die folgenden MAPLE-Kommandos aus:
> restart;
> with(LinearAlgebra);
> A := Matrix(5, 5, [ [1, 0, 0, 1, -1], [1, 1, -1, 2, 0], [2, -1, -1, 0, 0], [-1 ,1, 0, 2, 1], [-1, 2, 3, 1, 0] ]);
> Determinant(A);
> B := Matrix(2,2, [[a,b], [c,d]]);
> Determinant(B);
> C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]);
> Determinant(C);
Verwende ähnliche Sequenzen zur Berechnung der Determinante der Matrix aus der vorangegangenen
Aufgabe.
4.5 Weitere Eigenschaften von Determinanten
Die wichtigste Anwendung der Determinante besteht in folgender Charakterisierung der Invertierbarkeit
von Matrizen:
Proposition 4.5.1
Beweis:
Eine Matrix
A ∈ Kn×n
det A 6= 0
Elementare Zeilen- und Spaltentransformationen verändern den Rang von
die Determinante sich höchstens um von
kann man
ist genau dann invertierbar, wenn
A
0
A
ist.
nicht, während
verschiedene Faktoren ändert. Mit diesen Transformationen
auf obere Dreiecksgestalt bringen, und eine Dreiecksmatrix
dann invertierbar, wenn alle Diagonalelemente von
0
Satz 4.5.2 (Determinantenmultiplikationssatz)
ist nach Aufgabe 3.3.4 genau
Für zwei quadratische
gilt immer
det(A B) = det A det B .
42
A
verschieden sind. Daraus folgt die Behauptung.
n-reihige
Matrizen
A
und
2
B
Beweis:
< n, ist, folgt rang (A B) < n, und deshalb folgt mit der
det(A B) = det B = 0 ist. Also gilt die Behauptung in diesem Fall. Falls
B invertierbar ist, folgt aus Aufgabe 2.8.3, dass B ein Produkt von endlich vielen Elementarmatrizen ist.
Daher genügt es, einen Beweis für den Fall zu geben, dass B selber eine Elementarmatrix ist; der allgemeine Fall folgt dann durch Induktion. Für eine Elementarmatrix B überprüft man aber die Behauptung
mit den Rechenregeln für Determinanten.
2
Falls
B
nicht invertierbar, also rang B
vorstehenden Proposition dass
Aufgabe 4.5.3
Zeige für jede invertierbare Matrix
Lemma 4.5.4 (Dreieckig geblockte Matrizen)
und
A12
vom Typ
n1 × n2 .
die Regel
Seien
A11
det A−1 = (det A)−1 .
n1 × n1 , A22
vom Typ
A11
0
A12
A22
n2 × n2
=
det A11 det A22
Durch elementare Zeilentransformationen, angewandt auf
Matrix so umgeformt werden, dass
A11
und
A22
[A11 , A12 ]
und
A22 ,
kann die linke
obere Dreiecksgestalt haben, ohne dass die Blockdrei-
ecksform der Gesamtmatrix verändert wird. Daraus folgt die Behauptung.
Aufgabe 4.5.5
vom Typ
Dann gilt
det
Beweis:
A
2
Formuliere selber Verallgemeinerungen von obigem Lemma auf den Fall von oberen
Blockdreiecksmatrizen mit mehr als zwei Diagonalblöcken, und beweise diese Aussagen mit Induktion.
Was kann man für untere Blockdreiecksmatrizen sagen?
Behauptung 4.5.6 (Vandermondesche Determinante)
Für alle
λ1 , . . . , λ n ∈ K
gilt die Gleichung:




det 


1
λ1
λ21
1
λ2
λ22
λn−1
1
λn−1
2
.
.
.
...
...
...
.
.
.
1
λn
λ2n
.
.
.
...







Y
=
λk − λj .
1≤j<k≤n
λn−1
n
Insbesondere heiÿt das, dass die linksstehende Matrix, auch Vandermondesche Matrix genannt, genau
dann invertierbar ist, wenn alle
λj
verschieden sind. Vergleiche diese Art von Matrix auch mit Aufga-
be 2.2.4.
Beweis:
λj gleich sind, hat die linksstehende Matrix zwei gleiche Spalten, und deshalb ist
0. Also gilt die Gleichung für diesen Fall, und wir können jetzt annehmen dass
alle λj verschieden sind, also höchstens ein λj = 0 ist. Auÿerdem erkennt man, dass die Gleichung bei
Vertauschen von Spalten der Matrix, also Umnumerierung der λj , richtig bleibt, und deshalb können wir
sogar annehmen, dass λj 6= 0 für j = 2, . . . , n gilt. Ersetzt man jetzt λ1 durch eine Variable t, so erkennt
man aus der Denition der Determinante, dass die Vandermondesche Determinante ein Polynom p(t)
vom Grade n − 1 ist, welches nach der Vorüberlegung die Werte λ2 , . . . , λn als Nullstellen hat. Deshalb
Falls zwei der
ihre Determinante gleich
folgt durch Abdividieren dieser Nullstellen
p(t) = c (λ2 − t) · . . . · (λn − t)
mit
c ∈ K \ {0}.
Für
t=0
ergibt sich durch Anwenden von Lemma 4.5.4

c λ2 · . . . · λn
λ2
 λ22

= det  .
 ..
λ2n−1
43
...
...
λn
λ2n
.
.
.
...
λn−1
n



 .

Durch Teilen der
folgt, dass
c
(j −1)-ten Spalte der rechtsstehenden Matrix durch den Faktor λj (6= 0) für j = 2, . . . , n
n − 1 Skalare λ2 , . . . , λn ist, und
über n folgt deshalb die Behauptung.
2
gleich dem Wert der Vandermondeschen Deteminante der
durch Induktion
Aufgabe 4.5.7 (Vandermonde-Matrizen und MAPLE)
Führe folgende MAPLE-Befehle aus:
> restart;
> with(LinearAlgebra);
> A := VandermondeMatrix([1,2,3,4]);
> Determinant(A);
> B := VandermondeMatrix([a,b,c,d]);
> det := Determinant(B);
> factor(det);
Vergleiche mit der obigen Behauptung. Wo liegt hier eine kleine Schwäche von MAPLE?
4.6 Entwicklungssätze
Denition 4.6.1
die aus
A
ein Minor von
A.
Aufgabe 4.6.2
ment
Ajk
n ≥ 2, und sei A eine n-reihige quadratische Matrix. Die Determinante der Matrix,
j -ten Zeile und der k -ten Spalte entsteht, wird mit djk bezeichnet und heiÿt
j+k
Zahl Ajk = (−1)
djk heiÿt dann das algebraische Komplement zu ajk .
Die
Zeige durch geeignetes Vertauschen von Zeilen und Spalten: Das algebraische Komple-
ist die Determinante derjenigen Matrix, welche man durch Ersetzen der
durch den
j -ten
Satz 4.6.3
(a)
Sei
durch Streichen der
n
X
k -ten
Spalte von
A
kanonischen Basisvektor enthält. Wie heiÿt die entsprechende Aussage für Zeilen?
Für jedes
A = [ajk ] ∈ Kn×n
gilt
A`k a`j = δjk det A
für
1 ≤ j, k ≤ n.
aj` Ak` = δjk det A
für
1 ≤ j, k ≤ n.
`=1
(b)
n
X
`=1
Beweis:
Benutzt man die Linearität der Determinante in jeder ihrer Spalten sowie Aufgabe 4.6.2, so sieht
man dass
die
j -te
Pn
`=1
A`k a`j
die Determinante der Matrix ist, die man aus
Spalte erhält. Ist
verschwindet; ist
j = k,
j 6= k ,
A
durch Ersetzen der
k -ten
durch
so enthält diese Matrix zwei gleiche Spalten und ihre Determinante
so ist diese Matrix gleich
A.
Also gilt (a). Aussage (b) wird genauso durch
Betrachten der Zeilen, oder aber durch Transposition bewiesen.
2
Die folgenden beiden Ergebnisse sind direkte Konsequenzen bzw. Umformulierungen des letzten Satzes:
44
Korollar zu Satz 4.6.3
Falls
det A 6= 0,
A−1 =
A invertierbar ist, gilt

A11 A21 . . . An1
 A12 A22 . . . An2

 ..
.
.
.
.
 .
.
.
A1n A2n . . . Ann
also
1
det A



 .

Mit anderen Worten: Die Matrix aus den algebraischen Komplementen von
nierten der inversen Matrix multipliziert mit
A
ist gleich dem Transpo-
det A.
Korollar zu Satz 4.6.3 (Entwicklungssatz nach einer Zeile bzw. Spalte) Sei A eine quadratische
n-reihige
Matrix mit
n ≥ 2,
und sei ein
det A =
n
X
k ∈ {1, . . . , n}
ausgewählt. Dann gelten die Gleichungen
(−1)j+k ajk djk
=
j=1
Bemerkung 4.6.4
n
X
(−1)j+k akj dkj .
j=1
Wir haben nur Minoren der Gröÿe
(n − 1) × (n − 1)
betrachtet. Wenn man mehrere
Zeilen und Spalten einer Matrix streicht und dann die Determinante der Restmatrix bildet, so erhält
man die übrigen Minoren niedrigerer Gröÿe. Auch für solche gibt es einen Entwicklungssatz für die
Determinante, den man z. B. bei Gawronski [2] nachlesen kann.
Aufgabe 4.6.5
Berechne mit Hilfe des Entwicklungssatzes die Determinante von



A = 


Aufgabe 4.6.6 (Cramersche Regel)
und sei
det A 6= 0.
Sei
−1
0
0
1
1
A
1
0
0
1
1
0 0
1
−1 0
0
3 0
4
0 1
0
1 0 −1
xk
xk =
dieses Vektors
x


 .


n-reihige Matrix mit den Spalten ak ,
A x = b für jedes b ∈ Kn eindeutig lösbar.
eine quadratische
Dann ist das lineare Gleichungssystem
Zeige: Die Koordinaten

sind gegeben durch
1
det[a1 , . . . , ak−1 , b, ak+1 , . . . , an ]
det A
45
∀ k = 1, . . . , n .
Kapitel 5
Euklidische und unitäre Räume
5.1 Denition des Skalarprodukts
Denition 5.1.1
Sei
V
ein Vektorraum über
K.
Eine Abbildung
h · , · i : V × V −→ K ,
heiÿt ein Skalarprodukt oder inneres Produkt auf
(S1)
∀v∈V :
hv, vi ≥ 0 ;
(S2)
∀ v1 , v2 ∈ V :
(S3)
∀ v, v1 , v2 ∈ V :
(S4)
∀ v1 , v2 ∈ V, λ ∈ K :
(v1 , v2 ) 7−→ hv1 , v2 i ∈ K
V,
wenn folgende Regeln gelten:
hv, vi = 0 ⇐⇒ v = 0
hv1 , v2 i = hv2 , v1 i
.
hv, v1 + v2 i = hv, v1 i + hv, v2 i
hv1 , λ v2 i = λ hv1 , v2 i
Falls ein solches Skalarprodukt auf
V
.
.
.
gegeben ist, nennt man
V
im Falle von
K = R
auch euklidi-
schen Raum, im anderen Fall einen unitären Raum. In beiden Fällen spricht man auch von einem PräHilbertraum oder einem Raum mit Skalarprodukt.
Bemerkung 5.1.2
Aus den Axiomen folgt sofort die weitere Regel
∀ v1 , v2 ∈ V, λ ∈ K :
hλ v1 , v2 i = λ hv1 , v2 i .
Im Fall
K=R
ist ein Skalarprodukt immer eine reelle Zahl, und dann bedeutet (S2) einfach
hv2 , v1 i
für alle
v1 , v2 ∈ V .
Beispiel 5.1.3
hv1 , v2 i =
V = {0} ist die Nullabbildung ein inneres Produkt. Falls V igendein
U von V wieder ein Raum mit Skalarprodukt, wenn
T
man einfach die Restriktion des Skalarproduktes auf U ×U betrachtet. Für Vektoren x = (x1 , . . . , xn ) , y =
T
n
(y1 , . . . , yn ) ∈ R ist
n
X
hx, yi =
xk yk = xT y
Auf dem Vektorraum
Raum mit Skalarprodukt ist, so ist jeder Unterraum
k=1
ein inneres Produkt, das sogenannte kanonische Skalarprodukt in
hx, yi =
n
X
xk yk = xT y
k=1
46
Rn .
In
Cn
ist
das entsprechende kanonische innere Produkt. Wenn nichts anderes gesagt ist, betrachten wir in
Folgenden immer dieses kanonische Skalarprodukt. Für zwei Funktionen
inneres Produkt durch
f, g ∈ C[a, b]
Kn
im
ist ein kanonisches
b
Z
hf, gi =
f (x) g(x) dx
a
gegeben, wobei der Querstrich wegfallen kann, falls die Werte der Funktionen reell sind. Häug gebraucht
werden aber auch gewichtete innere Produkte von Funktionen. Dabei ist eine feste Gewichtsfunktion
gegeben, die bis auf endlich viele Punkte positiv und stetig auf
Z
[a, b]
k
ist, und man setzt
b
hf, gi =
f (x) g(x) k(x) dx .
a
[a, b] integrierbaren Funktionen erhält
hf, f i = 0 sein kann ohne dass f (x) = 0
Auf der Menge der über
man durch die obigen Festsetzungen keine
inneren Produkte, da
ist für alle
Aufgabe 5.1.4
Sei
Aufgabe 5.1.5
Für
V
ein Vektorraum mit innerem Produkt. Zeige
A ∈ Kn×n
das kanonische Skalarprodukt in
gelten, und gib ein Beispiel für
Aufgabe 5.1.6
f (j) 6= 0
Sei
J
hx, yiA = xT A y
sei
K
A,
n
gesetzt, für alle
x ∈ [a, b].
h0, vi = hv, 0i = 0
x, y ∈ Kn .
Für
für alle
A=I
v ∈V.
ist also
hx, yiA
A
. Überprüfe, welche der Regeln für ein inneres Produkt für jedes
für welches nicht alle Regeln erfüllt sind.
eine nicht-leere Menge, und sei
j ∈ J.
höchstens für endlich viele
Zeige, dass
hf, gi =
X
KJ die Menge aller Abbildungen f von J in K mit
KJ ein Vektorraum über K ist, und dass durch
f (j) g(j)
j∈J
ein inneres Produkt auf
Satz 5.1.7
Sei
V
KJ
deniert wird.
ein Raum über
K
mit einer Basis
hv1 , v2 iJ =
(vj , j ∈ J),
X
(1)
und sei für
vk =
(k)
P
j∈J
αj vj
(2)
αj αj .
j∈J
Dann ist
Beweis:
h · , · iJ
ein inneres Produkt auf
W.
2
Kann einfach mit der Denition des inneren Produktes nachgeprüft werden!
Aufgabe 5.1.8
Zeige, dass man in jedem endlich-dimensionalen Vektorraum ein inneres Produkt de-
nieren kann.
5.2 Die Norm eines Vektors
Im Folgenden sei
V
Denition 5.2.1
immer ein Raum mit Skalarprodukt.
Für jedes
v∈V
heiÿt
kvk =
die Norm oder Länge von
v.
Für
v1 , v2 ∈ V
heiÿt
p
hv, vi
kv1 − v2 k
47
auch Abstand zwischen
v1
und
v2 .
Aufgabe 5.2.2
(a) Falls
(b) Falls
Zeige für beliebige
K=R
ist, gilt
K=C
ist, gilt
v1 , v2 ∈ V :
hv1 , v2 i = k(v1 + v2 )/2k2 − k(v1 − v2 )/2k2 .
hv1 , v2 i = k(v1 + v2 )/2k2 − k(v1 − v2 )/2k2
+ i k(v1 + i v2 )/2k2 − i k(v1 − i v2 )/2k2 .
Satz 5.2.3 (Cauchy-Schwarzsche Ungleichung)
Für v1 , v2 ∈ V
hv1 , v2 i ≤ kv1 k kv2 k ,
v1
und das Gleichheitszeichen gilt genau dann, wenn
und
v2
gilt immer
linear abhängig sind.
Beweis:
Für v2 = 0 ist die Behauptung korrekt, da nach Aufgabe 5.1.4 hv, 0i = 0 ist für alle v ∈ V .
v2 6= 0. Falls v1 , v2 linear abhängig sind, muss v1 = α v2 für ein α ∈ K gelten, und dann
2
folgt |hv1 , v2 i| = |α hv2 , v2 i| = |α| kv2 k , kv1 k = |α| kv2 k, und deshalb gilt die Ungleichung mit dem
Gleichheitszeichen. Falls die Vektoren linear unabhängig sind, ist v1 − λ v2 6= 0 für alle λ ∈ K. Dann folgt
mit den Regeln eines Skalarproduktes 0 < hv1 −λ v2 , v1 −λ v2 i = hv1 , v1 i−λ hv1 , v2 i−λ hv2 , v1 i+λ λ hv2 , v2 i.
2
Wählt man speziell λ = hv2 , v1 i/kv2 k , so folgt hieraus
Sei jetzt
0 < kv1 k2 − 2
|hv1 , v2 i|2
|hv1 , v2 i|2
|hv1 , v2 i|2
+
kv2 k2 = kv1 k2 −
,
2
4
kv2 k
kv2 k
kv2 k2
2
woraus die behauptete Ungleichung mit dem < -Zeichen folgt.
Korollar zu Satz 5.2.3 (Eigenschaften der Norm) Für die Abbildung v 7−→ kvk gilt immer
(N1)
∀v∈V :
kvk ≥ 0 ,
(N2)
∀v∈V , λ∈K:
(N3)
∀ v1 , v2 ∈ V :
kvk = 0 ⇐⇒ v = 0
(Denitheit)
kλ vk = |λ| kvk
(Homogenität)
kv1 + v2 k ≤ kv1 k + kv2 k
(Dreiecksungleichung)
Beweis:
2
Aus obigem Satz und den Rechenregeln für ein Skalarprodukt folgt kv1 + v2 k = hv1 + v2 , v1 +
v2 i = hv1 , v1 i + hv1 , v2 i + hv2 , v1 i + hv2 , v2 i ≤ kv1 k2 + 2 kv1 k kv2 k + kv2 k2 = (kv1 k + kv2 k)2 , und das ist die
Dreiecksungleichung. Die anderen beiden Behauptungen folgen unmittelbar aus den Eigenschaften eines
2
Skalarproduktes.
Aufgabe 5.2.4
Benutze die Cauchy-Schwarzsche Ungleichung bzw. die Dreiecksungleichung, um folgen-
des zu beweisen: Für alle
a1 , . . . , an , b1 , . . . , bn ∈ C
n
n
X
X
aj bj ≤
|aj bj | ≤
j=1
n
X
j=1
gilt immer
n
X
j=1
|aj + bj |
2
1/2
|aj |2
n
1/2 X
j=1
≤
n
X
j=1
48
|aj |
2
|bj |2
1/2
j=1
1/2
+
n
X
j=1
|bj |2
1/2
.
,
Aufgabe 5.2.5
Mit `2 bezeichnet man die Menge aller komplexen Zahlenfolgen a = (a1 , a2 , a3 , . . .) mit
P∞
2
der Eigenschaft, dass die Reihe
j=1 |aj | konvergiert. Benutze die Ungleichungen aus der vorangegangenen Aufgabe, um zu zeigen:
(a)
`2
ist ein Vektorraum über
(b) Deniert man für Folgen
C.
a = (a1 , a2 , a3 , . . .), b = (b1 , b2 , b3 , , . . . , ) ∈ `2
ha, bi =
∞
X
aj bj ,
j=1
so ist die Reihe immer absolut konvergent, und
Der Raum
`2
h·, ·i
ek ,
welche an der
k -ten
Cn
ange-
1 und an den übrigen lauter Nullen stehen
Cn . Finde heraus, warum diese Folgen keine
Stelle eine
haben, entsprechen den Vektoren der kanonischen Basis von
`2
`2 .
ist unendlich-dimensional und kann als natürliche Verallgemeinerung der Räume
sehen werden. Die Folgen
Basis von
ist ein Skalarprodukt auf
bilden.
Denition 5.2.6
V ein Vektorraum über K. Eine beliebige Abbildung k · k : V −→ R heiÿt immer
V , wenn die drei Axiome (N1) (N3) erfüllt sind. Wenn auf V eine solche Norm
gegeben ist, nennt man V auch normierten Raum. Ein Raum mit Skalarprodukt ist also immer auch ein
normierter Raum, aber nicht unbedingt umgekehrt, denn auf V kann eine Norm gegeben sein, welche
Sei
dann eine Norm auf
nicht von einem Skalarprodukt herrührt.
5.3 Orthogonalität und Winkel
Denition 5.3.1
Zwei Vektoren v1 , v2 in einem Raum über K mit Skalarprodukt V heiÿen orthogonal,
hv1 , v2 i = 0 ist. Zwei nicht-leere Teilmengen A, B ⊂ V heiÿen zueinander orthogonal, falls jeder
⊥
Vektor aus A zu jedem aus B orthogonal ist. Ist A ⊂ V nicht-leer, so heiÿt die Menge A aller Vektoren
aus V , welche zu allen Vektoren aus A orthogonal sind, das orthogonale Komplement von A. In anderen
⊥
⊥
Worten: A ist die gröÿte Teilmenge von V , so dass A und A zueinander orthogonal sind. Falls K = R,
also das Skalarprodukt von Vektoren immer reell ist, gibt es zu v1 , v2 ∈ V \ {0} genau einen Winkel
ϕ ∈ [0, π] mit
hv1 , v2 i
,
cos ϕ =
kv1 k kv2 k
und wir nennen dieses ϕ den Winkel zwischen v1 und v2 . Oenbar sind die Vektoren genau dann orthogo2
3
nal, wenn der Winkel zwischen ihnen gleich π/2 ist. Falls V = R oder = R ist, stimmt diese Denition
falls
eines Winkels mit der Anschauung überein, was aber hier keine Rolle spielt. Beachte jedenfalls, dass für
K=C
zwar kein Winkel zwischen zwei Vektoren deniert ist, dass aber der Begri der Orthogonalität
trotzdem sinnvoll ist.
Satz 5.3.2
⊥
Sei
V
ein Raum über
(a)
A
(b)
(A⊥ )⊥ ⊃ A.
(c)
L(A) ∩ A⊥ = {0}.
Beweis:
ist ein Unterraum von
Zu (a): Es ist immer
K
mit Skalarprodukt, und sei
A⊂V
nicht leer. Dann gilt:
V.
0 ∈ A⊥ ,
also ist
A⊥ 6= ∅.
Weiter folgt aus den Rechenregeln für das
⊥
A erfüllt sind. Teil (b) ist klar nach
PmDenition von A .
Zu (c): Sei u ∈ L(A), dann gibt es u1 , . . . , um ∈ A und α1 , . . . , αm ∈ K mit u =
j=1 αj uj . Also folgt
Pm
⊥
⊥
für v ∈ A , dass hv, ui =
j=1 αj hv, uj i = 0 ist, weil v zu allen uj orthogonal ist. Wenn u auch zu A
gehört, können wir v = u wählen und erhalten hu, ui = 0, also u = 0.
2
Skalarprodukt, dass die Unterraumaxiome für
⊥
49
Aufgabe 5.3.3 (Orthogonalität und MAPLE)
Finde diejenigen MAPLE-Kommandos im Paket LiKn zu tun haben.
nearAlgebra, welche etwas mit Winkel, Norm und/oder Orthogonalität in
5.4 Orthogonalsysteme
Denition 5.4.1
Ein System
(vj , j ∈ J)
von Vektoren in einem Raum
V
über
K
mit Skalarprodukt heiÿt
ein Orthogonalsystem, falls keiner der Vektoren der Nullvektor ist, und wenn
∀ j, k ∈ J : hvj , vk i = 0
falls
j 6= k .
kvj k = 1 für alle j ∈ J , dann sprechen wir von einem Orthonormalsystem. Beachte,
dass das leere System immer ein Orthonormalsystem ist. Falls (vj , j ∈ J) zusätzlich noch eine Basis von
V sind, sprechen wir von einer Orthogonalbasis bzw. einer Orthonormalbasis von V .
Falls zusätzlich gilt
Beispiel 5.4.2
Kn
In
ist die kanonische Basis eine Orthonormalbasis. Der Vektorraum
ebenfalls eine Orthonormalbasis, nämlich das leere System. In
`2
sind die Folgen
malsystem, aber keine Basis; vergleiche hierzu Aufgabe 5.2.5. Allgemein sind in
die Funktionen
fk
Aufgabe 5.4.3
mit
Sei
V
fk (j) = δkj
j, k ∈ J
für
ein Raum über
K
Ein Orthogonalsystem
Orthonormalsystem ist, und falls
v=
KJ
V = {0}
besitzt
zwar ein Orthonor-
wie in Aufgabe 5.1.6
eine Orthonormalbasis.
(vj , j ∈ J), und sei in V ein inneres Produkt
eine Orthonormalbasis ist.
mit einer Basis
wie in Satz 5.1.7 eingeführt. Zeige, dass dann
Lemma 5.4.4
ek
(vj , j ∈ J)
(vj , j ∈ J) ist immer linear unabhängig. Falls (vj , j ∈ J) sogar ein
P
j∈J αj vj ist, wobei nur endlich viele αj von 0 verschieden sind,
so folgt
kvk2 =
X
|αj |2 .
(5.4.1)
j∈J
Beweis:
λν kvjν k2
Pn
Pn
Pn
j1 , . . . , jn ∈ J . Aus 0 = k=1 λk vjk folgt 0 = hvjν , k=1 λk vjk i = k=1 λk hvjν , vjk i =
jedes ν = 1, . . . , n, und da vjν 6= 0 ist, folgt hieraus λν = 0. Das ist die lineare Unabhängig-
Seien
für
keit. Mit den Regeln für das Skalarprodukt folgt weiter
kvk2 =
X X
αj αk hvj , vk i ,
j∈J k∈J
und wegen
hvj , vk i = δjk
2
folgt daraus (5.4.1).
Satz 5.4.5 (Gram-Schmidtsches Orthogonalisierungsverfahren)
Sei
V
K mit Skalarprodukt, sei (w1 , . . . , wn ) ein linear unabhängiges
(v1 , . . . , vn ) durch folgende Rekursionsgleichungen deniert:
ein Raum über
sei das System
ṽk = wk −
k−1
X
hvj , wk i vj ,
vk =
j=1
wobei für
k=1
die leere Summe wie üblich als
0
1
ṽk ,
kṽk k
zu interpretieren ist. Dann ist
50
V,
und
1 ≤ k ≤ n,
normalsystem, und
L(v1 , . . . , vk ) = L(w1 , . . . , wk )
System in
∀ k = 1, . . . , n .
(v1 , . . . , vn )
ein Ortho-
Beweis:
Wir zeigen per Induktion, dass das System (v1 , , . . . , vk ) immer ein Orthonormalsystem ist, und
L(v1 , . . . , vk ) = L(w1 , . . . , wk ) gilt für alle k = 1, . . . , n. Dies ist sicher richtig für k = 1, und wenn
für irgendein k ≥ 1 stimmt, dann folgt für alle ν = 1, . . . , k :
dass
es
hvν , ṽk+1 i = hvν , wk+1 i −
k
X
hvj , wk+1 i hvν , vj i = 0 ,
j=1
hvν , vj i = δνj . Also ist (v1 , . . . , vk+1 ) ein Orthonormalsystem und somit linear unabhängig. Auvk+1 ∈ L(w1 , . . . , wk+1 ), und daher folgt L(v1 , . . . , vk+1 ) ⊂ L(w1 , . . . , wk+1 ). Da aber die
Dimensionen der linearen Hüllen beide gleich k + 1 sind, folgt sogar die Gleichheit.
2
denn
ÿerdem gilt
Aufgabe 5.4.6
Orthogonalisiere die Vektoren


1
w1 =  1  ,
1


1
w2 =  0  ,
1
Das heiÿt genauer: Berechne die drei Vektoren
v1 , v2 , v3
Aufgabe 5.4.7 (Orthogonalisieren mit MAPLE)
um Vektoren in
Kn

1
w3 =  1  .
0
aus dem obigen Satz.
Verwende den MAPLE-Befehl > GramSchmidt,
zu orthogonalisieren.
Aufgabe 5.4.8
Sei
reellen Vektoren
uj
u∈U

U
Cn ,
und sei (u1 , . . . , um ) eine Basis von U , welche nur aus
besteht; eine solche Basis existiert nach Aufgabe 1.7.2, falls mit jedem u ∈ U auch
ein Unterraum von
ist. Schlieÿe mit dem Gram-Schmidtschen Orthogonalisierungsverfahren, dass es dann sogar eine
Orthonormalbasis von
Bemerkung 5.4.9
U
gibt, welche nur aus reellen Vektoren
uj
besteht.
Das Gram-Schmidtsche Orthogonalisierungsverfahren kann nicht nur auf endlich vie-
(wj , j ∈ N) angewandt werden.
L(v1 , . . . , vk ) = L(w1 , . . . , wk ) für alle
le, sondern auch auf eine Folge, also abzählbar unendlich viele, Vektoren
Man erhält dann wieder eine Folge
k ∈ N.
(vj , j ∈ N)
mit der Eigenschaft
Wenn man das Orthogonalisierungsverfahren anwendet, muss man auch nicht unbedingt wissen,
ob die zu orthogonalisierenden Vektoren linear unabhängig sind: Genau dann, wenn im
Vektor
ṽk
wk von den vorhergehenden
Vektor wk verkürzen.
der Nullvektor ist, war
man das System um diesen
Korollar zu Satz 5.4.5
k -ten
Schritt der
Vektoren linear abhängig, und dann kann
Ein endlich-dimensionaler Raum mit Skalarprodukt
V
besitzt immer eine
Orthonormalbasis.
Beweis:
Falls V = {0} ist, ist das leere System Orthonormalbasis. Sonst sei (w1 , . . . , wn ) eine BaV . Mit Satz 5.4.5 erhält man dann ein Orthonormalsystem (v1 , . . . , vn ) mit L(v1 , . . . , vn ) =
L(w1 , . . . , wn ) = V , und das war zu zeigen.
2
sis von
Aufgabe 5.4.10 (Orthogonalpolynome) Betrachte irgendein Skalarprodukt auf dem Raum C[t] aller
(pj , j ∈ N0 ) von Polynomen,
hat, und diese Polynome sind bis auf einen konstanten Faktor eindeutig bestimmt.
Polynome mit komplexen Koezienten. Zeige: Es gibt ein Orthogonalsystem
wobei
pj
den Grad
j
Überprüfe für das Skalarprodukt
Z
1
hp, qi =
p(t) q(t) dt ,
−1
dass diese zugehörigen Orthogonalpolynome die Darstellung
pj (t) =
1 dj 2
(t − 1)j
2j j! dtj
51
∀ j ∈ N0
haben. Diese Orthogonalpolynome heiÿen auch Legendresche Polynome. Es gibt viele andere wichtige
Beispiele von Orthogonalpolynomen für andere innere Produkte auf
C[t],
die in der Physik und/oder
Technik eine wichtige Rolle spielen.
5.5 Beste Approximation, orthogonale Projektion und Fourierkoezienten
Denition 5.5.1
zu
v∈V
Sei
einen Vektor
V ein Raum
u0 ∈ U gibt,
über
K
mit Skalarprodukt, und sei
U
ein Unterraum von
V.
Falls es
für welchen
kv − u0 k ≤ kv − uk
∀u∈U,
dann heiÿt u0 beste Approximation für V in dem Unterraum U . Falls es zu v ∈ V einen Vektor u0 ∈ U
⊥
gibt, für welchen v − u0 ∈ U
ist, dann nennen wir u0 orthogonale Projektion von v auf den Unterraum
U.
U
Wir werden beweisen, dass für endlich-dimensionales
sowohl eine orthogonale Projektion als auch
eine beste Approximation existieren und sogar übereinstimmen.
Satz 5.5.2 (Beste Approximation)
V ein
v ∈V:
Sei
(a) Für
Raum mit Skalarprodukt, und seien
α1 , . . . , αn ∈ K
ist
kv −
Pn
k=1
αk =
v1 , . . . , v n
αk vk k
ein Orthogonalsystem in
V.
Dann gilt für jedes
genau dann minimal, wenn
hvk , vi
hvk , vi
=
hvk , vk i
kvk k2
∀ k = 1, . . . , n .
(5.5.1)
(b) Es gilt die Besselsche Ungleichung
n
X
|hvk , vi|2
≤ kvk2 .
kvk k2
(5.5.2)
k=1
(c) Genau dann gilt die Parsevalsche Gleichung
n
X
|hvk , vi|2
= kvk2 ,
kvk k2
(5.5.3)
k=1
wenn
v ∈ L(v1 , . . . , vn )
ist, und dann ist
v =
n
X
hvk , vi
k=1
Beweis:
kvk k2
vk .
Es folgt mit den Regeln eines Skalarproduktes:
0 ≤
kv −
n
X
αk vk k2 = kvk2 −
k=1
n
X
αk hv, vk i −
k=1
+
n
X
αk hvk , vi
k=1
n X
n
X
αj αk hvj , vk i
j=1 k=1
=
kvk2 −
n
X
|hvk , vi|2 /kvk k2 +
k=1
n 2
X
αk kvk k − hvk , vi/kvk k .
k=1
52
αk = hvk , vi/kvkP
k2 für k = 1, . . . , n, so folgt (b). Falls
n
2
v ∈ L(v1 , . . . , vn ) ist, gibt es α1 , . . . , αn derart, dass 0 = kv −
k=1 αk vk k ist, und dann folgt aus (a)
2
und (b), dass αk = hvk , vi/kvk k für k = 1, . . . , n gilt. Also muss die Parsevalsche Gleichung gelten. Falls
Daraus liest man (a) ab. Setzt man speziell
umgekehrt die Parsevalsche Gleichung gilt, folgt wegen
n
n
X
X
hvk , vi 2
2
v
=
kvk
−
|hvk , vi|2 /kvk k2 = 0
v −
k
kvk k2
k=1
k=1
dass
v ∈ L(v1 , . . . , vn )
2
ist.
Aufgabe 5.5.3 (Orthogonale Projektion mit MAPLE)
Finde selber heraus, was die folgenden Be-
fehle mit der Berechnung der besten Approximation zu tun haben:
> restart;
> with(LinearAlgebra);
> A := Matrix(3, 2, [[1,1],[1,1],[-1, 0]]);
> a := Vector([1, 2, 3]);
> x := LeastSquares(A,a);
Denition 5.5.4
Für ein
v∈V
Sei (vj , j ∈ J) ein beliebiges Orthogonalsystem in einem Raum mit Skalarprodukt
nennt man die Zahlen
hvj , vi
∀j∈J
kvj k2
die Fourierkoezienten von
v
bzgl. des Orthogonalsystems
Korollar zu Satz 5.5.2 (Orthogonale Projektion)
ein endlich-dimensionaler Unterraum von
(a)
V.
V.
(vj , j ∈ J).
Sei
V
ein Raum mit Skalarprodukt, und sei
U
in
U
gleich der orthogonalen Projektion von
v
Dann gilt:
V = U ⊕ U ⊥.
(b) Für jedes
auf
(c) Ist
v∈V
ist die beste Approximation von
u1 , . . . , un
U,
eine Orthogonalbasis von
so ist
u =
n
X
huk , vi
k=1
die orthogonale Projektion von
Beweis:
v
U.
Sei
j = 1, . . . , n.
v ∈ V
Daher ist
v
auf
kuk k2
uk
(5.5.4)
U.
u wie in (5.5.4). Dann folgt huj , ui = huj , vi, also hv − u, uj i = 0
v − u ∈ U ⊥ , und da dies für jedes v ∈ V gilt, folgt V = U + U ⊥ . Dass die
und
für alle
Summe
direkt ist, folgt bereits aus Satz 5.3.2. Also gilt (a), aber auch (c). Behauptung (b) folgt direkt aus dem
2
Satz über die beste Approximation.
Aufgabe 5.5.5
Überprüfe, dass die Vektoren
v1 = (1, 0, 1)T , v2 = (0, 1, 0)T
ein Orthogonalsystem in
mit dem kanonischen Skalarprodukt bilden. Berechne die orthogonale Projektion von
den von
v1 , v2
aufgespannten Unterraum.
53
v = (1, 1, 0)
T
R3
auf
Kapitel 6
Lineare Abbildungen
Wenn nichts anderes gesagt wird, seien im Folgenden
Körper
V
und
W
zwei beliebige Vektorräume über demselben
K.
6.1 Denition und elementare Eigenschaften
Denition 6.1.1
W,
Eine Abbildung
T : V −→ W , v 7−→ T (v) = T v
heiÿt lineare Abbildung von
V
nach
oder einfach linear, falls folgendes gilt:
(L1)
∀ v1 , v2 ∈ V :
(L2)
∀ λ ∈ K, v ∈ V :
T (v1 + v2 ) = T v1 + T v2 .
(Additivität)
T (λ v) = λ T v .
(Homogenität)
Beide Aussagen zusammen sind oenbar äquivalent zu der einen Aussage
(L)
∀ λ1 , λ2 ∈ K , v1 , v2 ∈ V :
T (λ1 v1 + λ2 v2 ) = λ1 T v1 + λ2 T v .
V
nach
W
L(V, V ) = L(V )
geschrieben. Abbildungen in
L(V )
heiÿen auch Endomorphismen in
Beispiel 6.1.2
Folgende Abbildungen sind linear:
Die Menge aller linearen Abbildungen von
wird mit
L(V, W )
bezeichnet. Falls
W =V
ist, sei
V.
A ∈ Km×n und x ∈ Kn ist A x ∈ Km , und aus Satz 2.3.3 (a), (b) folgt, dass die Abbildung
x 7−→ A x linear ist. Also legt jede Matrix A in kanonischer Weise eine lineare Abbildung fest, die
wir der Einfachheit halber meistens ebenfalls mit A bezeichnen.
(a) Für
(b) Für beliebige Vektorräume
V, W
über
K
ist die Nullabbildung
ist auch die identische Abbildung oder die Identität
v 7−→ 0
immer linear. Für
W =V
linear.
(v1 , . . . , vn ) eine Basis von V . Dann
Pn gibt es nach Propositiv ∈ V eindeutig bestimmte Zahlen αk ∈ K mit v = k=1 αk vk . Die Abbildung
n
v 7−→
Pn(α1 , . . . , αn ) von V nach K ist linear und injektiv. Da für α1 , . . . , αn ∈ K der Vektor
v = j=1 αj vj zu V gehört, ist die Abbildung sogar surjektiv. Wir nennen sie auch die Koordinatenabbildung zur Basis (v1 , . . . , vn ).
(c) Sei
V
v 7−→ v
endlich-dimensional, und sei
on 1.5.6 zu jedem
(d) Für
V = W = K[t]
also ein Endomorphismus. Für
nach
p 7−→ p 0 , die jedem Polynom seine Ableitung zuordnet, linear,
Rb
beliebige a < b ist die Abbildung p 7−→ a p(t) dt linear von K[t]
ist die Abbildung
K.
54
Satz 6.1.3
Für jedes
T ∈ L(V, W )
λj ∈ K
(a) Für jede Wahl von
gilt:
und
vj ∈ V , j = 1, . . . , n,
T
n
X
λj vj
=
j=1
(b) Stets gilt
T (0) = 0,
(c) Falls ein System
abhängig in
gilt
n
X
λj T (vj ) .
j=1
wobei links bzw. rechts der Nullvektor von
(vj , j ∈ J)
linear abhängig in
V
V
bzw.
W
steht.
ist, dann ist das System
(T (vj ), j ∈ J)
linear
W.
Beweis:
also ist
gibt es
Wegen
Zu (a): Folgt durch Induktion über n aus der Denition der linearen Abbildung. Zu (b): 0 = 0+0,
T (0) = T (0) + T (0), und daraus folgt T (0) = 0. Zu (c): Nach Denition der linearen
PnAbhängigkeit
j1 , . . . , jn ∈ J und λ1 , . . . , λn P
∈ K, wobei nicht
alle λk verschwinden, so dass 0 =
k=1 λk vjk ist.
n
(a) und (b) folgt hieraus 0 =
λ
T
v
,
woraus
sich
die
Behauptung
ergibt.
2
k
j
k
k=1
Aufgabe 6.1.4
Funktionen
f : D −→ R,
mit
D ⊂ R,
kann man sich über ihren Graphen in
R2
ver-
anschaulichen. Finde heraus, wie man an diesem Graphen erkennt, ob eine solche Funktion eine lineare
Abbildung in obigem Sinne ist.
6.2 Kern und Bild
Denition 6.2.1 Für T ∈ L(V, W ) heiÿen Kern T = {v ∈ V : T v = 0} der Kern von T , und Bild T =
{w ∈ W : ∃ v ∈ V mit T v = w} das Bild von T . Für A ⊂ V sei T (A) = {T v : v ∈ A} gesetzt.
Insbesondere ist also T (V ) = Bild T .
Satz 6.2.2
Für jedes
T ∈ L(V, W )
gilt:
(a) Kern T ist ein Unterraum von
dim
(b)
Kern T
(c) Genau dann ist
(d) Falls
W
T
+ dim
V,
Bild T ist ein Unterraum von
Bild T
W.
= dim V .
injektiv, wenn Kern T
= {0}.
endlich-dimensional ist, dann ist
T
genau dann surjektiv, wenn
dim
Bild T
= dim W
ist.
Beweis: Zu (a): Für v1 , v2 ∈ Kern T und λ1 , λ2 ∈ K gilt T (λ1 v1 + λ2 v2 ) = λ1 T v1 + λ2 T v2 = 0, da
T v1 = T v2 = 0 ist. Also folgt λ1 v1 +λ2 v2 ∈ Kern T . Für w1 , w2 ∈ Bild T gibt es v1 , v2 ∈ V mit T vj = wj ,
und für λ1 , λ2 wie oben folgt λ1 w1 + λ2 w2 = T (λ1 v1 + λ2 v2 ) ∈ Bild T . Zu (b): Falls dim Kern T = ∞ ist,
muss auch V unendlich-dimensional sein, und es ist nichts zu zeigen. Falls dim Bild T = ∞ ist, gibt es ein
abzählbar-unendliches System (wj , j ∈ N) in Bild T , welches linear unabhängig ist, und zu jedem j ∈ N
existiert ein vj ∈ V mit T vj = wj . Nach Satz 6.1.3 (c) muss (vj , j ∈ N) in V linear unabhängig sein, und
deshalb ist auch dim V = ∞, so dass nichts mehr zu zeigen ist. Seien jetzt Kern T und Bild T beide endlichdimensional, und sei (v1 , . . . , vn ) bzw. (w1 , . . . , wm ) Basis von Kern T bzw. Bild T . Zu jedem wj existiert
ein Urbild in V , welches wir mit vn+j bezeichnen. Der Beweis von (b) ist erbracht, wenn wir nachweisen,
Pn+m
dass (v1 , . . . , vn+m ) eine Basis von V ist. Dazu seien λj ∈ K so, dass 0 =
j=1 λj vj gilt. Dann folgt
Pm
wegen T vj = 0 für j = 1, . . . , n, dass 0 =
λ
w
ist.
Wegen
der
linearen
Unabhängigkeit von
j=1 n+j j
Pn
(w1 , . . . , wm ) folgt hieraus λk = 0 für k = n + 1, . . . , n + m. Also ergibt sich 0 = j=1 λj vj , woraus aber
wegen der linearen Unabhängigkeit von (v1 , . . . , vn ) folgt, dass auch λk = 0 für k = 1, . . . , n gilt. Das zeigt
insgesamt die lineare Unabhängigkeit von (v1 , . . . , vn+m ). Sei jetzt v ∈ V , und sei w = T v . Dann gibt es
55
Pm
Pm
Pm
α1 , . . . , αm ∈ K mit w = j=1 αj wj . Für ṽ = v − j=1 αj vn+j folgt dann T ṽ = w − j=1 αj wj = 0,
Pn
und somit ist ṽ ∈ Kern T . Daher gibt es β1 , . . . , βn ∈ K mit ṽ =
j=1 βj vj , und somit ist gezeigt,
dass (v1 , . . . , vn+m ) ein Erzeugendensystem für V ist. Die Beweise der Teile (c) und (d) stellen wir als
Übungsaufgabe.
2
Aufgabe 6.2.3
Beweise die Teile (c), (d) der vorausgegangenen Satzes.
Aufgabe 6.2.4
Bestimme Kern und Bild der Abbildungen aus Beispiel 6.1.2.
Denition 6.2.5
Die Dimension des Bildes von T ∈ L(V, W ) heiÿt auch der Rang von T . Für w ∈ W
T −1 (w) für die Menge aller v ∈ V mit T v = w. Also besteht T −1 (w) aus allen Lösungen
−1
der Gleichung T v = w , und T
(0) ist gerade der Kern von T . Beachte aber, dass diese Bezeichung nicht
etwa impliziert, dass T injektiv oder sogar bijektiv ist!
schreiben wir
Aufgabe 6.2.6
TA
von
Matrix
n
K
A.
Satz 6.2.7
m×n
Eine Matrix A ∈ K
legt nach Beispiel 6.1.2 durch
m
in K
fest. Zeige dass der Rang dieser linearen Abbildung
Sei
T ∈ L(V, W ),
(a) Genau dann ist
(b) Für
w∈
und sei
T −1 (w) 6= ∅,
Bild T ist
T −1 (w)
w∈W
wenn
x 7−→ A x eine
TA dasselbe ist
lineare Abbildung
wie der Rang der
fest gewählt. Dann gilt:
w ∈ Bild T
ist.
eine lineare Mannigfaltigkeit; genauer: Ist
v0 ∈ T −1 (w)
beliebig ausge-
wählt, so ist
T −1 (w) = v0 +
Insbesondere ist die Dimension von
Beweis:
T
−1
(w)
Kern T
.
immer gleich der Dimension von Kern T .
T −1 (w). Für (b) sei v ∈ Kern T ; dann ist T (v0 + v) =
T v0 + T v = w + 0 = w, und deshalb ist v + v0 ∈ T −1 (w). Umgekehrt sei v ∈ T −1 (w), dann ist
T (v − v0 ) = T v − T v0 = w − w = 0, also v − v0 ∈ Kern T .
2
Aussage (a) ist klar nach Denition von
Aufgabe 6.2.8
Vergleiche die Ergebnisse dieses Abschnittes mit denen aus Abschnitt 3.2 über die Struk-
tur der Lösungsmenge eines linearen Gleichungssystems.
6.3 Lineare Abbildungen und Basen
Besonders in unendlich-dimensionalen Vektorräumen ist es nicht sofort klar, ob und wieviele lineare
Abbildungen es gibt. Wir wollen die Frage für den Fall beantworten, dass wir eine Basis des Urbildraums
V
kennen und zeigen, dass eine lineare Abbildung durch Angabe ihrer Bilder der Basisvektoren eindeutig
festgelegt ist, dass man aber andererseits diese Bilder beliebig vorgeben kann.
Satz 6.3.1 (Existenz von linearen Abbildungen)
J)
beliebig ist. Dann gibt es genau
T vj = wj
56
(vj , j ∈ J) eine Basis von V , und sei (wj , j ∈
der gleichen Gröÿe wie die Basis, aber sonst
Sei
W , welches also von
ein T ∈ L(V, W ) mit
ein System von Vektoren aus
∀ j∈J.
(6.3.1)
Beweis:
P
v ∈ V gegeben, so gibt es eindeutig bestimmte αj ∈ K mit v = j∈J αj vj , wobei nur
endlich viele αj nicht gleich 0 sind. Wenn T ∈ L(V, W ) und (6.3.1) erfüllt ist, dann muss gelten T v =
P
P
. Umgekehrt denieren wir jetzt eine Abbildung T von V nach W durch
j T vj =
j∈J α
j∈J αj wjP
P
P
T v = j∈J αj wj . Für ṽ = j∈J α̃j vj ∈ V und α, β ∈ K gilt dann α v + β ṽ = j∈J α αj + β α̃j vj ,
P
und deshalb folgt T (α v + β ṽ =
j∈J α αj + β α̃j wj = α T v + β T ṽ . Also ist die Abbildung T linear.
2
Ist
Aufgabe 6.3.2
Zeige: Ist
Denition 6.3.3
dim V = n < ∞
und
dim W = m < ∞,
Eine bijektive lineare Abbildung
so folgt
dim L(V, W ) = n m.
T : V −→ W heiÿt ein Isomorphismus. Falls
V und W auch isomorph. Falls W = V
solcher Isomorphismus existiert, so heiÿen die Vektorräume
ein
ist,
sagen wir statt Isomorphismus auch Automorphismus.
Korollar zu Satz 6.3.1
Unter den Voraussetzungen von Satz 6.3.1 ist die lineare Abbildung
dann ein Isomorphismus. wenn
(wj , j ∈ J)
eine Basis von
W
T
genau
ist.
Beweis: Sei (wj , j ∈ J) eine Basis. Dann gibt es zu w ∈ W eindeutig bestimmte αj ∈ K mit w =
P
αj wj , wobei nur endlich viele αj nicht gleich 0 sind. Also gibt es genau ein v ∈ V , und zwar
j∈JP
v = j∈J αj vj , für welches w = T v gilt. Deshalb ist T ein Isomorphismus. Umgekehrt, wenn T ein
Isomorphismus ist, gibt es zu jedem w ∈ W genau ein Urbild v ∈ V mit T v = w . Zu diesem v gibt es
P
eindeutig bestimmte αj ∈ K mit v =
j∈J αj vj , wobei nur endlich viele αj nicht gleich
P
P0 sind, und es
folgt w =
α
w
.
Daher
ist
(w
,
j
∈
J)
ein
Erzeugendensystem.
Setzt
man
0
=
j
j∈J j j
j∈J αj wj und
beachtet dass T v = 0 genau für v = 0 gilt, so folgt analog die lineare Unabhängigkeit des Systems
(wj , j ∈ J).
2
Beispiel 6.3.4
Basis von
V.
Sei
V
ein
n-dimensionaler
Vektorraum über
K,
und sei das System
(v1 , . . . , vn )
eine
Die Koordinatenabbildung
v=
n
X
α j vj
7−→
(α1 , . . . , αn )T
j=1
n
ist nach Aufgabe 6.1.2 ein Isomorphismus von V auf K . Also ist jeder n-dimensionale Vektorraum zu
n
K isomorph, und die Koordinatenabbildung heiÿt auch kanonischer Isomorphismus. Beachte aber, dass
man erst von dem kanonischen Isomorphismus sprechen kann, nachdem man eine Basis für
V
gewählt
hat.
Proposition 6.3.5
Eine Hintereinanderausführung zweier linearer Abbildungen ist ebenfalls linear. Die
Umkehrabbildung eines Isomorphismus ist wieder ein Isomorphismus.
Beweis:
Für
Seien U, V, W Vektorräume
u1 , u2 ∈ U , λ1 , λ2 ∈ K gilt dann
T (λ1 v1 + λ2 v2 )
Also ist
T ∈ L(U, W ).
Sei jetzt
über
K,
und seien
T1 ∈ L(U, V ), T2 ∈ L(V, W ),
sowie
T = T2 ◦T1 .
= T2 T1 (λ1 v1 + λ2 v2 ) = T2 λ1 T (v1 ) + λ2 T (v2 )
= λ1 T2 T1 (v1 ) + λ2 T2 T1 (v2 ) = λ1 T (v1 ) + λ2 T (v2 ) .
T ∈ L(V, W )
ein Isomorphismus, also bijektiv. Für
gilt dann
T (λ1 v1 + λ2 v2 ) = λ1 T (v1 ) + λ2 T (v2 ) .
57
v1 , v2 ∈ V , λ1 , λ2 ∈ K
w1 = T (v1 ), w2 = T (v2 ), also v1 = T −1 (w1 ), v2 = T −1 (w2 ),
−1
Anwendung von T
auf beide Seiten
Mit
folgt aus dieser Gleichung durch
T −1 (λ1 w1 + λ2 w2 ) = λ1 v1 + λ2 v2 = λ1 T −1 (w1 ) + λ2 T −1 (w2 ) .
Also ist
T −1
2
linear.
Aufgabe 6.3.6
Überprüfe, dass der Begri der Isomorphie eine Äquivalenzrelation auf der Menge aller
Vektorräume ist.
Satz 6.3.7
K.
Sei
V
ein Raum über
Für einen Isomorphismus
K mit Skalarprodukt, und
T ∈ L(V, W ) denieren wir
sei
hw1 , w2 iT = hT −1 w1 , T −1 w2 i
Dann ist
Beweis:
T
h · , · iT
Für
−1
für
w2 und T
h · , · iT .
ein inneres Produkt auf
W
ein zu
V
isomorpher Vektorraum über
∀ w1 , w2 ∈ W .
W.
∈ W und λ ∈ K gilt wegen der Linearität von T −1 , dass T −1 (w1 + w2 ) = T −1 w1 +
(λ w2 ) = λ T −1 w2 ist, und daraus folgen leicht die vier Axiome des inneren Produktes
2
w1 , w2
−1
6.4 Isomorphie und Dimension
Satz 6.4.1
Für beliebige Vektorräume
(a) Falls es ein injektives
V
(c) Falls
dim V = dim W < ∞
Beweis:
W
T ∈ L(V, W )
(b) Falls
und
V
isomorph sind, folgt
ist, sind
und
W
über dem gleichen Körper
gibt, folgt
K
gilt:
dim W ≥ dim V .
dim V = dim W .
V
und
W
isomorph.
T ∈ L(V, W ) injektiv, und sei (vj , j ∈ J) ein linear
in V .
Pn unabhängiges System
Pn
j1P
, . . . , jn ∈ J und λ1 , . . . , λn ∈ K, dass 0 = k=1 λk T vjk = T
k=1 λk vjk
n
genau dann gilt, wenn 0 =
k=1 λk vjk ist, denn der Kern von T besteht nur aus dem Nullvektor. Daraus
folgt, dass alle λk = 0 sein müssen. Also ist das System der Bilder (T vj , j ∈ J) linear unabhängig in
W . Wenn V unendlich-dimensional ist, gibt es ein abzählbar-unendliches System in V , und dann auch
in W , und somit ist auch W unendlich-dimensional. Im anderen Fall gibt es in V eine Basis (v1 , . . . , vn ),
mit n = dim V , und dann ist (T v1 , . . . , T vn ) jedenfalls linear unabhängig in W . Also ist dim W ≥ n.
−1
Zu (b): Sei T ∈ L(V, W ) ein Isomorphismus. Dann folgt aus (a), dass dim W ≥ dim V ist. Da T
∈
L(W, V ) ebenfalls injektiv ist, folgt auch die umgekehrte Ungleichung. Zu (c): Wähle Basen von V und
W ; diese enthalten nach Voraussetzung gleich viel Vektoren. Aus dem Korollar zu Satz 6.3.1 folgt dann
die Behauptung.
2
Zu (a): Sei ein
Dann folgt für beliebige
Wegen der Wichtigkeit formulieren wir noch folgende direkte Konsequenz dieses Satzes:
Korollar zu Satz 6.4.1
Zwei endlich-dimensionale Vektorräume über
K
sind genau dann isomorph,
wenn sie dieselbe Dimension haben.
Aufgabe 6.4.2
Sei
dim V = dim W < ∞. Zeige:
Wenn ein
ist es bereits ein Isomorphismus.
58
T ∈ L(V, W ) surjektiv bzw.
injektiv ist, dann
6.5 Der Dualraum, die duale Abbildung
Denition 6.5.1
Für jeden Vektorraum
V
über
K
heiÿt
L(V, K),
also die Menge aller linearen Abbil-
in den Körper K, der zu V (algebraisch) duale Raum, oder kurz der Dualraum zu V , und
∗
∗
wir schreiben V für diesen Raum. Jedes f ∈ V heiÿt auch lineares Funktional oder Linearform auf V .
∗
∗
∗
∗
Für ein T ∈ L(V, W ) und f ∈ W ist f ◦T ∈ V . Die Abbildung f 7−→ f ◦T bildet also W nach V ab
∗
und wird mit T bezeichnet und die zu T duale Abbildung genannt.
dungen von
V
Aufgabe 6.5.2
Lemma 6.5.3
Beweis:
Für
Sei
V
endlich-dimensional. Zeige: Für jedes
Für jedes
T ∈ L(V, W )
f1 , f2 ∈ W ∗
und
v ∈ V \{0} gibt es ein f ∈ V ∗
ist die duale Abbildung
α1 , α2 ∈ V
T∗
gilt nach Denition von
linear, also
mit
f (v) 6= 0.
T ∗ ∈ L(W ∗ , V ∗ ).
T∗
T ∗ (α1 f1 + α2 f2 ) = (α1 f1 + α2 f2 )◦T = α1 T ∗ f1 + α2 T ∗ f2 ,
2
und das war zu zeigen.
Satz 6.5.4
Wenn
V
endlich-dimensional ist, gilt
dim V = dim V ∗ ,
und insbesondere sind
V
und
V∗
isomorph.
Beweis:
dim V = 0 ist, wenn also V nur aus dem Nullvektor besteht, dann ist die einzige
V in K die Nullabbildung. Also gilt in diesem Fall die Behauptung. Sei jetzt
1 ≤ dim V = n < ∞, und sei (v1 , . . . , vn ) eine Basis von V . Aus Satz 6.3.1 folgt die Existenz von
∗
f1 , , . . . , fn ∈ V ∗ mit der Eigenschaft fk (vP
j ) = δjk für 1 ≤ j, k ≤ n. Für ein beliebiges f ∈ V seien dann
n
f (vj ) = αj für j = 1, . . . , n. Für g = f − j=1 αj fj folgt dann f (vk ) = 0 für k = 1, . . . , n, und deshalb
∗
ist g die Nullabbildung. Also ist (f1 , . . . , fn ) Erzeugendensystem von V . Für die lineare Unabhängigkeit
Pn
Pn
sei 0 =
j=1 αj fj , d. h. genauer, 0 =
j=1 αj fj (v) für alle v ∈ V . Einsetzen von vk zeigt dann 0 = λk ,
∗
und daher ist (f1 , . . . , fn ) Basis von V .
2
Wenn
lineare Abbildung von
Satz 6.5.5
morphismus von
Beweis:
V und W beide endlich-dimensional
L(V, W ) auf L(W ∗ , V ∗ ).
Wenn
Für
T1 , T2 ∈ L(V, W )
und
α1 , α2 ∈ K
sei
sind, dann ist die Abbildung
T = α1 T1 + α2 T2 .
T 7−→ T ∗
Dann gilt für jedes
ein Iso-
f ∈ W ∗:
f ◦T = α1 f ◦T1 + α2 f ◦T2 = α1 T1∗ (f ) + α2 T2∗ (f ) ,
L(V, W ) in L(W ∗ , V ∗ ).
∗
Wenn T = 0, d. h., gleich der Nullabbildung ist, dann folgt per Denition f (T (v)) = 0 für alle f ∈ W
und alle v ∈ V . Dies impliziert aber nach Aufgabe 6.5.2 dass T (v) = 0 ist für alle v ∈ V , und daher ist
T die Nullabbildung in L(V, W ). Also ist die Abbildung T 7−→ T ∗ injektiv. Aus Aufgabe 6.3.2 folgt aber
∗
∗
∗
dass L(V, W ) und L(W , V ) die gleiche Dimension haben, und deshalb ist T 7−→ T auch surjektiv. 2
und deshalb ist
∗
T ∗ = α1 T1∗ + α2 T2∗ . Also ist T 7−→ T ∗
eine lineare Abbildung von
6.6 Die adjungierte Abbildung
Im Folgenden betrachten wir endlich-dimensionale Vektorräume mit inneren Produkten und führen die
sogenannte adjungierte Abbildung ein. Diese hängt eng mit der dualen Abbildung zusammen.
59
Denition 6.6.1
Sei
V
und
W
Vektorräume über
K.
Eine Abbildung
T : V −→ W
heiÿt semilinear,
wenn
•
∀ v1 , v2 ∈ V :
•
∀ λ ∈ K, v ∈ V :
Im Fall
K=R
Lemma 6.6.2
f ∈V∗
T (v1 + v2 ) = T v1 + T v2 .
T (λ v) = λ T v .
ist also Semilinearität das gleiche wie Linearität, aber nicht wenn
V ein
wf ∈ V
Sei
genau ein
endlich-dimensionaler Raum über
f 7−→ wf
ist.
mit Skalarprodukt. Dann gibt es zu jedem
so, dass
f (v) = hwf , vi
Die Abbildung
K
K=C
∀v∈V .
ist bijektiv und semilinear.
Beweis:
P
Sei (v1 , . . . , vn ) eine Orthonormalbasis von V . Dann hat jedes v ∈ V die Darstellung v =
Pn
n
∗
hv
,
vi
vk . Für
k
k=1
Pnf ∈ V setzen wir αk = f (vk ) für k = 1, . . . , n. Dann folgt f (v) = k=1 αk hvk , vi =
hwf , vi mit wf = k=1 αk vk . Also gibt es ein wf wie behauptet. Dieses wf ist durch f eindeutigPfestgelegt,
n
denn aus hw1 − w2 , vi = 0 für alle v ∈ V folgt w1 = w2 . Die Semilinearität von f 7−→ wf =
k=1 αk vk
kann leicht nachgeprüft werden.
2
Bemerkung 6.6.3
Wir betrachten jetzt zwei endlich-dimensionale Räume V und W über K mit SkaT ∈ L(V, W ). Die duale Abbildung T ∗ bildet dann W ∗ nach V ∗ ab. Zu f ∈ W ∗
∗
∗
gehört dann nach Lemma 6.6.2 genau ein wf ∈ W , und zu g = T f ∈ V gibt es aus demselben Grund
ad
ein wg ∈ V . Wir können also eine Abbildung T
: W −→ V denieren durch
larprodukten, sowie ein
T ad (wf ) = wg ,
g = T ∗f ,
∀ f ∈ W∗ .
ad
sind beide semilinear, aber die Abbildung wf 7−→ T (wf ) = wg
∗
ad
ist linear, wie man leicht überprüft. Mit Hilfe der Denition von T folgt für die Abbildung T
die
Die Abbildungen
f 7−→ wf
und
g 7−→ wg
Beziehung
hT ad w, vi = hw, T vi
Wir bemerken noch, dass die Zuordnung
L(W, V )
T 7−→ T ad
∀v∈V , w∈W.
eine bijektive semilineare Abbildung von
(6.6.1)
L(V, W )
auf
ist.
Denition 6.6.4
Seien V und W Räume über K mit Skalarprodukten, und sei T ∈ L(V, W ). Eine
T ad ∈ L(W, V ) heiÿt zu T adjungiert, falls (6.6.1) gilt. Es folgt leicht, dass es zu T höchstens
ad
eine adjungierte Abbildung geben kann, und aus der obigen Bemerkung folgt die Existenz von T
falls
V und W beide endlich-dimensional sind. Ein Endomorphismus T ∈ L(V ) heiÿt selbstadjungiert, falls
T ad = T ist, falls also immer gilt
Abbildung
hT v1 , v2 i = hv1 , T v2 i
Wir nennen einen Endomorphismus
und mit
T
T ∈ L(V )
∀ v1 , v2 ∈ V .
auch normal, falls die adjungierte Abbildung
kommutiert, d. h., falls gilt
T ad ◦T = T ◦T ad .
Oenbar ist jeder selbstadjungierte Endomorphismus auch normal.
Aufgabe 6.6.5 (Rechenregeln für adjungierte Abbildungen)
Seien
V
und
W
Räume über
K
mit Skalarprodukten. Zeige folgende Regeln:
60
T ad
existiert
(a) Wenn zu
T ∈ L(V, W )
eine adjungierte Abbildung
adjungierte Abbildung wieder gleich
T ad ∈ L(W, V )
existiert, dann ist die zu
T ad
T.
λ1 , λ2 ∈ K und T1 , T2 ∈ L(V, W ). Wenn zu T1 bzw. T2 adjungierte Abbildungen T1ad , T2ad ∈
L(W, V ) existieren, dann existiert auch die adjungierte Abbildung für λ1 T1 + λ2 T2 , und
(b) Seien
λ1 T1 + λ2 T2
id
(c) Die identische Abbildung
ad
= λ1 T1ad + λ2 T2ad .
sowie die Nullabbildung auf
V
sind selbstadjungiert.
Für die Hintereinanderausführung von Abbildungen vergleiche die folgende Proposition.
Proposition 6.6.6
T2 ∈ L(V, W )
Seien
U, V, W
die adjungierte Abbildung zu
Beweis:
Für
Räume über
mit den adjungierten Abbildungen
K mit Skalarprodukten, und seien T1 ∈ L(U, V ) und
T1ad ∈ L(V, U ) und T2ad ∈ L(W, V ). Dann ist T1ad ◦T2ad
T2 ◦T1 .
u ∈ U, v ∈ V , w ∈ W
gilt nach Denition der adjungierten Abbildungen
hT1ad v, ui = hv, T1 ui ,
hT2ad w, vi = hw, T2 vi .
v = T2ad w, so folgt hT1ad T2ad w, ui = hT2ad w, T1 ui, und wenn man dann
v = T1 u einsetzt, so folgt hT2ad w, T1 ui = hw, T2 T1 ui, und das war zu zeigen.
Setzt man links
Gleichung
Aufgabe 6.6.7
hv, T vi
Sei
V
ein Raum über
K
mit Skalarprodukt, und sei
ist immer eine reelle Zahl, auch wenn
Aufgabe 6.6.8
x 7−→ A x
Zeige: Für
V = Kn
K=C
T ∈ L(V )
2
selbstadjungiert. Zeige:
ist.
mit dem kanonischen Skalarprodukt, und
genau dann selbstadjungiert, wenn
in der zweiten
T
A =A
A ∈ Kn×n
ist die Abbildung
ist.
6.7 Längentreue Abbildungen
Denition 6.7.1
Seien
V, W
Räume über
K
mit Skalarprodukten. Ein
T ∈ L(V, W )
heiÿt längentreu,
falls
∀v∈V :
kT vk = kvk ,
und längen- und winkeltreu, falls
∀ v1 , v2 ∈ V :
hT v1 , T v2 i = hv1 , v2 i .
Beachte, dass in beiden Bedingungen rechts die Norm bzw. das Skalarprodukt in
das Skalarprodukt in
W
V,
links die Norm bzw.
steht. Oenbar ist jede längen- und winkeltreue Abbildung auch längentreu. Dass
auch die Umkehrung dieser Aussage gilt, folgt aus dem nächsten Satz. Für
K=R
bzw.
K=C
nennt man
eine längen- und winkeltreue Abbildung auch orthogonal bzw. unitär.
Satz 6.7.2
Seien
V, W
Räume über
K
mit Skalarprodukten. Dann ist jedes längentreue
T ∈ L(V, W )
auch injektiv und längen- und winkeltreu.
Beweis:
Die Injektivität folgt leicht, weil aus
dies genau dann, wenn
kvk = 0
0=Tv
folgt dass
0 = kT vk
ist, und bei Längentreue gilt
ist. Die Winkeltreue folgt aus Aufgabe 5.2.2.
61
2
Satz 6.7.3
von
V.
V, W
Seien
K mit Skalarprodukten, und sei (vj , j ∈ J) eine Orthonormalbasis
T ∈ L(V, W ) längentreu, wenn das System (T vj , j ∈ J) wieder ein Ortho-
Räume über
Genau dann ist ein
normalsystem ist.
Beweis:
Sei T längentreu. Dann folgt für j, k ∈ J , dass hT vj , T vk i = hvj , vk i = δjk ist, und deshalb ist
(T vj , j ∈ J) ein Orthonormalsystem. Umgekehrt,P
sei (T vj , j ∈ J) ein Orthonormalsystem. Für v ∈ V
Pn
n
gibt es j1 , . . . , jn ∈ J und α1 , . . . , αn ∈ K mit v =
αk vjk , und aus (5.4.1) folgt kvk2 = k=1 |αk |2 .
k=1
Pn
P
n
2
2
Für w = T v =
2
k=1 αk T vjk folgt genauso kT vk =
k=1 |αk | , und deshalb ist T längentreu.
Satz 6.7.4
Seien
T ∈ L(V, W )
Beweis:
Mit
V, W
Räume über
K mit Skalarprodukten. Dann besitzt jedes längentreue und surjektive
T ad = T −1 . Im Fall W = V ist T auch normal.
eine adjungierte Abbildung, und
Eine längentreue und surjektive Abbildung ist bijektiv, und somit existiert
T v1 = w1 ,
also
v1 = T
−1
w1 ,
T −1 ∈ L(W, V ).
folgt aus der Denition der Winkeltreue (was ja dasselbe wie die
Längentreue ist), dass
hw1 , T v2 i = hT −1 w1 , v2 i
∀ w1 ∈ W , v2 ∈ V .
Bis auf die Bezeichnungen ist dies gleich (6.6.1), wenn man
denn die Normalität für
W =V
folgt, da
T ◦T
−1
=T
−1
T ad
durch
T −1
ersetzt, und das war zu zeigen,
2
◦T ist.
Aufgabe 6.7.5
treu von
K
n
m×n
Zeige: Für eine Matrix A ∈ K
ist die Abbildung x 7−→ A x genau dann längenm
m
in K , wenn die Spalten von A ein Orthonormalsystem in K
bezüglich des kanonischen
Skalarprodukts bilden. Warum folgt daraus
Aufgabe 6.7.6
Die lineare
welches
m ≥ n?
V = W = R2 mit dem kanonischen Skalarprodukt, und sei A ∈ R2×2 . Zeige:
2
Abbildung x 7−→ A x von R in sich ist genau dann längentreu, wenn es ein φ ∈ R gibt, für
"
#
"
#
cos φ − sin φ
cos φ
sin φ
A =
oder
A =
.
sin φ
cos φ
sin φ − cos φ
Seien jetzt
Wodurch unterscheiden sich diese beiden Fälle? Interpretiere beide Fälle geometrisch.
6.8 Denite Endomorphismen
Denition 6.8.1
phismus
T ∈ L(V )
Sei
ist
V ein Raum über K
hv, T vi für alle v ∈ V
(a) positiv denit, falls
(b) negativ denit, falls
hv, T vi > 0
hv, T vi < 0
(c) positiv semidenit, falls
(d) negativ semidenit, falls
(e) indenit, falls
v2 ∈ V
nach Aufgabe 6.6.7 eine reelle Zahl. Wir nennen
gilt für alle
gilt für alle
hv, T vi ≥ 0
hv, T vi ≤ 0
hv1 , T v1 i > 0
mit Skalarprodukt. Für einen selbstadjungierten Endomor-
T
v ∈ V \ {0},
v ∈ V \ {0},
gilt für alle
gilt für alle
v ∈V,
v ∈V,
gilt für mindestens ein
v1 ∈ V ,
während
hv2 , T v2 i < 0
für ein anderes
gilt.
Beachte, dass für jeden sebstadjungierten Endomorphismus immer einer dieser Fälle eintritt. Die Menge
L(V )
ist also die Vereinigung von fünf Teilmengen, die jeweils alle Endomorphismen mit derselben
Denitheitseigenschaft umfassen. Dabei sind die positiv bzw. negativ deniten Endomorphismen in der
Menge der positiv bzw. negativ semideniten enthalten.
62
Aufgabe 6.8.2
Zeige dass die identische Abbildung auf
Aufgabe 6.8.3
Für
a, c ∈ R, b ∈ C
positiv denit ist.
sei
A =
Zeige, dass die Abbildung
V
x 7−→ A x
von
C2
a
b
b
c
.
in sich selbstadjungiert ist, und stelle fest, für welche
a, b, c
diese Abbildung positiv oder negativ denit oder semidenit bzw. indenit ist.
Satz 6.8.4
L(V )
Sei
V
ein Raum über
K
mit Skalarprodukt, und seien T ∈ L(V ) selbstadjungiert und U ∈
U −1 T U selbstadjungiert, und T und U −1 T U haben die-
längentreu und surjektiv. Dann ist auch
selbe Denitheitseigenschaft.
Beweis:
von
U
−1
U ad = U −1 , und daher folgt aus
für v1 , v2 ∈ V und ṽj = U vj , dass
Nach Satz 6.7.4 ist
T U.
Weiter folgt
Proposition 6.6.6 die Selbstadjungiertheit
hv1 , U −1 T U v2 i = hU ad T U v2 , v1 i = hT U v2 , U v1 i = hṽ1 , T ṽ2 i .
Für
v2 = v1 = v ,
also
ṽ2 = ṽ1 = ṽ ,
folgt hieraus
hv, U −1 T U vi = hṽ, T ṽi.
U
Da
bijektiv ist, folgt die
2
Behauptung.
6.9 Eigenwerte und Eigenvektoren
Denition 6.9.1
T ∈ L(V ),
V Vektorraum über K. Ein λ ∈ K
v ∈ V \ {0} existiert, für welches
Sei
falls ein
heiÿt ein Eigenwert eines Endomorphismus
T v = λv
ist. Jeder solche Vektor
v
heiÿt dann ein Eigenvektor von
(6.9.1)
T
zum Eigenwert
λ.
Die Menge aller
einschlieÿlich des Nullvektors, welche die Gleichung (6.9.1) erfüllen, heiÿt der Eigenraum von
v ∈ V,
T zum
λ. Beachte, dass die Denition des Eigenraums formal auch sinnvoll ist, wenn λ kein Eigenwert
T heiÿt
diagonalisierbar, falls es eine Basis von V gibt, welche aus Eigenvektoren von T besteht.
Eigenwert
von
T
ist dann allerdings besteht der Eigenraum nur aus dem Nullvektor. Ein Endomorphismus
Bemerkung 6.9.2
Genau dann ist
id
nicht injektiv ist; dabei soll
Der Eigenraum von
T
λ
T , wenn die Abbildung T − λ id
id v = v für alle v ∈ V erfüllen.
der Kern der Abildung T − λ id. In aufbauenden
λ einen Spektralwert von T , wenn T − λ id nicht
Eigenwert eines Endomorphismus
die identische Abbildung auf
zum Eigenwert
λ
ist also genau
Vorlesungen, z. B. über Funktionalanalysis, nennt man
V
sein, also
bijektiv ist. Also ist ein Eigenwert immer auch Spektralwert, aber im Allgemeinen gilt die Umkehrung
nicht. Wegen Aufgabe 6.4.2 gilt aber:
Wenn
V
endlich-dimensional ist, dann ist jeder Spektralwert auch ein Eigenwert.
Aufgabe 6.9.3
Genau dann ist
Sei V Vektorraum über K, und sei T ∈ L(V ) bijektiv, also ein Isomorphismus. Zeige:
λ ∈ K ein Eigenwert von T , wenn λ−1 ein Eigenwert von T −1 ist. Insbesondere ist λ = 0
niemals Eigenwert einer injektiven Abbildung.
Proposition 6.9.4
Sei
T
ein Endomorphismus eines Vektorraumes
System von Eigenvektoren von
∀j∈J :
Dann ist das System
T
T vj = λj vj ,
(vj , j ∈ J)
V
über
zu paarweise verschiedenen Eigenwerten
∀ j, k ∈ J :
linear unabhängig.
63
λj ;
und sei (vj , j
genauer gelte
K,
j 6= k =⇒ λj 6= λk .
∈ J)
ein
Beweis:
(v1 , . . . , vn ) zu betrachten,
n. Für n = 1 ist die Behauptung
da ein Eigenvektor
Pklar,
n
α
nie der Nullvektor ist. Sei jetzt also n ≥ 2, und seien α1 , . . . , αn ∈ K so, dass
k vk = 0 ist. Dann
k=1
Pn
Pn
folgt 0 = T (0) =
k=1 αk T (vk ) =
k=1 αk λk vk . Durch Kombination dieser Gleichungen folgt
Für den Beweis genügt es wegen Aufgabe 1.4.5, ein endliches System
und wir geben den Beweis durch Induktion über
0 =
n
X
αk λk vk
− λn
n
X
k=1
αk vk
=
k=1
n−1
X
αk λk − λn vk .
k=1
(v1 , . . . , vn−1 ) linear unabhängig, und daher folgt 0 =
αk λk − λn für 1 ≤ k ≤ n − 1. Nach Voraussetzung ist λk 6= λn für k ≤ n − 1, und somit folgt 0 = αk
für k ≤ n − 1. Dann ist aber αn vn = 0, woraus wegen vn 6= 0 folgt, dass auch αn = 0 ist.
2
Wegen der Induktionshypothese ist das System
Satz 6.9.5
Sei
T
ein Endomorphismus eines Raumes
|λ| = 1
V
mit Skalarprodukt.
(a) Wenn
T
längentreu ist, so ist
(b) Wenn
T
selbstadjungiert ist, dann sind alle Eigenwerte von
für alle Eigenwerte
λ
von
T
T.
reell, und Eigenvektoren zu verschie-
denen Eigenwerten sind orthogonal zueinander.
(c) Wenn
T
positiv bzw. negativ denit ist, dann sind alle Eigenwerte von
positiv bzw. negativ semidenit ist, dann sind alle Eigenwerte von
(d) Wenn
T
T
T
T ad
normal und
v
ein Eigenvektor von
zum Eigenwert
λ.
T
zum Eigenwert
λ
positiv bzw. negativ, wenn
T
nichtnegativ bzw. nichtpositiv.
einen positiven und einen negativen Eigenwert hat, dann ist
(e) Wenn
von
T
T
indenit.
ist, dann ist
v
auch Eigenvektor
Auÿerdem stehen Eigenvektoren zu verschiedenen Eigenwerten sind
orthogonal zueinander.
Beweis:
T v = λ v folgt kT vk = |λ| kvk, und daraus folgt (a). Zu (b): Aus (6.6.1) folgt für ein
T die Gleichung hT v1 , v2 i = hv1 , T v2 i für alle v1 , v2 ∈ V . Wenn T v = λ v ist, folgt
λ hv, vi = hv, λvi = hv, T vi = hT v, vi = λ hv, vi, und da hv, vi = kvk2 6= 0 ist, folgt hieraus λ = λ, also
λ ∈ R. Sei jetzt T vj = λj vj für j = 1 und j = 2. Dann folgt (da ja λj ∈ R sein muss)
Aus
selbstadjungiertes
(λ1 − λ2 ) hv1 , v2 i = hλ1 v1 , v2 i − hv1 , λ2 v2 i = hT v1 , v2 i − hv1 , T v2 i .
T selbstadjungiert ist, verschwindet die rechte Seite dieser Gleichung, und falls λ1 6= λ2 ist, folgt
hv1 , v2 i = 0. Zu (c),(d): Folgt aus der jeweiligen Denition und der Gleichung λ kvk2 = λ hv, vi = hv, T vi
für jeden Eigenvektor v zum Eigenwert λ. Zu (e): Wenn T normal ist, dann zeigt man mit Aufgabe 6.6.5,
ad
dass auch T − λ id normal ist, denn (T − λ id)
= T ad − λ id, und die identische Abbildung kommutiert
mit jedem Endomorphismus. Deshalb reicht es, wenn wir den Fall λ = 0, also T v = 0, betrachten. In
Da
diesem Fall gilt aber
hT ad v, T ad vi = hv, T ◦T ad vi = hv, T ad ◦T vi = hT v, T vi .
T v = 0 ist genau wenn T ad v = 0 ausfällt. Sei jetzt wieder T vj = λj vj ,
j = 1 und j = 2. Dann folgt (da jetzt die Eigenwerte nicht immer reell sind)
Daraus ergibt sich aber, dass
also auch
T
ad
vj = λj vj
für
(λ1 − λ2 ) hv1 , v2 i = hλ1 v1 , v2 i − hv1 , λ2 v2 i = hT ad v1 , v2 i − hv1 , T v2 i .
Aus der Denition der adjungierten Abbildung folgt aber dann dass die rechte Seite verschwindet.
64
2
Kapitel 7
Lineare Abbildungen und Matrizen
In diesem Kapitel seien
V
beiden habe die Dimension
und
0,
W
immer endlich-dimensionale Vektorräume über
K,
und keiner von
also beide enthalten mehr als nur den Nullvektor.
7.1 Die Darstellungsmatrix
Denition 7.1.1
lineare Abbildung
Seien (v1 , . . . , vn ) bzw. (w1 , . . . , wm ) fest gewählte Basen von V
T ∈ L(V, W ) gibt es eindeutig bestimmte Zahlen ajk ∈ K mit
T vk =
m
X
bzw.
∀ k = 1, . . . , n .
ajk wj
W.
Für jede
(7.1.1)
j=1
Die hierdurch denierte Matrix
gewählten Basen
Beispiel 7.1.2
(v1 , . . . , vn )
Im Fall
A = [ajk ] ∈ Km×n
(w1 , . . . , wm ).
heiÿt die Darstellungsmatrix für
T
bezüglich der
und
V = W,
also für einen Endomorphismus
le
(v1 , . . . , vn )
T ∈ L(V ),
ist es sinnvoll, wengleich
wj = vj ist für alIn dieser Situation ist die Darstellungsmatrix für die identische Abbildung gerade die
n
m
m×n
Einheitsmatrix. Für V = K und W = K
deniert jede Matrix A ∈ K
eine lineare Abbildung
auch nicht zwangsläug, wenn wir nur eine Basis
wählen, wenn also
j = 1, . . . , n.
x 7−→ A x
zwischen diesen Räumen. Wählt man in beiden Räumen die kanonischen Basen, so ist die
Darstellungsmatrix dieser Abbildung gleich
Aufgabe 7.1.3
Basis von
V
Zeige: Ein Endomorphismus
T ∈ L(V )
ist genau dann diagonalisierbar, wenn es eine
gibt, bezüglich der die Darstellungsmatrix von
Aufgabe 7.1.4
und sei
A.
T
diagonal ist.
V = W = Kn [t] der Raum der Polynome vom Grad ≤ n mit Koezienten in K,
die Ableitung von p, für p ∈ Kn [t]. Finde die Darstellungsmatrix von T bezüglich der
Sei
T p = p 0,
kanonischen Basis der Monome.
Satz 7.1.5
Seien (v1 , . . . , vn ) bzw. (w1 , . . . , wm ) fest gewählte Basen von V bzw. W . Für jede lineare
T ∈ L(V, W ) sei A = AT = [ajk ] die Darstellungsmatrix bezüglich dieserP
Basen. Dann ist
n
m×n
die Zuordnung T 7−→ AT ein Isomorphismus von L(V, W ) auf K
, und für v =
k=1 αk vk sowie
Pm
w = j=1 βj wj gilt T v = w genau dann, wenn
Abbildung
βj =
n
X
∀ j = 1, . . . , m .
ajk αk
k=1
65
Beweis:
A ∈ Km×n ein T ∈ L(V, W ) mit (7.1.1), und deshalb ist
die Zuordnung T 7−→ AT surjektiv. Sind T1 , T2 ∈ L(V, W ) mit Darstellungsmatrizen A1 und A2 , und
sind α1 , α2 ∈ K, so gilt (α1 T1 + α2 T2 ) vk = α1 T1 v1 + α2 T2 vk für alle k = 1, . . . , n, und daher ist
α1 A1 + α2 A2 die Darstellungsmatrix zu α1 T1 + α2 T2 . Also ist die Zuordnung T 7−→ AT linear. Wegen
dim L(V, W ) = dim Km×n = n m folgt mit Aufgabe 6.4.2, dass die Abbildung T 7−→ AT auch injektiv
sein muss. Der Rest des Beweises ist Inhalt der nächsten Übungsaufgabe.
2
Nach Satz 6.3.1 gibt es zu jedem
Aufgabe
7.1.6
P
v=
n
k=1
αk vk
Zeige unter den Voraussetzungen und mit den Bezeichnungen des obigen Satzes: Ist
Pm
Pn
T v = j=1 βj wj , so folgt βj = k=1 ajk αk , für j = 1, . . . , m.
und
Bemerkung 7.1.7 (Kommutatives Diagramm)
Den Inhalt des obigen Satzes kann man sich am bes-
ten folgendermaÿen einprägen: Nach Wahl der beiden Basen von V und W betrachten wir die beiden
Pn
n
m
kanonischen Isomorphismen φn : V −→ K und φm : W −→ K , die jedem Vektor v =
k=1 αk vk und
Pm
w = j=1 βj wj ihre Koordinatenvektoren φn (v) = (α1 , . . . , αn )T und φm (w) = (β1 , . . . , βm )T zuweisen.
n
m
Die Darstellungsmatrix A bildet K nach K
ab, und es gilt
A φn (v) = φm (T v)
∀v∈V .
Dies wird auch durch folgendes kommutatives Diagramm veranschaulicht:
−→
Rn
−→
φn
Beachte aber unbedingt, dass die Matrix
beiden Basen in
V
und
W
T
V


y
A
W


y
A
φm
Rm
und auch die kanonischen Isomorphismen erst nach Wahl der
festliegen; wie diese Gröÿen sich bei Basiswechsel verändern, wird noch zu
untersuchen sein.
Satz 7.1.8
Seien U, V, W drei endlich-dimensionale Vektorräume über K mit Basen (u1 , . . . , ur ) bzw.
(v1 , . . . , vn ) bzw. (w1 , . . . , wm ). Seien weiter T1 ∈ L(U, V ), T2 ∈ L(V, W ) und T = T2 ◦T1 . Wenn dann
(2)
A1 = [a(1)
jk ] und A2 = [ajk ] die Darstellungsmatrizen zu T1 bzw. T2 sind, so ist die Darstellungmatrix zu
T gleich dem Produkt A2 A1 , jeweils bezüglich der entsprechenden Basen.
Beweis:
Nach Denition der darstellenden Matrizen gilt
T1 uk =
n
X
a(1)
jk vj
(k = 1, . . . , r) ,
T 2 vk =
j=1
m
X
a(2)
jk wj
(k = 1, . . . , n) .
j=1
Hieraus folgt sofort
T uk =
n
X
a(1)
νk T2 vν =
ν=1
m X
n
X
j=1
(2)
a(1)
jν aνk wj
(1 ≤ k ≤ r) .
ν=1
2
Dies ist die Behauptung.
Korollar zu Satz 7.1.8
Seien V und W Vektorräume über K mit derselben, endlichen, Dimension
n ∈ N, und seien (v1 , . . . , vn ) bzw. (w1 , . . . , wn ) fest gewählte Basen von V bzw. W . Eine lineare Abbildung
T ∈ L(V, W ) ist genau dann ein Isomorphismus, wenn ihre Darstellungsmatrix A invertierbar ist, und die
−1
Darstellungsmatrix zu T
∈ L(W, V ) bzgl. der Basen (w1 , . . . , wn ) und (v1 , . . . , vn ) ist gleich A−1 .
Beweis:
vk = T
−1
T ein Isomorphismus, und
(T vk ) für alle k = 1, . . . , n folgt
Sei
sei die Darstellungsmatrix von
T −1
dann, dass die Darstellungmatrix zu
mit B
T −1 ◦T
bezeichnet. Wegen
die Einheitsmatrix
B A = I . Also ist A invertierbar und B = A−1 .
−1
Umgekehrt, wenn A invertierbar ist, und wenn T̃ ∈ L(W, V ) die Darstellungsmatrix A
hat, so folgt
−1
T̃ (T vk ) = vk für alle k = 1, . . . , n. Daraus folgt aber, dass T bijektiv und T̃ = T
sein muss.
2
sein muss, und deshalb folgt mit Satz 7.1.8 die Gleichung
66
7.2 Basiswechsel
Lemma 7.2.1
Sei V ein n-dimensionaler Vektorraum über K, und sei das System (v1 , . . . , vn ) eine
Pn
V . Für ein B = [bjk ] ∈ Kn×n seien ṽk = j=1 bjk vj für k = 1, . . . , n gesetzt. Genau dann ist
(ṽ1 , . . . , ṽn ) ebenfalls Basis von V , wenn B invertierbar ist.
Basis von
Beweis:
j=
Pn
Pn
Pn
k=1 λk ṽk =
j=1
k=1 bjk λk vj genau dann wenn
k=1 bjk λk = 0 ist für alle
1, . . . , n. Dies bedeutet, dass die Linearkombination der Spalten von B mit den Koezienten λk den
0=
Es ist
Pn
Nullvektor ergibt. Die Invertierbarkeit von
Spalten von
B,
B
ist gleichbedeutend mit der linearen Unabhängigkeit der
und dies ist somit dasselbe wie die lineare Unabhängigkeit von
(ṽ1 , . . . , ṽn ).
2
Satz 7.2.2 (Basiswechsel)
Seien V und W zwei endlich-dimensionale Vektorräume über K, und seien
(v1 , . . . , vn ) und (ṽ1 , . . . , ṽn ) zwei Basen von V , sowie (w1 , . . . , wm ) und (w̃1 , . . . , w̃m ) zwei Basen von
W . Seien B = [bjk ] ∈ Kn×n bzw. C = [cjk ] ∈ Km×m so, dass
ṽk =
n
X
bjk vj
(1 ≤ k ≤ n) ,
w̃k =
j=1
Schlieÿlich sei
(v1 , . . . , vn )
m
X
cjk wj
(1 ≤ k ≤ m) .
(7.2.1)
j=1
T ∈ L(V, W ), und A bzw. Ã seien die Darstellungsmatrizen zu T , einmal bezüglich
(w1 , . . . , wm ), sowie zum anderen bezüglich (ṽ1 , . . . , ṽn ) und (w̃1 , . . . , w̃m ). Dann gilt
und
à = C −1 A B .
Beweis:
für
Nach Denition der Darstellungsmatrizen gilt
k = 1, . . . , n.
T vk =
Pm
j=1
ajk wj , T ṽk =
Pm
j=1
ãjk w̃j , jeweils
Einsetzen von (7.2.1) ergibt die Gleichung
m X
n
X
j=1
m X
m
X
ajν bνk wj =
cjµ ãµk wj
ν=1
j=1
∀ k = 1, . . . , n .
µ=1
Bringt man beide Summen auf eine Seite, so folgt unter Benutzung der linearen Unabhängigkeit von
(w1 , . . . , wm ),
dass
0=
Pn
ν=1
ajν bνk −
Pm
µ=1 cjµ
ãµk
ist für alle
j = 1, . . . , m
Denition 7.2.3
und
k = 1, . . . , n.
Dies ist
2
die Behauptung.
Nach dem Satz vom Basiswechsel sind die beiden Darstellungsmatrizen derselben li-
nearen Abbildung zu verschiedenen Paaren von Basen von
V
und
folgt mit Lemma 7.2.1, dass mit einer Darstellungsmatrix von
T
W
zueinander äquivalent. Umgekehrt
auch jede zu dieser äquivalente Matrix
eine Darstellungsmatrix zu anderen Basen ist. Wir sagen deshalb: Die Darstellungsmatrix einer linearen
Abbildungen zwischen endlich-dimensionalen Vektorräumen ist bis auf Äquivalenz eindeutig bestimmt.
7.3 Ähnliche Matrizen
Wie schon früher gesagt, kann man bei Endomorphismen
die in
V,
wählen, um die Darstellungsmatrix von
T
T ∈ L(V ) sinnvollerweise nur eine Basis, nämlich
zu vereinfachen. Dies führt zu folgendem Begri der
Ähnlichkeit von Matrizen:
Denition 7.3.1
B ∈ Kn×n
Matrizen
A, Ã ∈ Kn×n
heiÿen ähnlich zueinander, wenn es eine invertierbare Matrix
gibt, für die
à = B −1 A B .
67
Aufgabe 7.3.2 (Ähnliche Matrizen mit MAPLE)
MAPLE kann prüfen, ob Matrizen ähnlich sind.
Überprüfe dies an Hand der Kommandos
> restart;
> with(LinearAlgebra);
> A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]);
> B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]);
> IsSimilar(A,B);
Was hier genau geschieht, und wie man auch zu Fuÿ die Ähnlichkeit von Matrizen zeigen oder widerlegen
kann, wird erst später klarer werden.
Aufgabe 7.3.3
Zeige, dass der Begri der Ähnlichkeit eine Äquivalenzrelation auf
Kn×n
darstellt. Zeige
weiter, dass ähnliche Matrizen immer dieselbe Determinante haben.
Als einfache Folgerung aus dem Satz vom Basiswechsel im letzten Abschnitt erhalten wir das analoge
Resultat für Endomorphismen:
Satz 7.3.4 (Basiswechsel bei Endomorphismen)
Sei
von
V ein endlich-dimensionaler Vektorraum
V . Sei B = [bjk ] ∈ Kn×n so, dass
ṽk =
über
n
X
K,
bjk vj
und seien
(v1 , . . . , vn )
und
(ṽ1 , . . . , ṽn )
zwei Basen
(1 ≤ k ≤ n) .
(7.3.1)
j=1
Schlieÿlich sei
T ∈ L(V ), und A bzw. Ã seien die Darstellungsmatrizen zu T , einmal bezüglich (v1 , . . . , vn ),
(ṽ1 , . . . , ṽn ). Dann gilt
sowie zum anderen bezüglich
à = B −1 A B .
Denition 7.3.5 (Determinante eines Endomorphismus)
einen endlich-dimensionalen Raum
stellungsmatrizen von
T
V,
Ein Endomorphismus
T ∈ L(V ),
für
hat zwar unterschiedliche Darstellungsmatrizen, aber alle Dar-
sind zueinander ähnlich und haben insbesondere dieselbe Determinante. Deshalb
können wir die Determinante von
T
als die Determinante einer der Darstellungsmatrizen von
T
denie-
ren.
Aufgabe 7.3.6
Finde die Determinante des Endomorphismus
p 7−→ p0
von
Kn [t], n ∈ N0 ,
in sich.
7.4 Hermitesche, normale und unitäre Matrizen
Satz 7.4.1
Gegeben seien endlich-dimensionale Räume V und W über K mit Skalarprodukten. Sei A ∈
Km×n die Darstellungsmatrix für ein T ∈ L(V, W ) bzgl. zweier Orthonormalbasen (v1 , . . . , vn ) und
T
(w1 , . . . , wm ) von V bzw. W . Dann hat die adjungierte Abbildung T ad die Darstellungsmatrix A bzgl.
der Basen (w1 , . . . , wm ) und (v1 , . . . , vn ).
68
Beweis:
Sei die Darstellungsmatrix von
T ad
k = 1, . . . , n
und
Darstellungsmatrizen für alle
T vk =
m
X
mit B = [bjk ]
ν = 1, . . . , m
bezeichnet. Dann gilt nach Denition der
n
X
T ad wν =
ajk wj ,
Mit den Regeln für Skalarprodukte folgt dann
Pm
j=1
ajk hwν , wj i = aνk ,
Denition 7.4.2
Pn
hT ad wν , vk i =
µ=1 bµν
und aus (6.6.1) folgt die Behauptung.
Eine Matrix
A ∈ Kn×n
heiÿt hermitesch, falls
eine solche Matrix auch symmetrisch. Wir nennen
Aufgabe 7.4.3
bµν vµ .
µ=1
j=1
A
T
A =A
hvµ , vk i = bkν , hwν , T vk i =
2
K = R nennt
T
T
A A = A A ist.
ist. Im Fall
normale Matrix, wenn
man
Zeige, dass eine Diagonalmatrix immer normal ist. Zeige weiter, dass die Diagonalele-
mente einer hermiteschen Matrix immer reelle Zahlen sind.
Korollar zu Satz 7.4.1
Sei V ein endlich-dimensionaler Raum mit Skalarprodukt. Genau dann ist
T ∈ L(V ) selbstadjungiert, wenn seine Darstellungsmatrix bezüglich irgendeiner
Orthonormalbasis von V hermitesch ist. Weiter ist T genau dann normal, wenn seine Darstellungsmatrix
bezüglich irgendeiner Orthonormalbasis von V normal ist.
ein Endomorphismus
Denition 7.4.4
T
n×n
Eine Matrix A ∈ K
heiÿt unitär, falls A A = I ist. Insbesondere ist eine unitäre
T
−1
Matrix invertierbar, und A
= A . Im Fall K = R nennt man eine solche Matrix auch orthogonal.
Aufgabe 7.4.5 (MAPLE und unitäre Matrizen)
Untersuche, ob MAPLE eine Matrix auf Ortho-
gonalität und Unitarität prüfen kann.
Aufgabe 7.4.6
Sei
A
eine quadratische
betrachtet. Zeige: Genau dann ist
A
n-reihige
Matrix, und sei in
unitär, wenn die Spalten von
A
Kn
das kanonische innere Produkt
Kn bilden.
ein Orthonormalsystem in
In welchem Sinn gilt dasselbe auch für die Zeilen? Zeige weiter: Ist A unitär, und ist
2
2
so folgt kyk = kxk , d. h., die Abbildung x 7−→ A x ist längentreu.
y = Ax
für ein
x ∈ Kn ,
Satz 7.4.7
Gegeben seien endlich-dimensionale Räume
n = dim V = dim W ≥ 1. Sei A ∈ Kn×n die
Orthonormalbasen (v1 , . . . , vn ) und (w1 , . . . , wn )
V
und
W
über
K
mit Skalarprodukten, und sei
Darstellungsmatrix für ein
von
V
bzw.
W.
T ∈ L(V, W ) bzgl. zweier
T längentreu, wenn A
Genau dann ist
unitär ist.
Beweis:
P
n
ν=1
Wenn
aνj wν
für
T längentreu ist, folgt hT vj , T vk i = hvj , vk i = δjk
j = 1, . . . , n folgt daraus
δjk =
n X
n
X
für
1 ≤ j, k ≤ n.
Wegen
T vj =
aνj aµk ,
ν=1 µ=1
T
−1
Pn A invertierbar und A = A . Dann folgt
für v =
T v = j=1 βj wj mit βj = k=1 ajk αk : Wegen Aufgabe 5.4.1 ist kT vk2 =
k=1 αk vj , also
Pn
Pn
2
2
2
2
j=1 |βj | und kvk =
k=1 |αk | , und aus Aufgabe 7.4.6 folgt kT vk = kvk, also die Längentreue.
was die eine Richtung der Behauptung ist. Umgekehrt, sei
Pn
Aufgabe 7.4.8
Pn
Beweise folgendes Analogon zu Lemma 7.2.1:
69
Lemma 7.4.9
Sei V ein n-dimensionaler Vektorraum über K mit innerem Produkt, und sei das System
Pn
(v1 , . . . , vn ) eine Orthonormalbasis von V . Für ein U = [ujk ] ∈ Kn×n seien ṽk = j=1 ujk vj für k =
1, . . . , n gesetzt. Genau dann ist (ṽ1 , . . . , ṽn ) ebenfalls Orthonormalbasis von V , wenn U unitär ist.
Aufgabe 7.4.10
Zeige: Wenn
V
ein endlich-dimensionaler Raum über
gilt für jeden längentreuen Automorphismus von
K = R,
V
immer
| det T | = 1
K
mit innerem Produkt ist, dann
gilt. Schlieÿe hieraus für den Fall
dass es zwei Arten von längentreuen Automorphismen gibt, und vergleiche dies mit Abschnitt 9.2.
7.5 Charakteristisches Polynom
Denition 7.5.1
Für
A ∈ Kn×n
heiÿt
pA (t) = det A − t I)
das charakteristische Polynom der Matrix
ein Polynom
n-ten
A.
(7.5.1)
Aus der Denition der Determinante folgt sofort, dass
Grades in der Veränderlichen
t
pA
ist, und genauer gilt
pA (t) = (−1)n tn + (−1)n−1 tn−1 tr A ± . . . + det A ,
wobei tr A
= a11 + . . . + ann
Aufgabe 7.5.2
die sogenannte Spur von
A
bezeichnet.
Zeige, dass ähnliche Matrizen immer das gleiche charakteristische Polynom haben.
Aufgabe 7.5.3 (MAPLE und charakteristische Polynome)
Das charakteristische Polynom kann
bei kleineren Matrizen leicht berechnet werden. Überprüfe dies an den Beispielen

1
A =  0
2

0 1
1 1  ,
−1 1

1
B =  0
0
1
1
1

2
1  .
1
Benutze hierzu auch die folgenden MAPLE-Kommandos:
> restart;
> with(LinearAlgebra);
> A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]);
> B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]);
> PA := CharacteristicPolynomial(A,t);
> factor(PA);
> PB := CharacteristicPolynomial(B,t);
> factor(PB);
Beachte aber, dass das von MAPLE berechnete charakteristische Polynom gleich
det(t I − A)
ist. Ob
man dieses oder das von uns benutzte Polynom vorzieht, ist Ansichtssache. Was bedeutet wohl das letzte
Kommando?
70
Aufgabe 7.5.4
Seien
n∈N
a0 , . . . , an−1 ∈ K.

0 1 0
 0 0 1

 ..
.
.
.
.

.
.
A =  .
 0 0 0

 0 0 0
a0 a1 a2
und
Finde das charakteristische Polynom der Matrix
...
...
...
...
...

0
0
0
0
.
.
.
.
.
.
1
0
0
1
an−2
an−1








(7.5.2)
durch Entwicklung nach der letzten Zeile. Schlieÿe dann, dass es zu jedem p ∈ K[t] vom Grad n und
n
n×n
mit höchstem Koezienten gleich (−1) eine Matrix A ∈ K
gibt, deren charakteristisches Polynom
gerade gleich
p
ist.
Bemerkung 7.5.5 (Fundamentalsatz der Algebra)
Ein Resultat, welches wir hier benutzen aber
nicht beweisen wollen, ist das folgende:
•
Jedes nicht konstante Polynom
p ∈ K[t]
hat in dem Körper
C
der komplexen Zahlen mindestens
eine Nullstelle.
Hat man eine Nullstelle
λ
eines Polynoms
p
gefunden, so kann man
p
in der Form
p(t) = (t − λ) q(t)
schreiben, wobei
q
wieder ein Polynom ist. Dieses ist entweder konstant oder hat selbst wieder eine Null-
stelle. Iteriert man diese Schlussweise, so folgt die Darstellung
p(t) = a (t − λ1 ) · . . . · (t − λn ) ,
n
wobei
der Grad des Polynoms
p
und
a 6= 0
genau
s-mal
auftritt, dann heiÿt
s
λ1 , . . . , λn sind,
λ1 , . . . , λn eine Zahl λ
sein höchster Koezient ist. Die Werte
nicht notwendigerweise verschiedene, komplexe Zahlen. Wenn unter den Zahlen
die Vielfachheit der Nullstelle
λ.
Es gilt dann oenbar
s
einer Nullstelle
p(t) = (t − λ)s q(t)
q,
mit einem Polynom
für welches
q(λ) 6= 0
ist. Die Vielfachheit
λ
erkennt man auch
daran, dass gilt:
0 = p(λ) = p0 (λ) = . . . = p(s−1) (λ) ,
p(s) (λ) 6= 0 .
Es ist wichtig zu beachten, dass die Nullstellen eines Polynoms alle oder teilweise nicht-reell sein können,
selbst wenn
K = R
ist, d. h., wenn die Koezienten des Polynoms reell sind. Es gilt aber folgende
Aussage:
•
Wenn
p ∈ R[t]
komplexe Zahl
ist, also reelle Koezienten hat, dann ist für jede Nullstelle
λ
eine Nullstelle von
p,
λ
auch die konjugiert
und beide haben dieselbe Vielfachheit.
Somit treten die nicht-reellen Nullstellen eines
p ∈ R[t]
immer in Paaren von zueinander konjugiert-
komplexen Zahlen auf.
Aufgabe 7.5.6
Zeige: Ein Polynom
Denition 7.5.7
L(V )
Sei
V
p ∈ R[t]
mit ungeradem Grad hat mindestens eine reelle Nullstelle.
ein endlich-dimensionaler Vektorraum über
K.
Wenn ein Endomorphismus
T ∈
gegeben ist, hängt zwar seine Darstellungsmatrix, nicht aber deren charakteristisches Polynom, von
der Wahl einer Basis von
Endomorphismus
T
V
ab, und wir sprechen deshalb auch vom charakteristischen Polynom des
und schreiben auch
pT
für dieses Polynom. Zur Berechnung dieses charakteristischen
Polynoms müssen wir aber eine konkrete Basis von
bestimmen, und für diese
pA
V
berechnen.
71
nden, dann die entsprechende Darstellungsmatrix
Aufgabe 7.5.8
N0 ,
Berechne das charakteristische Polynom des Endomorphismus
p 7−→ p0
von
Kn [t], n ∈
in sich.
Satz 7.5.9
Sei
n ∈ N, sei V
pT .
ein
n-dimensionaler
Vektorraum über
K,
und sei
T ∈ L(V )
mit charakte-
ristischem Polynom
(a) Genau dann ist ein
λ∈K
Eigenwert von
T,
pT (λ) = 0
wenn
ist.
(v1 , . P
. . , vn ) eine Basis von V , und ist A die Darstellungsmatrix von T zu dieser Basis, so ist
n
v = k=1 αk vk ∈ V genau dann ein Eigenvektor von T zu einem Eigenwert λ ∈ K, wenn der
T
Vektor (α1 , . . . , αn ) eine nicht-triviale Lösung des homogenen linearen Gleichungssystems
A − λI x = 0
(7.5.3)
(b) Ist
ein
ist. Anders ausgedrückt liegt ein solches
(α1 , . . . , αn )T
(c) Wenn das charakteristische Polynom
(d) Wenn
V
genau dann im Eigenraum von
n
verschiedene Nullstellen in
ein Raum mit Skalarprodukt und
charakteristischen Polynoms von
Beweis:
v
T
zum Eigenwert
λ,
wenn
eine beliebige Lösung von (7.5.3) ist.
Genau wenn
T
det(A − λ I) = 0
T
K
hat, ist
T
diagonalisierbar.
selbstadjungiert ist, dann sind alle Nullstellen des
reell.
ist, besitzt (7.5.3) eine nicht-triviale Lösung, und daher folgt
Pn
T v = w = k=1 βk vk genau dann, wenn a = (α1 , . . . , αn )T
b = A a erfüllen. Also gilt T v = v genau dann, wenn A a = a
(a) aus (b). Zu (b): Nach Satz 7.1.5 gilt
und
gilt,
b = (β1 , . . . , βn )T
d. h., wenn a die
die Gleichung
Gleichung (7.5.3) erfüllt. Aussage (c) folgt, da Eigenvektoren zu verschiedenen
Eigenwerten immer linear unabhängig sind. Zu (d): Sei
Orthogonalbasis von
V.
Dann ist
x 7−→ A x
A
die Darstellungsmatrix von
T
bezüglich einer
ein selbstadjungierter Endomorphismus in
Cn ,
und jede
Nullstelle des charakteristischen Polynoms ist ein Eigenwert dieses Endomorphismus. Mit Satz 6.9.5 folgt
2
die Behauptung.
Bemerkung 7.5.10
Beachte dass ein Eigenwert eines
ren muss. Das bedeutet, dass im Fall
K=R
T ∈ L(V )
immer zum Skalarenkörper
K
gehö-
ein Endomorphismus keinen Eigenwert zu haben braucht.
Andererseits folgt aus dem Fundamentalsatz der Algebra, dass für
K=C
jeder Endomorphismus mindes-
tens einen Eigenwert besitzt. In den Übungen und Klausuren zur Vorlesung wird meistens eine Matrix
gegeben sein, deren Elemente reelle Zahlen sind. Wenn dann die Aufgabe lautet, deren Eigenwerte und Eigenvektoren zu berechnen, sollen immer alle, d. h., auch die komplexen Nullstellen des charakteristischen
Polynoms bestimmt und eine maximale Zahl von linear unabhängigen Lösungen von (7.5.3) gefunden
werden. Siehe dazu auch die folgenden Aufgaben.
Aufgabe 7.5.11
Finde alle Eigenwerte und Eigenvektoren der Matrizen

1
A =  0
2

0 1
1 1  ,
−1 1

1
B =  0
0
Entscheide, ob die Matrizen als Endomorphismen in
Aufgabe 7.5.12
1
1
1
Kn

2
1  ,
1
C =
1
1
0
1
.
diagonalisierbar sind.
A eine n-reihige quadratische Matrix, und sei pA (x) ihr charakteristisches Polynom.
A, also die Nullstellen von pA (x), wobei mehrfache Nullstellen auch
mehrfach aufgeschrieben seien, so dass die Zahlen λ1 , , . . . , λn nicht unbedingt alle verschieden sind. Zeige:
Seien
λ1 , , . . . , λn
Sei
die Eigenwerte von
n
Y
n
X
λk = det A
k=1
k=1
72
λk =
tr A .
Denition 7.5.13
Sei
n ∈ N, sei V
pT . Nach
charakteristischem Polynom
von
T.
ein
n-dimensionaler
Vektorraum über
Satz 7.5.9 ist jede in
K
K,
und sei
gelegene Nullstelle von
pT
T ∈ L(V )
Die Vielfachheit dieser Nullstelle heiÿt die algebraische Vielfachheit des Eigenwertes
Dimension des Eigenraumes zum Eigenwert
λ,
mit
ein Eigenwert
λ,
und die
also die maximale Anzahl von linear unabhängigen Ei-
genvektoren, heiÿt die geometrische Vielfachheit des Eigenwertes. Nach Denition eines Eigenwertes ist
die geometrische Vielfachheit immer
≥ 1. Zu jedem s ∈ N und jedem σ ∈ {1, . . . , s} ndet man leicht
λ mit algebraischer Vielfachheit s und geometrischer Vielfachheit
Endomorphismen, die einen Eigenwert
σ
haben. Siehe dazu die nächste Aufgabe.
Aufgabe 7.5.14
von
V.
n ∈ N, sei V ein n-dimensionaler Vektorraum über K, und sei (v1 , . . . , vn )
0 ≤ ν ≤ n − 1. Dann gibt es genau einen Endomorphismus T ∈ L(V ) mit
(
vk+1
(1 ≤ k ≤ ν) ,
T vk =
0
(ν < k ≤ n) .
Sei
Sei weiter
Basis
Berechne dessen Eigenwerte und ihre algebraischen und geometrischen Vielfachheiten.
Aufgabe 7.5.15
Berechne das charakteristische Polynom sowie alle Eigenwerte mit ihren jeweiligen
geometrischen und algebraischen Vielfachhheiten für die Matrix

0 1
 0 0

 .. ..

N =  . .
 0 0

 0 0
0 0
0
1

0 0
0 0 

.
. 
.
. 
.
. 
1 0 

0 1 
0 0
...
...
.
.
.
0
0
0
...
...
...
(7.5.4)
Vergleiche mit der vorangegangenen Aufgabe.
Satz 7.5.16
Sei
λ
von
Eigenwert
Beweis:
Sei
n ∈ N, sei V ein n-dimensionaler Vektorraum über K, und sei T ∈ L(V ). Für jeden
T ist die geometrische Vielfachheit höchstens gleich der algebraischen Vielfachheit.
(v1 , . . . , vs )
Darstellungsmatrix
A
T
(v1 , . . . , vn )
Basis des Eigenraums von
können wir dieses System zu einer Basis
von
T
zum Eigenwert
von
V
λ.
Nach dem Basisergänzungssatz
erweitern. Bezüglich dieser Basis hat die
die Form
A = [λ e1 , . . . , λ es , as+1 , . . . , an ]
wobei
ek
der
k -te
Einheitsvektor der kanonischen Basis von
das charakteristische Polynom
Kn
und die
a j ∈ Kn
sind. Daraus folgt für
pT :
pT (t) = det(A − t I) = (λ − t)s q(t) ,
mit

as+1,s+1 − t

 as+2,s+1



q(t) = det  ...


 an−1,s+1

an,s+1
as+1,s+2
...
as+1,n−1
as+1,n

as+2,s+2 − t
...
as+2,n−1
as+2,n
.
.
.
.
.
.





.




.
.
.
an−1,s+2
...
an−1,n−1 − t
an−1,n
an,s+2
...
an,n−1
ann − t
Daraus folgt, dass die algebraische Vielfachhheit des Eigenwertes mindestens
s
ist, und dies ist nach
2
Denition die geometrische Vielfachhheit.
73
Aufgabe 7.5.17
über
K
K
Zeige: Ein Endomorphismus
T ∈ L(V )
eines endlich-dimensionalen Vektorraumes
ist genau dann diagonalisierbar, wenn alle Nullstellen des charakteristischen Polynoms von
liegen und daher auch Eigenwerte von
T
T
V
in
sind, und wenn zusätzlich die geometrische Vielfachheit jedes
Eigenwertes gleich seiner algebraischen Vielfachheit ist.
Aufgabe 7.5.18 (Eigenwerte und Eigenvektoren mit MAPLE)
Finde selber heraus, inwieweit MAPLE die Eigenwerte und Eigenvektoren einer Matrix berechnen kann.
74
Kapitel 8
Normalformen und Denitheit von
Matrizen
In diesem Kapitel sei
V
ein endlich-dimensionaler Vektorraum über
K,
und
V
enthalte nicht nur den
Nullvektor. Wir wollen untersuchen, wie die einfachste Form der Darstellungsmatrix eines gegebenen
Endomorphismus von
V
aussieht. Da eine Darstellungsmatrix immer bis auf Ähnlichkeit bestimmt ist, ist
dies äquivalent zur Frage nach einer einfachsten Form einer quadratischen Matrix
A
unter Ähnlichkeit,
oder genauer, nach einem möglichst einfachen Repräsentanten innerhalb jeder Ähnlichkeitsklasse von
Matrizen. Beachte, dass in vielen der folgenden Resultate vorausgesetzt wird, dass die Nullstellen des
charakteristischen Polynoms eines Endomorphismus oder einer Matrix zu dem Skalarenkörper
diese Voraussetzung ist natürlich für den Fall
K=C
K gehören;
immer erfüllt.
8.1 Trigonalisierung
Satz 8.1.1
n-dimensionaler Vektorraum über K, und sei T ∈ L(V ) so, dass alle
T in K liegen. Dann gibt es eine Basis (v1 , . . . , vn ) von
V , bezüglich der die Darstellungsmatrix von T obere Dreiecksgestalt hat. Auf der Diagonalen dieser Darstellungsmatrix stehen dann die Eigenwerte von T entsprechend ihrer algebraischen Vielfachheit, und man
kann sogar die Reihenfolge dieser Eigenwerte beliebig vorschreiben. Falls V ein Raum mit Skalarprodukt
ist, kann zusätzlich (v1 , . . . , vn ) sogar als Orthonormalbasis gewählt werden.
Sei
n ∈ N,
sei
V
ein
Nullstellen des charakteristischen Polynoms von
Beweis:
Für
n = dim V = 1
ist nichts zu zeigen. Sei jetzt
bewiesen. Wir wählen einen beliebigen Eigenwert
Basisergänzungssatz können wir
V
(v1 = v)
λ
n ≥ 2,
und sei der Satz für
und dazu einen Eigenvektor
zu einer Basis
(v1 , . . . , vn )
von
V
v∈V
von
n − 1 schon
T . Nach dem
ergänzen, und im Fall dass
ein Skalarprodukt besitzt, kann dies sogar eine Orthonormalbasis sein. Die Darstellungsmatrix von
bezüglich dieser Basis hat dann die Form

λ
 0

A =  .
 ..
0
a12
a22
...
...
.
.
.
an2
...
75

a1n
a2n 

 = A1 + A2 ,
.
.

.
ann
T
mit

A1
λ
 0

=  .
 ..
0
a12
0
...
...
.
.
.
0
...


a1n
0 

 ,
.
.

.
0
A2
0
 0

=  .
 ..
0
0
a22
...
...
.
.
.
an2
...

0
a2n 

 .
.
.

.
ann
T1 bzw. T2 gerade so, dass ihre Darstellungsmatrizen bezüglich der
A1 bzw. A2 sind. Dann gilt T = T1 +T2 , und T2 bildet den Raum W = L(v2 , . . . , vn )
charakteristische Polynom von T hat die Form p(t) = (λ − t) q(t) mit q(t) = det(B − t I),


a22 . . . a2n


.
.
B =  ...
 .
.
Wir denieren jetzt Endomorphismen
gewählten Basis gleich
in sich ab. Das
wobei
an2
...
ann
B gerade die Darstellungsmatrix von T2 , als Abbildung von W in sich, bezüglich
(v2 , . . . , vn ) ist. Daher gehören alle Nullstellen des charakteristischen Polynoms von T2 zu K, und
Man erkennt aber, dass
der Basis
wir können nach Induktionshypothese schlieÿen, dass es eine Basis, ja sogar eine Orthonormalbasis im Fall
eines Raums mit Skalarprodukt,
(w2 , . . . , wn )
von
W
gibt, bezüglich der die Darstellungsmatrix von
T2
obere Dreiecksform hat, mit dem entsprechenden Zusatz für die Reihenfolge der Diagonalelemente. Dann
(v1 , w2 , . . . , wn ) eine Basis von V und sogar Orthonormalbasis bei Vorliegen eines Skalarproduktes, da
v1 zu jedem Vektor aus W orthogonal ist. Die Form der Darstellungsmatrizen von T1 und T2 (wobei T2
jetzt wieder als Abbildung von V in sich aufgefasst wird) hat sich bei diesem Basiswechsel nicht verändert,
aber die für T2 hat weitere Nullen in allen Positionen unterhalb der Diagonalen. Zusmmengenommen zeigt
das, dass die Darstellungsmatrix von T bezüglich der neuen Basis obere Dreiecksform hat.
2
ist
ja
Denition 8.1.2
Wir nennen zwei Matrizen A, B ∈
n×n
orthogonale Matrix U ∈ K
gibt, für welche B =
Matrizen
B
und
Kn×n unitär ähnlich, wenn es eine unitäre bzw.
T
T
U A U ist. Beachte, dass wegen U −1 = U die
A dann auch ähnlich zueinander sind. Wegen Lemma 7.4.9 sind die Darstellungsmatrizen
eines Endomorphismus bezüglicher zweier Orthonormalbasen immer unitär ähnlich.
Korollar zu Satz 8.1.1 (Schursches Lemma) Jede Matrix A ∈ Kn×n , für welche alle Nullstellen des
charakteristischen Polynoms in
Beweis:
K
liegen, ist unitär ähnlich zu einer oberen Dreiecksmatrix.
A ist die Darstellungsmatrix des Endomorphismus x 7−→ A x bezüglich der kaKn . Diese ist eine Orthonormalbasis bezüglich des kanonischen Skalarproduktes in
n
8.1.1 gibt es eine andere Orthonormalbasis in K , so dass die neue Darstellungsma-
Die Matrix
nonischen Basis in
Kn ,
und nach Satz
trix
B
ober Dreiecksgestalt hat. Nach Lemma 7.4.9 wird der Übergang von der kanonischen zur neuen
Orthonormalbasis gerade von einer unitären Matrix bewirkt, und daraus folgt die Behauptung.
2
8.2 Der Satz von Cayley-Hamilton
Denition 8.2.1
Sei V ein beliebiger Vektorraum über K, und sei T ∈ L(V ). Für eine natürliche Zahl
k ∈ N denieren wir T k als die k -malige Hintereinanderausführung der Abbildung T . Setzt
Pm mank noch
T 0 gleich der identischen Abbildung, so können wir dann für jedes Polynom p(t) =
k=0 pk t mit
Koezienten pk ∈ K die Abbildung
m
X
p(T ) =
pk T k
k=0
p(T ) ∈ L(V ) ist. Wir erhalten somit für jedes feste T ∈ L(V ) eine Abbildung
L(V ), und es ist nicht schwer zu sehen, dass diese Abbildung linear ist. Sie ist
bilden und stellen fest, dass
p 7−→ p(T )
von
K[t]
in
zusätzlich auch multiplikativ im Sinne der nächsten Aufgabe.
76
Aufgabe 8.2.2
•
Überprüfe folgende Rechenregel: Für Polynome
p = p1 p2
=⇒
p1 , p1 ∈ K[t]
und
T ∈ L(V )
gilt immer
p(T ) = p1 (T )◦p2 (T ).
Bemerkung 8.2.3
∈ Kn×n deniert man sinnvollerweise Ak als das k -fache Produkt
von A
I . Damit ist dann auch für jedes p ∈ K[t] eine Matrix p(A) ∈
Kn×n deniert. Wählt man in der Situation der obigen Denition eine Basis von V , und ist dann A die
Darstellungmatrix von T , so folgt aus Satz 7.1.8, dass p(A) die Darstellungsmatrix von p(T ) ist.
Für eine Matrix A
0
mit sich selber und setzt A =
Satz 8.2.4 (Cayley-Hamilton)
Sei
L(V ). Wenn p das charakteristische
in L(V ) bezeichnet.
Beweis:
(a) Sei
n ∈ N,
sei
V
ein
T
Polynom von
n-dimensionaler Vektorraum über K, und sei T ∈
p(T ) = 0, wobei 0 die Nullabbildung
ist, dann folgt
Wir unterscheiden zwei Fälle:
K = C.
Dann können wir nach Satz 8.1.1 eine Basis
Darstellungsmatrix
A = [ajk ]
von
T
(v1 , . . . , vn )
von
V
wählen, bezüglich der die
obere Dreiecksform hat. In diesem Fall ist (7.1.1) äquivalent zu der
Beziehung
(T − akk id) vk =
k−1
X
∀ k = 1, . . . , n ,
ajk vj
(8.2.1)
j=1
wobei
id
wieder die identische Abbildung in
V
bedeutet. Für das charakteristische Polynom ergibt sich
in diesem Fall die Darstellung
p(t) =
n
Y
(akk − t) .
k=1
Wir wollen nun durch Induktion beweisen, dass für jedes
akk id − T
Für
k=1
◦...◦
k = 1, . . . , n
a11 id − T vj = 0
gilt
∀ 1 ≤ j ≤ k.
(8.2.2)
k ∈ {1, . . . , n − 1} schon geführt.
ak+1,k+1 id − T auf beide Seiten von(8.2.2)
ak+1,k+1 id − T ◦ akk id − T ◦ . . . ◦ a11 id − T vj = 0 ∀ 1 ≤ j ≤ k .
folgt dies aus (8.2.1). Sei jetzt der Beweis für ein
Dann folgt
jedenfalls durch Anwenden von
Also ist noch der Fall
aνν id − T
j = k+1
zu behandeln. In diesem Fall können wir benutzen, dass die Abbildungen
miteinander kommutieren, und deshalb folgt mit Hilfe von (8.2.1) und der Induktionshypo-
these
ak+1,k+1 id − T ◦ akk id − T ◦ . . . ◦ a11 id − T vk+1
akk id − T ◦ . . . ◦ a11 id − T ◦ ak+1,k+1 id − T vk+1
− akk id − T
◦...◦
a11 id − T
k
X
aj,k+1 vj
=
=
=
0.
j=1
k + 1, und deshalb für alle k = 1, . . . , n richtig. Wendet man dies an für den Fall
k = n, so folgt p(T ) vj = 0 für alle j = 1, . . . , n. Da jedes v ∈ V eine Linearkombination der Basisvektoren
vj ist, folgt daraus wiederum p(T ) v = 0 für alle v ∈ V , und das war zu zeigen.
Also ist (8.2.2) auch für
(b) Sei jetzt
A die Darstellungsmatrix von T zu irgendeiner Basis von V . Dann ist x 7−→ A x
Cn mit dem gleichen charakteristischen Polynom p wie T . Aus (a) folgt deshalb
p(A) die Darstellungsmatrix von p(T ) ist, folgt hieraus wiederum p(T ) = 0.
2
K = R.
Sei
ein Endomorphismus von
p(A) = 0,
und da
77
Denition 8.2.5 (Minimalpolynom)
Nach dem Satz von Cayley-Hamilton gibt es zu jedem Endomor-
T eines n-dimensionalen Vektorraums V , mit n ∈ N, ein nicht-triviales Polynom p, für welches
p(T ) = 0 ist. In der Menge aller dieser Polynome gibt es immer eines mit minimalem Grad und höchstem Koezienten 1; wie wir gleich zeigen, ist dieses Polynom durch T eindeutig festgelegt, und es heiÿt
Minimalpolynom zu T .
phismus
Lemma 8.2.6
n ∈ N, sei V ein n-dimensionaler Vektorraum über K,
p ∈ K[t] \ {0}, welches folgende beiden Eigenschaften hat:
Sei
es ein Polynom
(a)
und sei
T ∈ L(V ).
Dann gibt
p(T ) = 0.
(b) Ist
p1 ∈ K[t]
Das Polynom
p
so, dass
p1 (T ) = 0
ist, so gibt es ein
q ∈ K[t]
mit
p1 = q p.
ist durch diese beiden Eigenschaften bis auf einen konstanten Faktor eindeutig festgelegt
und hat unter allen
p1 ∈ K[t] \ {0}
mit der Eigenschaft
p1 (T ) = 0
den kleinsten Grad.
Beweis:
Aus dem Satz von Cayley-Hamilton folgt die Existenz von Polynomen p ∈ K[t] \ {0} mit
p(T ) = 0, und unter allen diesen wählen wir ein p mit minimalem Grad. Ist p1 irgendein Polynom in
K[t], so gibt es immer q, r ∈ K[t], für welche p1 = q p + r gilt, wobei r entweder das Nullpolynom ist oder
einen echt kleineren Grad als p besitzt. Wenn dann auch p1 (T ) = 0 ist, folgt r(T ) = 0, woraus folgt dass
r tatsächlich das Nullpolynom ist, denn sonst ergäbe sich ein Widerspruch zur Wahl von p. Also sind (a)
und (b) erfüllt. Die Eindeutigkeit von p folgt aber ebenfalls, denn wenn p1 und p denselben Grad haben,
muss in (b) q konstant sein.
2
Aufgabe 8.2.7 (Minimalpolynom und MAPLE)
Finde heraus, wie man mit MAPLE Minimalpo-
lynome berechnen kann.
Aufgabe 8.2.8 (Nullstellen des Minimalpolynoms)
Zeige, dass das Minimalpolynom eines Endo-
morphismus genau die gleichen Nullstellen wie sein charakteristisches Polynom hat, allerdings im Allgemeinen mit geringerer Vielfachheit. Gib Beispiele von
n × n-
Matrizen an, für die das Minimalpolynom
ersten Grades ist.
Aufgabe 8.2.9 (Nilpotente Abbildungen) Man nennt einen Endomorphismus T
falls ein
n ∈ N
existiert, für welches
Nilpotenzgrad von
T.
Tn = 0
ist. Das kleinste
Bestimme für endlich-dimensionales
V
n ∈ N0
mit
∈ L(V ) nilpotent,
T n = 0 heiÿt auch der
das charakteristische Polynom sowie die
Form des Minimalpolynoms eines nilpotenten Endomorphismus.
8.3 Hauptachsentransformation
Satz 8.3.1 (Satz von der Hauptachsentransformation)
Sei n ∈ N, sei V ein n-dimensionaler VekK mit Skalarprodukt, und sei T ∈ L(V ) selbstadjungiert. Dann gibt es eine Orthonormalbasis
in V , bezüglich der die Darstellungsmatrix von T diagonal ist. Anders ausgedrückt heiÿt das: Es gibt eine
Orthonormalbasis von V , die aus Eigenvektoren von T besteht.
torraum über
Beweis:
in
K.
Nach Satz 7.5.9 (d) sind alle Nullstellen des charakteristischen Polynoms von
T
reell, also sicher
Daher kann Satz 8.1.1 angewandt werden und sichert, dass eine Orthonormalbasis von
bezüglich der die Darstellungsmatrix von
T
V
existiert,
obere Dreiecksform hat. Nach dem Korollar zu Satz 7.4.1
ist aber diese Darstellungsmatrix hermitesch. Die einzigen hermiteschen Dreiecksmatrizen sind aber die
2
Diagonalmatrizen. Das ist die Behauptung.
78
Denition 8.3.2
n×n
Wir nennen eine Matrix A ∈ K
unitär diagonalisierbar, wenn es eine unitäre bzw.
T
n×n
orthogonale Matrix U ∈ K
gibt, für welche B = U A U diagonal ist.
Korollar zu Satz 8.3.1
und ist
A ∈ Kn×n
Jede hermitesche Matrix
A
ist unitär diagonalisierbar. Genauer: Ist n ∈ N,
U ∈ Kn×n und eine Diagonalmatrix Λ, für
hermitesch, so gibt es eine unitäre Matrix
welche
AU = U Λ
ist. Die Diagonalelemente von
Eigenvektoren von
Beweis:
A,
Λ
Die Abbildung
A,
sind gerade die Eigenwerte von
in der zu den Diagonalelementen von
x 7−→ A x
Λ
und die Spalten von
U
sind die
passenden Reihenfolge.
ist ein selbstadjungierter Endomorphismus in
Kn ,
und damit folgt
die Behauptung aus dem Satz von der Hauptachsentransformation.
Aufgabe 8.3.3
Berechne ein System von
3
2
orthonormalen Eigenvektoren zur Matrix

1
A =  0
1
0
1
1

1
1  .
1
8.4 Diagonalisierung normaler Endomorphismen
Satz 8.4.1
L(V ).
(a)
Sei
n ∈ N,
sei
V
ein
n-dimensionaler
Vektorraum über
K
mit Skalarprodukt, und sei
T ∈
Dann sind folgende Aussagen äquivalent:
T
ist normal, und alle Nullstellen des charakteristischen Polynoms liegen in
(b) Es gibt eine Orthonormalbasis von
Beweis:
V,
die aus Eigenvektoren von
Wenn es eine Orthonormalbasis aus Eigenvektoren von
lungsmatrix von
T
T
T
K.
besteht.
gibt, dann ist die zugehörige Darstel-
diagonal, und die Diagonalelemente sind gerade die Nullstellen des charakteristischen
Polynoms, liegen also in
K.
Da jede Diagonalmatrix eine normale Matrix ist, folgt aus dem Korollar zu
Satz 7.4.1 die Normalität von
T.
Also folgt (a) aus (b). Für die Umkehrung gehen wir induktiv vor: Für
n ≥ 2, und sei der Satz für n − 1 bewiesen. Sei v ein beliebiger
T zu einem Eigenwert λ, und sei U das orthogonale Komplement zu v , also die Menge
ad
aller u ∈ V mit hv, ui = 0. Dann gilt hv, T ui = hT
v, ui, und nach Satz 6.9.5 (e) folgt T ad v = λ v . Also
folgt hv, T ui = 0 für alle u ∈ U , und somit bildet T den (n − 1)-dimensionalen Raum U in sich ab. Nach
Induktionshypothese gibt es also in U eine Orthonormalbasis aus Eigenvektoren von T , und diese kann
durch Hinzunahme von v (jedenfalls wenn man vorher noch v normiert, d. h., durch Multiplikation mit
einem Faktor dafür sorgt, dass kvk = 1 ist) zu einer Orthonormalbasis von V erweitert werden.
2
n = 1
ist nichts zu zeigen. Sei jetzt
Eigenvektor von
Aufgabe 8.4.2
Zeige: Eine normale Matrix ist genau dann hermitesch, wenn alle Nullstellen ihres cha-
rakteristischen Polynoms reelle Zahlen sind. Schlieÿe hieraus, dass der Satz über die Hauptachsentransformation aus Satz 8.4.1 folgt.
Korollar zu Satz 8.4.1
Eine Matrix
A ∈ Cn×n
ist genau dann normal, wenn sie unitär ähnlich zu
einer Diagonalmatrix ist.
Beweis:
Wenn
A
unitär änlich zu
B
ist, ist
A
genau dann normal, wenn
trizen immer normal sind, folgt die eine Richtung des Satzes. Wenn
79
A
B
normal ist. Da Diagonalma-
eine normale Matrix ist, dann ist
auch der Endomorphismus
x 7−→ A x
normal in
Cn ,
und nach Satz 8.4.1 gibt es eine Orthonormalbasis
aus Eigenvektoren dieses Endomorphismus. Daraus ergibt sich die unitäre Ähnlichkeit von
A
zu einer
2
Diagonalmatrix.
8.5 Denite Matrizen
Denition 8.5.1
Sei
n ∈ N,
und sei
A ∈ Kn×n
eine hermitesche Matrix. Die Funktion
∀ x ∈ Kn ,
qA (x) = xT A x = hx, A xi
wobei rechts das kanonische Skalarprodukt in
Kn
steht, heiÿt die zu
A
gehörige quadratische Form. Be-
achte, dass die quadratische Form wegen Aufgabe 6.6.7 immer reell ist. Analog zu Abschnitt 6.8 nennen
n
wir die Matrix A positiv semidenit, falls qA (x) ≥ 0 für alle x ∈ R , und positiv denit, falls sogar
n
qA (x) > 0 für alle x ∈ R \ {0} ist. Entsprechend heiÿt A negativ semidenit bzw. negativ denit, falls
−A
positiv semidenit bzw. positv denit ist. Schlieÿlich heiÿt A indenit, falls es weder positiv noch
x1 , x2 ∈ Rn gibt mit qA (x1 ) < 0 und qA (x2 ) > 0.
negativ semidenit ist, d. h., falls es
Aufgabe 8.5.2
Zeige: Die Einheitsmatrix ist positiv denit; eine Diagonalmatrix ist genau dann positiv
denit bzw. semidenit, wenn alle Diagonalelemente reell und positiv bzw. nicht-negativ sind. Finde selbst
die entsprechende Charakterisierung von negativ (semi)deniten und indeniten Diagonalmatrizen.
Aufgabe 8.5.3 (Denitheit und MAPLE)
Finde heraus, wie man mit dem Programm MAPLE die
Denitheitseigenschaft einer Matrix prüfen kann.
Satz 8.5.4
Sei
n ∈ N,
und sei
A ∈ Kn×n
eine hermitesche Matrix.
(a) Genau dann ist
A
positiv semidenit, wenn alle Eigenwerte von
(b) Genau dann ist
A
positiv denit, wenn alle Eigenwerte von
(c) Genau dann ist
A
negativ semidenit, wenn alle Eigenwerte von
(d) Genau dann ist
A
negativ denit, wenn alle Eigenwerte von
(e) Genau dann ist
A
indenit, wenn ein Eigenwert von
Beweis:
A
A
A
A
nicht-negativ sind.
positiv sind.
A
nicht-positiv sind.
negativ sind.
positiv und ein anderer negativ ist.
Aus Satz 6.8.4 folgt, dass unitär ähnliche Matrizen die gleiche Denitheitseigenschaft haben.
Nach dem Satz über die Hauptachsentransformation ist
Diagonalelemente gerade die Eigenwerte von
Denition 8.5.5
A
A
unitär ähnlich zu einer Diagonalmatrix, deren
sind. Daraus folgt mit Aufgabe 8.5.2 die Behauptung.
2
A = [ajk ] ∈ Kn×n heiÿen die Zahlen


a11 . . . a1k

. 
..
. 
det  ...
∀ k = 1, . . . , n
.
.
ak1 . . . akk
Für eine Matrix
A. Die Zahl k heiÿt dabei auch die Ordnung der HauptunterdetermiA und anschlieÿend die zwei Spalten von A mit den gleichen Nummern
vertauschen, sprechen wir auch von einer simultanen Vertauschung von zwei Zeilen und Spalten von A.
Die Hauptunterdeterminanten jeder Matrix B , die aus A durch endlich viele simultane Vertauschungen
von Zeilen und Spalten hervorgeht, heiÿen auch allgemeine Hauptunterdeterminanten von A. Anders ausgedrückt sind die allgemeinen Hauptunterdeterminanten von A gleich den Determinanten der aus A durch
die Hauptunterdeterminanten von
nante. Wenn wir zwei Zeilen von
Streichen von Zeilen und Spalten gleicher Nummern entstehenden Matrizen.
80
Satz 8.5.6
(a) Wenn
Sei
A
n ∈ N,
und sei
A ∈ Kn×n
eine hermitesche Matrix.
positiv denit ist, dann sind alle allgemeinen Hauptunterdeterminanten von
A
positiv;
insbesondere sind also alle Diagonalelemente positiv.
(b) Wenn alle Hauptunterdeterminanten von
B
matrix
A
positiv sind, dann existiert genau eine obere Dreiecks-
mit reellen und positiven Diagonalelementen, so dass
T
A = B B
qA (x) = kyk2 ,
ist, und hieraus folgt
Beweis:
mit
y = B x,
sodass
(8.5.1)
A
positiv denit ist.
A positiv denit. Für 1 ≤ k ≤ n sei Uk der Unterraum aller Vektoren x = (x1 , . . . , xn )T ∈ Kn
mit xk+1 = . . . = xn = 0. Wenn wir die quadratische Form qA auf Uk einschränken, ergibt dies die
k
quadratische Form auf K mit der Matrix


a11 . . . a1k


.
..
.
Ak =  ...
,
.
.
ak1 . . . akk
Sei
und diese Matrix muss daher auch positiv denit sein. Nach Satz 8.5.4 müssen also alle Eigenwerte von
Ak
positiv sein, und nach Aufgabe 7.5.12 folgt hieraus
Zeilen und Spalten von
A
det Ak > 0.
Eine simultane Vertauschung von
xk
ist gleichwertig zu einer Umnumerierung der Variablen
an der positiven Denitheit von
A.
und ändert nichts
Damit ist (a) bewiesen. Den Beweis von (b) führen wir induktiv: Für
n = 1 ist nichts zu zeigen, deshalb sei jetzt n ≥ 2 und der Beweis für Matrizen der Gröÿe (n − 1) × (n − 1)
schon erbracht. Wir schreiben
An−1 a
,
A =
aT
c
wobei wir die Tatsache ausnützen, dass
obere Dreiecksmatrix
Bn−1
A
hermitesch ist. Nach Induktionshypothese gibt es genau eine
mit reellen und positiven Diagonalelementen, so dass
T
An−1 = B n−1 Bn−1 . Es
folgt
qA (x) = y T C y ,
C =
I
T
b
b
c
,
y =
Bn−1
0
0
1
x,
T
T
b = (B n−1 )−1 a ist. Mit dem Entwicklungssatz sieht man det C = c−b b, und aus dem Determinantenmultiplikationssatz folgt dass A und C dieselbe Determinante haben. Also folgt aus der Voraussetzung
T
dass det A = c − b b > 0 ist, und wir setzen
q
T
d = c − b b.
wobei
Daraus folgt aber jetzt
T
A = B B,
Oenbar ist
B
Bn−1
0
b
d
.
obere Dreiecksmatrix mit positiv-reellen Diagonalelementen, und
Man erkennt auch leicht, dass dieses
der Gröÿe
B =
n × n,
B
durch
A
qA (x) = y y
mit
y = B x.
eindeutig bestimmt ist. Also gilt (b) auch für Matrizen
2
was zu zeigen war.
Denition 8.5.7
Nach dem vorausgegangenen Satz gibt es zu jeder positiv deniten Matrix
eine obere Dreiecksmatrix
B
A
genau
mit reell-positiven Diagonalelementen, für die (8.5.1) gilt. Man nennt dies
auch die Cholesky-Zerlegung der Matrix
A.
Tatsächlich besteht ein gängiges numerisches Verfahren zur
Prüfung einer Matrix auf positive Denitheit in der Berechnung dieser Cholesky-Zerlegung.
Bemerkung 8.5.8
Wenn man von
A
zu
−A
übergeht, dann bleiben alle allgemeinen Hauptunterdeter-
minanten mit gerader Ordnung erhalten, während die mit ungerader Ordnung ihr Vorzeichen wechseln.
Daher kann man aus obigem Satz leicht Kriterien für negative Denitheit ableiten.
81
Aufgabe 8.5.9
Untersuche die Matrizen aus Aufgabe 7.5.11 auf Denitheit.
Aufgabe 8.5.10
Zeige für die Matrix
A =
a
b
b
c
a, b, c ∈ R ,
,
folgende Aussagen:
a c < b2
•
Genau dann ist
A
indenit, wenn
•
Genau dann ist
A
positiv denit, wenn
•
Genau dann ist
A
negativ denit, wenn
Daraus folgt, dass
A
ist.
a c > b2
a c > b2
und
und
a>0
a<0
in allen anderen Fällen semidenit ist.
82
ist.
ist.
Kapitel 9
Ergänzungen
9.1 Kegelschnitte
Als eine Anwendung der quadratischen Formen wollen wir kurz folgende Aufgabe studieren:
•
A = [ajk ] ∈ R2×2 , ein
L ⊂ R2 der Gleichung
Gegeben sei eine reelle symmetrische Matrix
Zahl
c ∈ R.
Untersuche die Lösungsmenge
reeller Vektor
b ∈ R2
sowie eine
x T A x + bT x + c = 0 .
Ausgeschrieben lautet diese Gleichung, unter Beachtung von
(9.1.1)
a21 = a12
wegen der Symmetrie von
A,
a11 x21 + 2 a12 x1 x2 + a22 x22 + b1 x1 + b2 x2 + c = 0 .
Man sieht daran, dass es sich um die allgemeinste quadratische Gleichung in zwei Variablen
x1 , x2
handelt.
Die Lösungsmenge einer solchen Gleichung ist, bis auf entartete Fälle, ein Kegelschnitt, d. h. die Schnittmenge (in
R3 )
einer Ebene mit einem Doppelkegel; darauf soll hier aber nicht eingegangen werden.
Zur Lösung der Aufgabe beachten wir, dass nach dem Satz über die Hauptachsentransformation eine
orthogonale Matrix
x = Uy
U ∈ R2×2
Λ = U T A U eine Diagonalmatrix ist.
T
Vektor b U der Einfachheit halber wieder
existiert, für welche
in (9.1.1) ein, und bezeichnet man den
Setzt man
mit
bT ,
so
erhält man die neue Gleichung
y T Λ y + bT y + c = 0.
Wir können o. B. d. A. noch annehmen, dass
Spalte von
keit von
U
U
det U = 1
ist, denn sonst kann man zum Beispiel die erste
mit einem entsprechenden Faktor multiplizieren, was die Orthogonalität bzw. Invertierbar-
nicht verändert (denn im Falle einer orthogonalen Matrix ist ja
Nach Aufgabe 6.7.6 ist die Abbildung
Drehung von
R2 ,
x=Uy
det U = 1
im Fall einer orthogonalen Matrix
U
oder
mit
det U = −1).
det U = 1
eine
oder anders ausgedrückt, die Einführung eines neuen rechtwinkeligen Koordinatenys-
tems, welches gegenüber dem vorigen verdreht ist. Aus diesem Grund genügt es für die Interpretation
der Lösungsmenge, wenn wir im Folgenden annehmen, dass
A
von vorne herein eine Diagonalmatrix ist,
sodass die Gleichung (9.1.1) die Form
a1 x21 + a2 x22 + b1 x1 + b2 x2 + c = 0 .
Wir unterscheiden jetzt die folgenden grundsätzlich verschiedenen Fälle:
83
1. Sei
a1 a2 6= 0:
Durch quadratische Ergänzung schreiben wir die Gleichung um in die Form
b1 2
b2 2
b21
b2
a1 x1 +
+ a2 x2 +
=
+ 2 − c.
2 a1
2 a2
4 a1
4 a2
(9.1.2)
Mit den Abkürzungen
(0)
xj
für
j=1
und
(a) Seien
j=2
a1 , a2
bj
= −
,
2 aj
s
b21
b2
λj = a−1
+ 2 − c
j
4 a1
4 a2
ergeben sich folgende Unterfälle:
beide positiv: Dann ist die linke Seite von (9.1.2) immer positiv, und wir schlieÿen:
i. Falls
c>
ii. Falls
c=
iii. Falls
c<
b21
4 a1
b21
4 a1
b21
4 a1
+
+
+
b22
4 a2 ist, ist die Lösungsmenge L der Gleichung leer.
b22
(0) T
(0)
4 a2 ist, ist L = {x0 = (x1 , x2 ) }.
b22
4 a2 ist, bringen wir die Gleichung (9.1.2) auf die Form
x − x(0) 2
x − x(0) 2
1
2
1
2
+
= 1.
λ1
λ2
(0)
L geometrisch eine Ellipse mit Mittelpunkt x(0)
1 , x2 und achλ1 , λ2 ist. Falls λ1 = λ2 = 1 ist (was man mit Hilfe des Sylves-
Daraus erkennt man, dass
senparallelen Halbachsen
terschen Trägheitssatzes erreichen kann), handelt es sich oenbar um einen Kreis mit dem
angegeben Mittelpunkt und dem Radius
(b) Seien
−1
a1 , a2 < 0:
r = 1.
Diesen Unterfall kann man durch Multiplikation der Gleichung (9.1.2) mit
auf den ersten zurückführen.
(c) Seien
a1 > 0 und a2 < 0: Dann kann die linke Seite von (9.1.2) sowohl positiv als auch negativ
werden. In jedem Fall gibt es folgende Möglichkeiten:
i. Falls
b21
4 a1
c=
+
b22
4 a2 ist, ist (9.1.2) äquivalent zu
x2 = x(0)
±
2
L ein Paar von sich schneidenden Geraden
b2
b2
c > 4 a11 + 4 a22 ist, ist (9.1.2) äquivalent zu
so dass
ii. Falls
λ2
(x1 − x(0)
1 ),
λ1
ist.
x − x(0) 2
x − x(0) 2
1
2
1
2
−
= −1 .
λ1
λ2
Damit ist
L
geometrisch ein Hyperbelpaar, welches nach unten bzw. oben geönet ist.
b21
b22
iii. Falls c <
4 a1 + 4 a2 ist, können wir durch Vertauschen von x1 und x2 , also geometrisch
durch Spiegelung an der Geraden x2 = x1 , aus dem vorangegangenen Fall ablesen, dass L
wieder ein Paar von Hyperbeln ist, die aber jetzt nach rechts bzw. links geönet sind.
(d) Seien
2. Sei
a1 < 0
und
a2 = 0, a1 6= 0:
a2 > 0:
Multiplikation mit
Division durch
kann dann in der Form
a1
−1
führt wieder auf den vorherigen Fall.
erlaubt dann anzunehmen, dass
a1 = 1
ist. Die Gleichung
2
x1 + b1 /2 + b2 x2 = b21 /4 − c
geschrieben werden. Es ergeben sich dann folgende Unterfälle:
b2 = 0: Dann ist L leer, falls c > b21 /4
c < b21 /4 zwei parallele Gerade.
(a) Sei
(b) Sei
b2 6= 0: Dann
b2 < 0 ist.
stellt
L
ist, und sonst ergeben sich für
c = b21 /4
eine und für
eine Parabel dar, die nach unten bzw. oben geönet ist, wenn
bzw.
84
b2 > 0
3. Sei
a2 = 0, a1 6= 0:
4. Seien
Vertauschen von
a1 = a2 = 0:
x1
und
x2
führt diesen auf den vorangegangenen Fall zurück.
Dann liegt eine lineare Gleichung vor, dessen Lösungsmenge
L
entweder leer
oder eine Gerade ist.
Aufgabe 9.1.1
trix
A
Drücke die oben aufgetretenen Fälle direkt durch die Denitheitseigenschaften der Ma-
in (9.1.1) aus.
9.2 Drehungen und Spiegelungen
Denition 9.2.1
U ∈ Rn×n erfüllt U T U = I , woraus mit dem Determinantenmultiplikationssatz folgt det U = ±1. Wenn det U = 1 ist, nennt man U eine Drehmatrix oder auch
n
einfach Drehung in R . Wenn dagegen det U = −1 ist, spricht man von einer Drehspiegelung.
Satz 9.2.2
Eine orthogonale Matrix
Die Menge der unitären, der orthogonalen, sowie die Menge der Drehmatrizen sind Gruppen
bezüglich der Matrixmultiplikation.
Beweis:
Da für die Matrixmultiplikation immer ein Assoziativgesetz gilt, ist nur zu zeigen, dass die
Einheitsmatrix zu jeder der beiden Mengen gehört, und dass mit einer Matrix auch die inverse in der
Menge ist. Dies ist aber klar wegen der Denition der entsprechenden Matrizenmenge sowie dem Deter-
2
minantenmultiplikationssatz.
Eine unitäre, und speziell eine orthogonale Matix ist immer normal, und deshalb nach Satz 8.4.1 unitär
ähnlich zu einer Diagonalmatrix. Dabei sind auch für orthogonale, also reelle Matrizen die Eigenwerte
im Allgemeinen komplexe Zahlen vom Betrag
1. Interessanter, und relativ leicht zu beantworten, ist aber
die Frage nach einer Normalform einer orthogonalen Matrix bezüglich reell-unitärer, also orthogonaler
Ähnlichkeit. Da orthogonale Matrizen die Darstellungsmatrizen von längentreuen Endomorphismen eines
endlich-dimensionalen Vektorraumes über
R
sind, ist die Antwort auf diese Frage gleichwertig mit dem
folgenden Satz:
Satz 9.2.3
n ≥ 2,
V ein n-dimensionaler euklidischer Raum, also ein Raum über R mit
T ∈ L(V ) längentreu. Dann gibt es eine Orthonormalbasis (v1 , . . . , vn ) von V ,
Darstellungsmatrix A von T die folgende Form hat:


Ip
0
0
0 ...
0
 0 −Iq
0
0 ...
0 


 0
0 A1
0 ...
0 


A =  0
,
0
0 A2 . . .
0 



 .
.
.
. .
.
.
.
.
..
. 
 ..
.
.
.
.
Sei
und sei
Skalarprodukt. Sei weiter
für welche die
0
wobei
Ip
bzw.
Iq
Einheitsmatrizen vom Typ
"
Ak =
0
p×p
0
0
bzw.
q×q
#
cos φk
sin φk
− sin φk
cos φk
...
sind, während
φk ∈ R. Dabei ist p + q + 2 m = n, wobei auch p = 0 oder
bedeutet dass die entsprechenden Matrizen nicht auftreten.
mit
85
Am
∀ k = 1, . . . , m ,
q=0
oder
m=0
zugelassen sein soll, was
Beweis:
Sei
Dann ist
A
A
U
unitäre Matrix
von
Λ
zunächst die Darstellungsmatrix von
T
bezüglich irgendeiner Orthonormalbasis von
V.
eine orthogonale Matrix und somit auch normal, und deshalb gibt es nach Satz 8.4.1 eine
derart, dass
T
U AU = Λ
eine Diagonalmatrix ist. Dabei sind die Diagonalelemente
T , also eines Polynoms mit reellen Koezis-mal als ein Diagonalelement in Λ auf. Diese
Zahlen vom Betrag 1 sein allerdings ist mit je-
die Nullstellen des charakteristischen Polynoms von
enten, und eine Nullstelle
λ
der Vielfachheit
s
tritt genau
Nullstellen können im Allgemeinen beliebige komplexe
der nicht-reellen Nullstelle auch die konjugiert-komplexe Zahl eine Nullstelle derselben Vielfachheit. Die
Spalten
A,
uk
der Matrix
U
bilden eine Orthonormalbasis von
Cn
und sind auÿerdem Eigenvektoren von
und durch Umnumerierung der Basisvektoren, also Vertauschen der Spalten von
beliebige Anordnung der Diagonalelemente von
der Diagonalen von
Λ
zuerst die Zahl
1
Λ
und dann die Zahl
−1,
λ
Wenn
p
1
oder
−1
die Vielfachheit der Nullstelle
p
λ und der konjugiertΛ
auftreten. Beachte, dass es natürlich möglich ist, dass alle Diagonalelemente von
reell sind, oder dass die Zahl
sind die ersten
können wir eine
beide entsprechend ihrer Vielfachheit,
auftreten, und danach die nicht-reellen Nullstellen folgen, wobei diese in Paaren von
komplexen Zahl
U,
erreichen. Wir gehen deshalb davon aus, dass entlang
Spalten von
U
garnicht als Nullstelle auftritt.
λ=1
des charakteristischen Polynoms von
A
gerade eine Basis des Eigenraums von
Eigenraum hat die Eigenschaft, dass mit
u
auch
u
A
bezeichnet, dann
zum Eigenwert
λ = 1.
Dieser
zum Raum gehört, und deshalb gibt es nach Aufga-
be 5.4.8 eine Orthonormalbasis aus lauter reellen Eigenvektoren. Also können wir o. B. d. A. annehmen,
dass die ersten
U,
p
Spalten von
U
reelle Vektoren sind. Analog schlieÿt man für die nächsten
welche ja eine Basis des Eigenraumes zum Eigenwert
λ = −1
q
Spalten von
sind.
λk das erste nicht-reelle Diagonalelement von A. Dann ist |λk | = 1, also λk = cos φk + i sin φk ,
φk ∈ R, und sin φk 6= 0. Wegen der gewählten Anordnung der Diagonalelemente von A ist
dann das nächste Diagonalelement von A gleich λk+1 = cos φk − i sin φk . Wenn (v1 , . . . , vs ) eine Orthonormalbasis des Eigenraumes zu λk bilden, dann zeigt man leicht dass (v 1 , . . . , v s ) eine Orthonormalbasis
des Eigenraumes zu λk = λk+1 ist. Daher können wir o. B. d. A. annehmen, dass uk+1 = uk ist. Wenn
√ −1
√
man uk durch ũk = (i 2)
(uk − uk−1 ) und uk+1 durch ũk+1 = ( 2)−1 (uk + uk−1 ) ersetzt, so kann
n
man überprüfen, dass die neuen, genau wie die alten, Spaltenvektoren eine Orthonormalbasis von C
bilden; allerdings sind die neuen Spaltenvektoren ũk und ũk+1 jetzt reell geworden. Aus A uk = λk uk
und A uk+1 = λk uk+1 folgt dann
Sei jetzt
mit einem
A ũk+1 = − sin φk ũk + cos φk ũk+1 .
A ũk = cos φk ũk + sin φk ũk+1 ,
T bezüglich (u1 , . . . , uk−1 , ũk , ũk+1 , uk+2 , . . . , un ) nach den 1-en
(−1)-en entlang der Diagonalen gerade ein Kästchen der Form Ak auf. Genauso kann man auch für die
Also tritt in der Darstellungsmatrix von
und
übrigen Paare von konjugiert-komplexen Diagonalelementen schlieÿen. Dies ist, bis auf die Numerierung
der Blöcke
Ak ,
2
die Behauptung.
Aufgabe 9.2.4
Benütze den vorausgegangenen Satz, um für den Fall
n = 3 zu
V eine
längentreuen Isomorphismus eines dreidimensionalen euklidischen Raumes
V
existiert, bezüglich der die Darstellungsmatrix

1
A =  0
0
Im ersten Fall ist
T

0
0
cos φ sin φ 
− sin φ cos φ
A
von
T
−1
A =  0
0

0
0
cos φ sin φ  .
− sin φ cos φ
also eine Drehung, im zweiten eine Drehspiegelung.
86
Orthonormalbasis von
eine der folgenden beiden Formen hat:

oder
zeigen, dass zu jedem
Literaturverzeichnis
[1]
G. Fischer,
Lineare Algebra. Eine Einführung für Studienanfänger, Vieweg Studium: Grundkurs
Mathematik. Wiesbaden: Vieweg. x, 384 S., 2000.
[2]
W. Gawronski,
Grundlagen der Linearen Algebra. Studienbuch für Studierende der Mathematik,
Informatik, Physik und anderer Naturwissenschaften ab dem 1. Semester, Studien-Text. Mathematik.
Wiesbaden: Aula-Verlag. 413 S. DM 44.00 , 1996. 45
[3]
H. Grauert und H.-C. Grunau,
Lineare Algebra und analytische Geometrie, R. Oldenbourg
Verlag, Munich, 1999.
[4]
W. Greub, Linear algebra, Graduate Texts in Mathematics, Bd. 23. New York - Heidelberg -Berlin:
Springer-Verlag. XVII, 451 p., 5 Figs. DM 92.00; $ 42.90 , 4. Au., 1981.
[5]
J. Heinhold und B. Riedmueller, Lineare Algebra und Analytische Geometrie. Teil 2, München:
Carl Hanser Verlag. VIII, 319 S. mit 47 Fig., 125 Beisp. und 137 Aufg. DM 44.00 , 1973.
[6]
J. Heinhold und B. Riedmüller, Lineare
Algebra und analytische Geometrie. Teil 1, München:
Carl Hanser Verlag. VII, 215 S. mit 32 Figuren , 1971.
[7]
K. Jänich,
Lineare Algebra. 9. Au., Springer-Lehrbuch. Berlin: Springer. xii, 271 S. EUR 19.95
(D); sFr. 31.00 , 2002.
[8]
H.-J. Kowalsky und G. O. Michler,
Lineare Algebra. 10., völlig neu bearb. Au., De Gruyter
Lehrbuch. Berlin: de Gruyter. xiv, 399 p. DM 44.00 /pbk; DM 98.00 /hbk , 1995.
[9]
R. Lingenberg, Lineare Algebra. Erster Teil einer Vorlesung. (B.I.-Hochschulskripten. 828/828a),
Mannheim-Zürich: Bibliographisches Institut, XII, 161 S. , 1969.
[10]
F. Lorenz, Lineare Algebra. I, Bibliographisches Institut, Mannheim, 2. Au., 1988.
[11]
, Lineare Algebra. II, Bibliographisches Institut, Mannheim, 2. Au., 1989.
[12]
U. Stammbach, Lineare Algebra. 4. durchges. Au., Teubner Studienskripten: Mathematik. Stuttgart: B. G. Teubner. 259 S., 1994.
87
Index
hermitesch, 69
eines Endomorphismus, 71
unitär, 61, 69
Cholesky-Zerlegung, 81
Abbildung
Darstellungsmatrix, 65
adjungierte, 60
Denitheit, 62, 80
duale, 59
Determinanten, 39
längen- und winkeltreue, 61
-multiplikationssatz, 42
längentreue, 61
Berechnung, 41
lineare, 54
Rechenregeln, 40
nilpotente, 78
von Blockdreiecksmatrizen, 43
von Endomorphismen, 68
normale, 60
orthogonale, 61
diagnonalisierbar, 63
selbstadjungierte, 60
Diagonalelemente, 23
semilineare, 60
diagonalisierbar, 79
unitär, 79
unitäre, 61
Diagonalmatrix, 23
abhängig
Dierenz
linear, 9
von Vektoren, 8
Abstand, 47
adjungiert, 60
Dimensionsformel, 55
Ähnlichkeit, 67
direkte Summe, 17
Distributivgesetz, 5
unitäre, 76
allgemeines, 8
algebraische Vielfachheit, 73
algebraisches Komplement, 44
Dreiecksmatrix, 23
Approximation, 52
Dreiecksungleichung, 48
Äquivalenz
duale Abbildung, 59
Dualraum, 59
-klasse, 25
-relation, 25
Eigen-
von Matrizen, 24
raum, 63
Assoziativgesetz
vektor, 63
der Addition, 5
wert, 63
der Multiplikation, 5
Einheitsmatrix, 23
Austauschsatz, 14
Einheitsvektor, 11
Automorphismus, 57
endlich-dimensional, 13
Endomorphismus, 54
Basis, 11
deniter, 62
Orthogonal-, 50
Basisauswahlsatz, 13
diagonalisierbarer, 63
Basisergänzungssatz, 15
nilpotenter, 78
Basiswechsel, 67
normaler, 60
selbstadjungierter, 60
bei Endomorphismen, 68
beste Approximation, 52
Entwicklungssatz, 45
Bild, 55
erweiterte Matrix, 30
Blockdreiecksmatrizen, 43
Erzeugendensystem, 11
euklidischer Vektorraum, 46
C[a, b],
6
Fehlstand, 37
Cayley-Hamilton, 77
charakteristisches Polynom, 70
GL(n, K),
88
28
Gauÿsches Elim.-Verf., 30, 41
endlich vieler Vektoren, 10
geometrische Vielfachheit, 73
Matrix, 19
Gleichungssystem
erweiterte, 30
lineares, 30
Determinante einer, 39
homogenes, 30
Gram-Schmidtsches Orthog.-Verf., 50
Diagonal-, 23
Gruppe, 35
Dreiecks-, 23
hermitesche, 69
symmetrische, 35
nilpotente, 78
Gruppenordnung, 35
normale, 69
Hauptachsentransformation, 78
orthogonale, 69
Hauptunterdeterm., 80
quadratische, 19
Hilbertraum
(semi-)denite, 80
Prä-, 46
symmetrische, 69
Hülle
transponierte, 23
lineare, 9
Typ einer, 19
unitäre, 69
Inhomogenitätenvektor, 30
Matrizen
inneres Produkt, 46
ähnliche, 67
Inversion, 37
äquivalente, 24
Isomorphismus, isomorph, 57
unitär ähnliche, 76
Minimalpolynom, 78
K[t], 6
Kn , 6
Kn [t], 6
Minor, 44
Monom, 9
Multiplikation
kanonische Basis, 11
von Matrizen, 21
kanonischer Isomorphismus, 57
Kern, 55
N, N0 ,
Körper, 5
nilpotent, 78
Koezientenmatrix, 30
Norm, 47, 49
Kommutatives Diagramm, 66
5
Eigenschaften, 48
Komplement
normal, 60
algebraisches, 44
normale Matrix, 69
komplexer Raum, 5
Normalform
Komplexizierung, 16
unter Äquivalenz, 26
Koordinatenabbildung, 54
normierter Raum, 49
Kronecker-Delta, 23
Nullstelle, 71
L(V, W ), 54
L(vj , j ∈ J),
`2 , 49
Vielfachheit einer, 71
9
Ordnung
einer Gruppe, 35
längen- und winkeltreu, 61
Orthogonal
längentreu, 61
-basis, 50
Lemma
-system, 50
von Schur, 76
orthogonal, 49, 61, 69
lineare
orthogonale Projektion, 52
Abbildung, 54
orthogonales Komplement, 49
Hülle, 9
Orthogonalisierung, 50
Mannigfaltigkeit, 16
Orthonormal
Unabhängigkeit, 9
-basis, 50
endlich vieler Vektoren, 10
-system, 50
linearer Raum, 5
normierter, 49
Parität, 37
lineares Funktional, 59
Permutation, 35
Linearform, 59
identische, 37
Linearkombination, 9
Polynom, 6, 9
89
charakteristisches, 70
leeres, 9
Minimal-, 78
Orthogonal-, 50
Prä-Hilbertraum, 46
Orthonormal-, 50
Produkt
Teilraum, 8
von Permutationen, 35
Teilsystem, 9
Projektion
tr A, 70
orthogonale, 52
Transitivität, 25
quadratische Form, 80
transponierte Matrix, 23
Typ, 19
Raum
dualer, 59
unabhängig
euklidischer, 46
linear, 9
linearer, 5
unendlich-dimensional, 13
mit Skalarprodukt, 46
unitär ähnlich, 76
normierter, 49
unitärer Vektorraum, 46
unitärer, 46
Unterraum, 8
Rechenregeln
trivialer, 8
für adjungierte Abb., 60
unverkürzbar, 12
für das Vorz. e. Perm., 37
unverlängerbar, 12
für den Rang, 27
Vektorraum, 5
für Determinanten, 40
für die inverse Matrix, 29
dualer, 59
für Matrizen, 19, 23
komplexer, 5
für Vektoren, 7
normierter, 49
reeller, 5
reeller Raum, 5
Vielfachheit, 71
Reexivität, 25
algebraische, 73
Repräsentant, 25
geometrische, 73
Sn ,
35
Vorzeichen
Sarrussche Regel, 39
einer Permutation, 37
Satz
Winkel
Austausch-, 14
zwischen Vektoren, 49
Basisauswahl-, 13
Basisergänzungs-, 15
Zeilen, 19
vom Basiswechsel, 67
Zerlegung, 25
von Cayley-Hamilton, 77
Zykel, 36
von der besten Approx., 52
von der Hauptachsentr., 78
Schursches Lemma, 76
selbstadjungiert, 60
semilinear, 60
Signum
einer Permutation, 37
Skalar, 5
Skalarenkörper, 5
Skalarprodukt, 46
kanonisches, 47
Spalten, 19
Spektralwert, 63
Spur, 70
Summe, 16
Symmetrie, 25
symmetrisch, 69
symmetrische Gruppe, 35
System, 9
90
Herunterladen