Mathematik für Informatiker 1

Werbung
Mathematik für Informatiker 1
Vorlesungsskriptum
Wintersemester 2011/2012
Gabriele Kern-Isberner
Bernhard Steffen
Oliver Rüthing
unter Mitwirkung von
Sibylle Hess und Timo Stöcker
Fakultät für Informatik
Technische Universität Dortmund
2011
2
Mathematik für Informatiker I
Teil II Lineare Algebra
Der zweite Teil des Skriptes zur Mathematik für Informatiker I ist der Linearen Algebra gewidmet und beschäftigt sich mit Strukturen in Vektorräumen,
wobei die Begriffe Vektor und Matrix Schlüsselkonzepte darstellen. Vektoren
und Matrizen tauchen in vielen Anwendungen auf, Vektoren oft als Tupel, mit
denen Objekte beschrieben werden, Matrizen als Schemata, die Zusammenhänge
darstellen, z.B. zur Beschreibung der Abhängigkeiten von Variablen in linearen
Gleichungssystemen. Die Rolle der Homomorphismen als strukturerhaltende
Abbildungen zwischen Vektorräumen wird von den linearen Abbildungen übernommen. Eines der wichtigsten Resultate dieses zweiten Teils ist die Ausarbeitung
der sehr engen Beziehung zwischen Matrizen und linearen Abbildungen, so dass
man – unter gewissen Rahmenbedingungen – diese beiden Konzepte eindeutig
aufeinander abbilden und damit wichtige Definitionen wie Rang, Invertierbarkeit etc. übertragen kann. Wir schließen diesen Teil mit einer skizzenhaften
Betrachtung von Anwendungen der linearen Algebra in der Informatik.
Disclaimer Version: Dies ist Version 1.0 des Skriptes, in dem noch Fehler enthalten sein können, insbesondere Druckfehler und falsche Referenzen. Über
entsprechende Hinweise freuen wir uns.
Disclaimer Literatur: Inhalte und Aufbau dieses Skriptes orientieren sich stark
an [3]. außerdem wurden die Literaturquellen [1] und [2] verwendet (s. Literaturverzeichnis am Ende des Skriptes).
Danksagung: Wir möchten den engagierten studentischen Hilfskräften danken,
ohne deren Unterstützung Folien und Skript zu dieser Vorlesung kaum erstellt
worden wären. Diana Howey hat sich insbesondere um die Folien verdient gemacht.
Sibylle Hess hat ganz wesentlich am Skript mitgearbeitet und auch eigene Texte
(insbesondere in den Kapiteln 12 und 13) beigesteuert, um die Inhalte besser
verständlich zu machen. Timo Stöcker und Sibylle Hess haben das EigenfacesBeispiel in Kapitel 13 für Vorlesung und Skript aufbereitet.
Inhaltsverzeichnis
10 Vektorräume
5
10.1 Definition und Geometrie von Vektoren . . . . . . . . . . . . . .
5
10.2 Teilräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
10.3 Linearkombinationen und Erzeugendensysteme . . . . . . . . . .
18
10.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten . . . . . .
22
10.5 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . .
26
11 Lineare Gleichungssysteme
38
11.1 Definitionen und Beispiele . . . . . . . . . . . . . . . . . . . . . .
38
11.2 Das Gau’sche Eliminationsverfahren . . . . . . . . . . . . . . . .
41
11.3 Invertieren von Matrizen . . . . . . . . . . . . . . . . . . . . . . .
50
12 Lineare Abbildungen und Matrizen
54
12.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . .
54
12.2 Matrix einer linearen Abbildung . . . . . . . . . . . . . . . . . .
62
12.3 Dimensionssatz und Homomorphiesatz . . . . . . . . . . . . . . .
71
12.4 Hauptsatz über lineare Gleichungssysteme . . . . . . . . . . . . .
82
12.5 Algebra der linearen Abbildungen . . . . . . . . . . . . . . . . . .
87
13 Determinanten und Eigenwerte
3
97
INHALTSVERZEICHNIS
13.1 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
97
13.2 Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
13.3 Anwendung: Eigenfaces . . . . . . . . . . . . . . . . . . . . . . . 115
13.3.1 Gesichtserkennung . . . . . . . . . . . . . . . . . . . . . . 115
13.3.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
Kapitel 10
Vektorräume
Vektorräume bilden eine zentrale Struktur in der linearen Algebra. Ihre Struktur erlaubt es, die Elemente eines Vektorraums mit denen eines Körpers zu
multiplizieren oder untereinander zu addieren. Damit die Addition und die Multiplikation auf intuitive Weise erfolgen kann, werden einige Regeln zur Rechenweise
in Vektorräumen eingeführt. So stellt zum Beispiel in einem R-Vektorraum die
Distributivität bezgl. des Körpers u.A. sicher, dass ~v + ~v = 2 · ~v ist (und nicht
etwa 3 · ~v o. Ä.) für ein beliebiges Element ~v des R-Vektorraums.
Es gibt geometrisch anschauliche Beispiele eines Vektorraums, wie z.B. die euklidische Ebene, aber auch abstraktere Strukturen wie den Vektorraum der linearen
Abbildungen oder kurios anmutende Strukturen wie den Vektorraum aller magischen Quadrate. In der Informatik finden Vektorräume der anschaulichen Art
Anwendung zur Wegebestimmung, wie es z. Bsp. für einen Roboter, der Regale
einräumen soll, notwendig ist, aber auch abstraktere Formen der Vektorräume
finden Anwendung, wie z. Bsp. in der linearen Codierungstheorie.
10.1
Definition und Geometrie von Vektoren
Die folgende Definition führt Vektorräume über Körpern formal ein.
Definition 10.1.1 (K-Vektorraum). Es sei (K, +, ·) ein Körper. Ein K-Vektorraum ist eine Menge V zusammen mit Abbildungen
+ : V ×V → V
· : K ×V → V
(~v , w)
~ →
7 ~v + w
~
(s, ~v ) →
7
s · ~v
(Addition)
(skalare Mult.)
für die die folgenden Regeln gelten:
(i) (V, +) ist eine kommutative Gruppe.
Das neutrale Element der Addition ist der Nullvektor ~0.
Das inverse Element zu ~v wird mit −~v bezeichnet.
5
KAPITEL 10. VEKTORRÄUME
6
(ii) 1 · ~v = ~v für alle ~v ∈ V.
(Dabei bezeichnet 1 das Einselement des Körpers K.)
(iii) (s · s0 ) · ~v = s · (s0 · ~v ) für alle s, s0 ∈ K, ~v ∈ V.
(iv) (s + s0 ) · ~v = (s · ~v ) + (s0 · ~v ) für alle s, s0 ∈ K, ~v ∈ V
(Distributivität bezgl. K).
(v) s · (~v + w)
~ = (s · ~v ) + (s · w)
~ für alle s ∈ K, ~v , w
~ ∈V
(Distributivität bezgl. V ).
Die Elemente ~v ∈ V heißen Vektoren.
Bitte beachten Sie: Die Symbole “+” und “·” werden üblicherweise sowohl
für Addition und Multiplikation im Körper K als auch für Addition und Skalarmultiplikation für den Vektorraum V verwendet! Das Multiplikationssymbol “·”
wird oft auch weggelassen, d.h. anstelle von “s · ~v ” schreibt man auch “s~v ”.
Bemerkung: Ist (V, +, ·) kein Körper, sondern nur ein Ring mit Eins, so spricht
man statt von einem K-Vektorraum von einem K-Modul.
Beispiel 10.1.1.
1. Eines der wichtigsten Beispiele ist der Vektorraum K n
der n-dimensionalen Spaltenvektoren
 
x1
 x2 
 
~x =  . 
 .. 
xn
mit x1 , . . . , xn ∈ K. Addition und Skalarmultiplikation werden hier wie
folgt definiert:
 
 


 


x1
y1
x1 + y1
x1
s · x1
 x2 
 y2 
 x2 + y2 
 x2 
 s · x2 
 
 


 


s· .  =  . 
 ..  +  ..  = 
,
..
 . 
.


 .. 
 .. 
.
xn
yn
xn + yn
xn
s · xn
Wir weisen nach, dass (K n , +, ·) ein K-Vektorraum ist:
(i) z.z.: (K n , +) ist kommutative Gruppe:
• Kommutativität
~x + ~y = ~y + ~x, da die Addition in K kommutativ ist.
• Assoziativität
(~x + ~y ) + ~z = ~x + (~y + ~z), da die Addition in K assoziativ ist.
 
0
 .. 
~
• 0 =  .  ist der Nullvektor.
0
KAPITEL 10. VEKTORRÄUME
7
• InverseElemente



−x1
x1


 
Zu ~x =  ...  ist −~x =  ...  der inverse Vektor.
−xn
xn
  
  
x1
1 · x1
x1
 ..   ..   .. 
(ii) 1 · ~x = 1 ·  .  =  .  =  .  = ~v für alle ~x ∈ K n .
xn
1 · xn
xn
(iii) folgt aus der Assoziativität der Multiplikation in K.
(iv), (v) folgen aus der Distributivität in K.
Für K = R und n = 2 kann man sich den Vektorraum R2 als Ebene mit üblicher Vektoraddition und skalarer Multiplikation vorstellen. Entsprechend
kann man den Vektorraum R3 mit dem dreidimensionalen Raum assoziieren. Abbildung 10.1 illustriert die Addition und Streckung von Vektoren in
der Ebene.
2. Seien m, n ∈ N. Ein Schema der

a11
 a21

A=

an1
Form
a12
a22
···
···
..
.
an2
···

a1m
a2m 



anm
mit aij ∈ K heißt Matrix, genauer n × m-Matrix über K. Dabei ist n
die Anzahl der Zeilen und m die Anzahl der Spalten. Die Menge aller
n × m-Matrizen über K wird mit K n×m bezeichnet. Eine n×1-Matrix ist
nichts anderes als ein n-dimensionaler Spaltenvektor: K n×1 = K n .
Seien A, B ∈ K n×m n×m-Matrizen, A = (aij ), B = (bij ). Wir definieren
eine Verknüpfung (Addition) “+” auf K n×m wie folgt:
A + B := (aij + bij ),
d.h. Matrixelemente auf derselben Position werden addiert. Weiterhin
definieren wir die skalare Multiplikation “·” wie folgt:
Für s ∈ K und A = (aij ) ∈ K n×m sei
(s · A) := (s · aij ),
d.h. alle Matrixelemente werden mit dem Skalar s multipliziert.
Die Menge K n×m der n × m Matrizen über K ist mit der Matrixaddition
und der Skalarmultiplikation ein K-Vektorraum.
3. Es sei M eine beliebige Menge und K ein beliebiger Körper. Dann wird die
Menge K M der Abbildungen von M nach K mit der folgenden Addition
und Skalarmultiplikation zu einem Vektorraum:
Für f, g ∈ K M und s ∈ K definieren wir
(f + g)(x) := f (x) + g(x)
(s · f )(x) := s · f (x)
für alle x ∈ M,
für alle x ∈ M.
Der Nullvektor dieses Vektorraums ist die Nullabbildung, d.h. x 7→ 0 für
alle x ∈ M . Das Inverse zu f ist die Abbildung −f mit (−f )(x) := −f (x).
KAPITEL 10. VEKTORRÄUME
8
~x + ~y
x2 +y2
y2
~y
3
x
2~
x2
~x
y1
x1
x1 +y1
Abbildung 10.1: Addition und Streckung von Vektoren in der Ebene.
4. Die Menge {~0} ist ein K-Vektorraum.
Lemma 10.1.2 (Rechenregeln in Vektorräumen). Es sei (K, +, ·) ein Körper
und (V, +, ·) ein K-Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 für alle ~v ∈ V .
(ii) s · ~0 = ~0 für alle s ∈ K.
(iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K, ~v ∈ V , d.h. das Inverse zum Vektor s · ~v
ist der Vektor (−s) · ~v .
Beweis:
(i)
0 · ~v = (0 + 0) · ~v = 0 · ~v + 0 · ~v
| − 0 · ~v
⇒ 0 · ~v = ~0 für alle ~v ∈ V
(ii)
s · ~0 = s · (~0 + ~0) = s · ~0 + s · ~0
| − s · ~0
⇒ s · ~0 = ~0 für alle s ∈ K
(iii) Seien s ∈ K und ~v ∈ V .
„⇒“ Sei s · ~v = ~0.
Wir müssen zeigen, dass s = 0 oder ~v = ~0 ist.
Ist s = 0, so sind wir fertig.
KAPITEL 10. VEKTORRÄUME
9
Betrachten wir nun den Fall, dass s 6= 0 ist. Dann gibt es ein s−1 ∈ K,
und es gilt:
~0 = s · ~v
⇔ ~0 = s−1 · (s · ~v )
−1
= (s
| · s−1
wegen (ii)
· s) · ~v
= 1 · ~v
= ~v
.
“⇐“ Klar wegen (i) und (ii).
(iv) Seien s ∈ K, ~v ∈ V .
Wir müssen zeigen, dass (−s) · ~v das (additive) Inverse zu s · ~v in K ist.
(−s) · ~v + s · ~v = (−s + s) · ~v = 0 · ~v = ~0
Matrizen spielen eine große Rolle in der linearen Algebra. Für sie ist auch eine
innere Multiplikation, d.h. eine Multiplikation von Matrizen definiert.
Definition 10.1.3 (Matrixmultiplikation). Es seien l, m, n ∈ N und A = (aik ) ∈
K n×m , B = (bkj ) ∈ K m×l . Dann ist das Produkt A·B ∈ K n×l wie folgt definiert:
(A · B)ij := ai1 · b1j + ai2 · b2j + · · · + ain · bnj =
m
X
aik · bkj
k=1
Es muss also gelten:
Spaltenzahl der linken Matrix = Zeilenzahl der rechten Matrix.
Abb. 1.2 illustriert die Multiplikation zweier Matrizen aus K n×m und K m×l .
Wenn l = m = n ist, dann lassen sich je zwei Matrizen derselben Art (also aus
K n×n ) miteinander multiplizieren.
Satz 10.1.4 (Ring der n × n Matrizen). Die Menge K n×n der n × n Matrizen
über einem Körper K bilden zusammen mit der oben definierten Addition und
Multiplikation einen nicht-kommutativen Ring mit Einselement


1 0 ··· 0
0 1 · · · 0


En = 
.
..


.
0
0
···
1
KAPITEL 10. VEKTORRÄUME
10
l

+
 b11



 b21

2
1
b

·

1
2

2
a
..

· b2
.

2
2

a

 bm1
2
· bm

a 2m 
a12 . . . a1m 
 c11



a22 . . . a2m 
 c21



..
..
..
..

.
.
.
.



cn1
an2 . . . anm 

b12
...
b1l
b22
...
b2l
..
.
..
..
.
bm2
...
.
..
+
.+

 a11



 a21


n 

..

.



 an1
m
bml







 m







c12
...
c1l
c22
...
c2l
..
.
..
..
.
cn2
...
.
cnl






 m





l
Abbildung 10.2: Veranschaulichung der Matrixmultiplikation. Source
KAPITEL 10. VEKTORRÄUME
11
Beweis: (K n×n , +) ist eine kommutative Gruppe, da sich die Eigenschaften der
Addition von dem Körper K auf die Addition von Matrizen übertragen. Das
neutrale Element ist dementsprechend die Nullmatrix, d.i. eine Matrix, die nur
Nullen als Einträge hat. Wir zeigen hier als Beispiel die Kommutativität, die
anderen Eigenschaften kann man in ähnlicher Weise nachrechnen.
Sei A, B ∈ K n×n , A = (aij ), B = (bij ), dann gilt:
A + B = (aij + bij ) = (bij + aij ) = B + A
Die Matrixmultiplikation ist assoziativ, da für A, B, C ∈ K n×n , A = (aij ), B =
(bij ), C = (cij ) gilt:
((A · B) · C)ij =
=
=
=
=
n
X
k=1
n
X
(A · B)ik · ckj
n
X
(
ail · blk ) · ckj
k=1 l=1
n X
n
X
k=1 l=1
n X
n
X
ail · blk · ckj
(Assoziativität bzgl. “+” und Distributivität in K)
ail · blk · ckj
(Kommutativität bzgl. “+” in K)
l=1 k=1
n
X
n
X
l=1
k=1
ail · (
|
blk · ckj ) (Distributivität in K)
{z
(B·C)lj
}
= (A · (B · C))ij
Die Matrixmultiplikation ist allerdings nicht kommutativ, z.B. ist
2 3
1 2
2·1+3·3 2·2+3·4
=
4 1
3 4
4·1+1·3 4·2+1·4
11 16
=
7 12
1 2
2 3
1·2+2·4 1·3+2·1
=
3 4
4 1
3·2+4·4 3·3+4·1
10 5
=
,
22 13
die beiden Multiplikationen haben also unterschiedliche Ergebnisse.
Einselement ist die Matrix


1 ... 0


E n =  ... . . . ...  ,
0 ... 1
die nur Einsen in der Diagonale hat und ansonsten mit Nullen besetzt ist, d.h.
(
1, falls i = j
n
E = (eij ) mit eij =
.
0, sonst
KAPITEL 10. VEKTORRÄUME
12
Wir zeigen nun, dass E n das neutrale Element bzgl. der Matrixmultiplikation
ist. Für eine beliebige Matrix A = (aij ) ∈ K n×n gilt:
A · E n = (aik )(ekj ) = (
n
X
aik ekj )
k=1
= (aij ejj )
= (aij ).
Ebenso zeigt man, dass E n · A = (eik )(akj ) = (aij ) ist. Beachten Sie, dass i, j
und k Laufindizes sind, deren Benennung geeignet angepasst werden kann. Manchmal benötigt man Matrizen in einer “umgedrehten” Form, d.h.
tauschten Zeilen und Spalten:



a11 a12 · · · a1m
a11 a21 · · ·
 a21 a22 · · · a2m 
 a12 a22 · · ·
T
ransponierung



A=
−→
At = 

..
..



.
.
an1 an2 · · · anm
a1m a2m · · ·
mit ver
an1
an2 



anm
At heißt transponierte Matrix von A. Ist A ∈ K n×m , so ist At ∈ K m×n .
n×n
sind invertierbar (beispielsweise ist
Bemerkung:
Nicht
alle Matrizen aus K
3 2
2×2
∈K
die Matrix
nicht invertierbar). Invertierbare Matrizen werden
6 4
auch reguläre Matrizen genannt. Vektoren aus K n lassen sich nicht einfach
miteinander multiplizieren, da das Format nicht passt (Spaltenzahl = 1, aber
Zeilenzahl = n). Durch Transponierung kann man jedoch erreichen, dass die
Formate zueinander passen.
 
 
x1
y1
 x2 
 y2 
 
 
Definition 10.1.5 (Skalarprodukt). Seien ~x =  .  , ~y =  .  ∈ K n .
.
 .. 
 . 
xn
yn
Dann ist
~x • ~y := ~x t · ~y = x1 y1 + . . . + xn yn ∈ K
das Skalarprodukt auf K n .
Beispiel 10.1.2. Betrachte die Vektoren (im R2 )
2
1
2
~u =
, ~v =
, ~x =
,
0
1
2
Es ist
~u
~x
~u
~v
•
•
•
•
~v
~y
~y
~x
=
=
=
=
2
4
0
4
~y =
0
.
2
KAPITEL 10. VEKTORRÄUME
13


v1
 v2 
 
Definition 10.1.6 (Länge von Vektoren). Die Länge eines Vektors ~v =  .  ∈
 .. 
vn
Rn ist definiert als
| ~v |=
q
v12 + v22 + . . . + vn2 .
√
Es ist also | ~v |= ~v • ~v .
Seien ~x, ~y ∈ Rn , sei ∠(~x, ~y ) der Winkel zwischen diesen Vektoren. Man kann
zeigen, dass
~x • ~y =| ~x || ~y | cos ∠(~x, ~y ).
Aus dieser Relation folgt eine geometrische Veranschaulichung. Der Wert eines
Skalarprodukts ~x • ~y beträgt die Länge der Projektion des Vektors, der die Länge
| ~x || ~y | hat und den Winkel ∠(~x, ~y ) mit der x-Achse einschließt, auf die x-Achse.
Sei Θ dieser Winkel, dann ergibt sich folgendes Bild:
1
| ~a || ~b |
Θ
cos Θ 1
| ~a || ~b | cos Θ
Aus dieser Beziehung ergibt sich folgendes Lemma:
Lemma 10.1.7. Seien ~x, ~y ∈ Rn Vektoren.
• Stehen ~x, ~y aufeinander senkrecht, so gilt ~x • ~y = 0.
• cos ∠(~x, ~y ) =
~x • ~y
.
| ~x || ~y |
Wegen der Beziehung zum Cosinus wird das Skalarprodukt in Anwendungen
(z.B. Information Retrieval, Suchmaschinen) oft als Ähnlichkeitsmaß verwendet.
Beispiel 10.1.3. Betrachte die Vektoren
2
1
2
~u =
, ~v =
, ~x =
,
0
1
2
0
~y =
.
2
KAPITEL 10. VEKTORRÄUME
14
aus Beispiel 1.7. Es ist | ~u |= 2, | ~v |=
10.2
√
√
2, | ~x |= 2 2, | ~y |= 2.
√1
2
√1
2
~u • ~v = 2
cos∠(~u, ~v ) =
~x • ~y = 4
cos∠(~x, ~y ) =
~u • ~y = 0
~v • ~x = 4
cos∠(~u, ~y ) = 0
cos∠(~v , ~x) = 1
orthogonal
vollkommen ähnlich!
Teilräume
Definition 10.2.1 (Teilräume, Untervektorräume). Es seien (K, +, ·) ein Körper und (V, +, ·) ein K-Vektorraum. Sei U ⊆ V eine Teilmenge von V .
U heißt Teilraum oder Untervektorraum von V , wenn es die folgenden Bedingungen erfüllt:
(i) U 6= ∅,
(ii) ~v , w
~ ∈ U ⇒ (~v + w)
~ ∈ U,
(iii) s ∈ K, ~v ∈ U ⇒ (s · ~v ) ∈ U .
Satz 10.2.2. Ein Teilraum U eines K-Vektorraumes (V, +, ·) zusammen mit
der Einschränkung der Addition +|U ×U und Skalarmultiplikation ·|K×U auf U
ist selbst wieder ein K-Vektorraum.
Beweis: Sei U ein Teilraum von V . Bedingungen (ii)-(v) von Definition 10.1.1
gelten für alle ~v ∈ V , also auch für alle ~v ∈ U . Bleibt noch (i) zu zeigen, d.h.
(U, +) ist eine kommutative Gruppe, und die Wohldefiniertheit der Abbildungen
„+“,“·“. Letzteres bedeutet:
~v , w
~ ∈ U ⇒ ~v + w
~ ∈U
s ∈ K, ~v ∈ U ⇒ s · ~v ∈ U
Dies aber sind gerade die Bedingungen (ii), (iii) von Def. 10.2.1.
Wir zeigen nun, dass (U, +) eine kommutative Gruppe ist. „+” ist assoziativ und
kommutativ in V, also auch in U.
Wir müssen noch zeigen
• Für ~v ∈ U ist auch −~v ∈ U :
Das ist klar, denn
−~v = −(1 · ~v )
Lemma10.1.2
=
(−1) · ~v ∈ U
wegen (iii).
• ~0 ∈ U :
Wegen (i) ist U 6= ∅, also gibt es einen Vektor ~v ∈ U . Dann ist aber auch
−~v ∈ U , und daher auch
~0 = ~v + (−~v ) = ~v − ~v ∈ U.
KAPITEL 10. VEKTORRÄUME
15
Korollar 10.2.3 (Teilräume und Nullvektor). Zu jedem Teilraum gehört der
Nullvektor ~0.
Beweis: Jeder Teilraum U ist nichtleer, enthält also einen Vektor ~v ∈ U . Damit
ist auch 0 · ~v = ~0 ∈ U .
Lemma 10.2.4 (Charakterisierung von Teilräumen). Es sei (V, +, ·) ein KVektorraum. Eine nichtleere Teilmenge U ⊆ V ist genau dann ein Teilraum von
V , wenn die folgende Bedingung erfüllt ist:
s ∈ K, ~v , w
~ ∈ U ⇒ ((s · ~v ) + w)
~ ∈ U.
Beweis: Seien (V, +, ·) ein K-Vektorraum, U ∈ V und U 6= ∅. Z.z.:
U ist ein Teilraum ⇔ ∀s ∈ K, ~v , w
~ ∈ U : ((s · ~v ) + w)
~ ∈ U.
„⇒“ Sei U ein Teilraum, s ∈ K und ~v , w
~ ∈ U . z.z.: ((s · ~v ) + w)
~ ∈U
Nach Def 10.1.6 gilt (s ·~v ) ∈ U , und daher nach Def. 10.1.6 ((s ·~v ) + w)
~ ∈ U.
„⇐“ Sei U ∈ V, U 6= ∅, und für alle s ∈ K, ~v , w
~ ∈ U gilt ((s · ~v ) + w)
~ ∈ U.
z.z.: U erfüllt die Bedingungen (i), (ii), (iii) von Def. 10.2.1.
zu (i): U 6= ∅ nach Voraussetzung.
zu (ii): Sei ~v , w
~ ∈ U . Dann gilt nach den Voraussetzungen
(~v + w)
~ = ((1 · ~v ) + w)
~ ∈ U.
zu (iii): Sei s ∈ K, ~v ∈ U . Dann ist
(s · ~v ) = (s · ~v ) + ~0 ∈ U,
da nach Korollar 10.2.3 ~0 ∈ U ist.
Beispiel 10.2.1.
1. Geraden im R2 /R3 : Jede durch den Ursprung verlaufende Gerade im R2 /R3 ist ein Untervektorraum des (R2 /R3 , +, ·).
2. Ebenen im R3 : Es sei M ⊆ R3 die Menge
M = { (x, y, z) ∈ R3 | z = x + y }
M ist ein Untervektorraum des (R3 , +, ·). Alle Ebenen des R3 , die durch
den Ursprung verlaufen, sind Untervektorräume des (R3 , +, ·).
KAPITEL 10. VEKTORRÄUME
16
3. Sei A ∈ K n×m eine n × m-Matrix. Sei N (A) ⊆ K m die Menge
N (A) = { ~x ∈ K m | A~x = ~0 }.
Dann ist N (A) ein Teilvektorraum von (K m , +, ·) und heißt Nullraum der
Matrix A. Diesen kann man sich auch geometrisch veranschaulichen.
Schauen wir uns hierzu allgemein eine Matrix A = (aij ) ∈ K n×m und die
Zeilenvektoren
a~i t = ai1 ai2 . . . ain .
an. Dann gilt:

a11 a12 · · ·
 a21 a22 · · ·


..

.
an1
an2
···
    Pm
 
  
a1m
x1
a~1 • ~x
0
k=1 a1k xk
Pm
 x2  





a2m 
a
x
a
~
•
~
x
    k=1 2k k   2
 0
 ·  ..  = 
 =  ..  =  .. 
..
  .  
  .  .
Pm .
anm
xm
a~n • ~x
0
k=1 ank xk
⇔
a~i • ~x = ~0
∀1 ≤ i ≤ n,
wobei • das Skalarprodukt ist. Das bedeutet, dass die Vektoren der Menge
N (A) genau die Vektoren sind, die auf allen Zeilenvektoren der Matrix
senkrecht stehen.
Zur Illustration schauen wir uns zum Beispiel die Matrix
2 3 1
A=
4 6 2
 
 
2
4
mit den Zeilenvektoren a~1 = 3 und a~2 = 6 an. Dann ergibt sich das
1
2
in Abbildung 10.3 dargestellte Bild, wobei der Nullraum eine Ebene ähnlich
zu der hier angedeuteten roten Fläche bildet, die sich aber natürlich ins
Unendliche weiter erstreckt.
Satz 10.2.5. Jeder Vektorraum V enthält auf jeden Fall die trivialen Untervektorräume V (also sich selbst) und den Nullvektorraum {~0}.
Wir diskutieren als nächstes Teilräume, die aus anderen Teilräumen durch
Schnittbildung und Addition entstehen.
Lemma 10.2.6. Es seien (V, +, ·) ein K-Vektorraum und U1 , U2 zwei Teilräume
von V . Dann sind auch
• U1 ∩ U2 und
• U1 + U2 := {~u1 + ~u2 | ~u1 ∈ U1 und ~u2 ∈ U2 }
Teilräume von V .
Beweis: Seien U1 , U2 Teilräume von V . Dann ist ~0 ∈ U1 ∩ U2 (nach Korollar
10.2.3), also U1 ∩ U2 6= ∅, und auch U1 + U2 6= ∅, da ~0 = ~0 + ~0 ∈ U1 + U2 .
KAPITEL 10. VEKTORRÄUME
17
a~2
a~1
Abbildung 10.3: Nullraum einer Matrix.
1. z.z.: U1 ∩ U2 ist ein Teilraum von V .
Sei s ∈ K, ~v , w
~ ∈ U1 ∩ U2 . Dann gilt sowohl ~v , w
~ ∈ U1 als auch ~v , w
~ ∈ U2 .
Nach Lemma 10.2.4 gilt dann ((s · ~v ) + w)
~ ∈ U1 ∩ U2 , folglich ist nach
demselben Lemma U1 ∩ U2 ein Teilraum.
2. z.z.: U1 + U2 ist ein Teilraum von V.
Sei s ∈ K, seien u~1 + u~2 , v~1 + v~2 ∈ U1 + U2 (mit u~1 , v~1 ∈ U1 , u~2 , v~2 ∈ U2 ).
Dann ist
(s · (u~1 + u~2 )) + (v~1 + v~2 ) = ((s · u~1 ) + (s · u~2 )) + (v~1 + v~2 )
= ((s · u~1 ) + v~1 ) + ((s · u~2 ) + v~2 ) ∈ U1 + U2 .
{z
} |
{z
}
|
∈U1
∈U2
Bemerkung: Ist I eine beliebige Indexmenge
und ist für alle i ∈ I die Menge
T
Ui ein Teilraum von V , so ist auch i∈I Ui ein Teilraum von V .
Es sei nun V ein K-Vektorraum. Für ~v ∈ V definieren wir
h~v i := {s · ~v | s ∈ K}.
Dann ist h~v i ein Teilraum von V . Man nennt ihn den von ~v erzeugten Teilraum.
Beispiel 10.2.2. (Geraden
im R2 ): Im R-Vektorraum R2 kann man sich den
x
~
von einem Vektor y 6= 0 erzeugten Teilraum als die Punkte auf der eindeutigen
Geraden durch den Nullpunkt und den Punkt xy vorstellen. Sind v~1 und v~2 zwei
Vektoren in V , so ist (nach Lemma 10.2.6) auch
hv~1 i + hv~2 i = {s1 v~1 + s2 v~2 | s1 , s2 ∈ K}
KAPITEL 10. VEKTORRÄUME
18
auch ein Teilraum.
Solche Teilräume wollen wir uns im Folgenden näher anschauen.
10.3
Linearkombinationen und Erzeugendensysteme
Eine wichtige Rolle im Zusammenhang mit Vektor- und Teilräumen spielen
Linearkombinationen von Vektoren. Das sind neue Vektoren, die durch Skalarmultiplikation und Vektoraddition aus gegebenen Vektoren entstehen.
Wir hatten gerade gesehen, dass solche sog. Linearkombinationen bei der Erzeugung von Teilräumen auftreten. Mit Hilfe von Linearkombinationen kann man
einen Teilraum also “von innen heraus” erzeugen.
Definition 10.3.1 (Linearkombinationen, Erzeugnisse). Es sei (V, +, ·) ein KVektorraum mit Vektoren ~v1 , . . . , ~vn ∈ V . Dann heißt der Vektor ~v ∈ V eine
Linearkombination der Vektoren {~v1 , . . . , ~vn }, wenn es s1 , . . . , sn ∈ K gibt mit
~v = s1 · ~v1 + · · · + sn · ~vn .
Ist M ⊆ V eine Teilmenge von V , so definieren wir das Erzeugnis von M als
( n
)
X
hM i :=
si · ~vi n ∈ N, si ∈ K und ~vi ∈ M für i = 1, . . . , n ,
i=1
wobei der leeren Summe der Nullvektor entspricht:
X
= ~0
∅
Lemma 10.3.2. Es sei (V, +, ·) ein K-Vektorraum und M ⊆ V eine beliebige
Teilmenge von V . Dann ist das Erzeugnis hM i von M ein Teilraum von V .
Beweis: Sei (V, +, ·) ein K-Vektorraum und sei M ⊆ V .
z.z.: hM i ist ein Teilraum von V .
Wir benutzen wieder Lemma 10.2.4. hM i ist nicht leer, da auf jeden Fall
X
~0 =
∈ hM i.
∅
Seien s ∈ K, ~v , w
~ ∈ hM i, d.h.
~v = s1 · ~v1 + · · · + sn · ~vn ,
w
~ = t1 · w
~ 1 + · · · + tn · w
~ n,
KAPITEL 10. VEKTORRÄUME
19
für ~v1 , . . . ~vn , w
~1 . . . w
~ n ∈ M und n, m ∈ N. Dann ist
s · ~v + w
~ = s · (s1 · ~v1 + · · · + sn · ~vn ) + t1 · w
~ 1 + · · · + tn · w
~n
= (s · s1 )~v1 + · · · + (s · sn )~vn + t1 · w
~ 1 + · · · + tn · w
~n
∈< M >
Also ist hM i ein Teilraum von V .
hM i heißt auch der von M erzeugte Teilraum von V . Die Menge M heißt
Erzeugendensystem von hM i.
Lemma 10.3.3. hM i ist der kleinste Teilraum (bezüglich Mengeninklusion) von
V , der M enthält.
Beweis: Sei M ⊆ V . Wir müssen zeigen:
Wenn U ein Teilraum von V ist mit M ⊆ U , dann ist auch hM i ⊆ U .
Sei U ein Teilraum von V mit M ⊆ U . hM i besteht aus allen Linearkombinationen von Vektoren aus M, wir müssen also zeigen, dass alle solche Linearkombinationen in U liegen.
Seien also ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K. Wegen M ⊆ U sind dann auch alle
~v1 , . . . , ~vn ∈ U , folglich sind s1 · ~v1 , . . . , sn · ~vn ∈ U und daher
s1 · ~v1 + · · · + sn · ~vn ∈ U
nach Definition des Teilraumes. Daher ist hM i ⊆ U .
Demnach macht es Sinn, als Erzeugnis der leeren Menge den trivialen Teilraum
von V , der nur aus dem Nullvektor besteht, zu definieren, also
h∅i := {~0}.
Definition 10.3.4 (Endlich erzeugter (Unter)Vektorraum). Es sei (V, +, ·) ein
K-Vektorraum und U ⊆ V ein Untervektorraum. Gibt es eine endliche Menge
M ⊆ V , also M = {~v1 , . . . ~vn } mit n ∈ N, sodass U = hM i, so sagen wir, dass
U endlich erzeugt ist. Wir schreiben auch
hM i = h{~v1 , . . . , ~vn }i = h~v1 , . . . , ~vn i
( n
)
X
si · ~vi si ∈ K für i = 1, . . . , n
=
i=1
2
2
Beispiel 10.3.1.
1 −11. 1Ein
erzeugter Teilraum 2im R : Es sei V = R und
M =
,
,
.
Dann
ist
hM
i
=
R
,
denn
ein
beliebiger
Vektor
1
1
0
x
2
∈
R
kann
wie
folgt als Linearkombination der Elemente von M
y
geschrieben werden:
x
1
−1
1
+ (y − x) ·
=x·
+ (y − x) ·
y
1
1
0
1 −1 1
Damit ist 1 , 1 , 0 also ein Erzeugendensystem des Vektorraums R2
und R2 ist folglich endlich erzeugt. Bereits die kleinere Menge 11 , 10
KAPITEL 10. VEKTORRÄUME
ist ein Erzeugendensystem von R2 , da ein beliebiger Vektor
geschrieben werden kann als
x
1
1
=y·
+ (x − y) ·
y
1
0
20
x
y
∈ R2
2. Das Standard-Erzeugendensystem des K n : Wir betrachten den K-Vektorraum K n . Für i = 1, . . . , n sei ~ei der Vektor, dessen i-ter Eintrag 1 ist
und alle anderen Einträge 0, d.h.
 
0
 .. 
.
 
(
0
 
1 falls j = i,

~ei = 
(~ei )j =
1 ← i
0 sonst.
0
 
.
 .. 
0
Der Vektor ~ei heißt i-ter Einheitsvektor. Dann ist {~e1 , . . . , ~en } ein Erzeugendensystem von K n , also K n = h~e1 , . . . , ~en i, denn
 
x1
 .. 
für alle x1 , . . . , xn ∈ K.
 .  = x1 · ~e1 + · · · + xn · ~en
xn
Folglich ist der Vektorraum K n endlich erzeugt.
Die Beispiele illustrieren, dass ein Vektorraum kompakt durch ein Erzeugendensystem dargestellt werden kann. Wenn wir diese Darstellung nun möglichst klein
erhalten wollen, müssen wir Erzeugendensysteme minimieren. Dies führt uns zu
der Idee der Basis als minimales Erzeugendensystem.
Idee der Basis: Mit Hilfe von Erzeugendensysteme lassen sich (Unter)Vektorräume leicht kompakt repräsentieren, sie enthalten offenbar alle wichtigen Informationen über den Vektorraum. Wie kann man diese Art der Repräsentation
von Vektorräumen optimieren?
• Minimalität: Kein Vektor in dem optimalen Erzeugendensystem ist überflüssig.
• Unabhängigkeit: Die Vektoren im optimalen Erzeugendensystem sind
(irgendwie) unabhängig voneinander.
• Eindeutigkeit: Jeder Vektor des erzeugten Vektorraumes hat genau eine
Darstellung als Linearkombination der Vektoren des Erzeugendensystems.
Definition 10.3.5 (Basis). Es sei (V, +, ·) ein K-Vektorraum. Eine Teilmenge
M ⊆ V heißt Basis von V , wenn sich jedes ~v ∈ V eindeutig als Linearkombination von paarweise verschiedenen Vektoren aus M schreiben lässt. Außerdem
definieren wir, dass die leere Menge ∅ eine Basis des trivialen K-Vektorraums
{~0} ist.
KAPITEL 10. VEKTORRÄUME
21
Insbesondere ist jede Basis von V auch ein Erzeugendensystem von V . Zunächst einmal charakterisieren wir endliche Basen, die für viele Beispiele und
Anwendungen wichtig sind:
Satz 10.3.6. Es sei (V, +, ·) ein K-Vektorraum. Die endliche Teilmenge
{~v1 , . . . , ~vn } ⊆ V
ist eine Basis von V genau dann, wenn ~v1 , . . . , ~vn paarweise verschieden sind
und es zu jedem ~u ∈ V genau ein n-Tupel (x1 , . . . , xn )t ∈ K n gibt mit
~u = x1 · ~v1 + · + xn · ~vn
Beweis: Sei {~v1 , . . . , ~vn } ⊆ V , {~v1 , . . . , ~vn } ist eine Basis von V
Def.
⇔
jedes ~v ∈ V lässt sich eindeutig als Linearkombination von paarweise
verschiedenen ~vi ∈ {~v1 , . . . , ~vn } schreiben.
Wir müssen jetzt noch zeigen, dass dies äquivalent ist zu ~v1 , . . . , ~vn sind paarweise
verschieden, und es gibt zu jedem ~v ∈ V genau ein n-Tupel (x1 , . . . , xn )t ∈ K n
mit
~v = x1 · ~v1 + · · · + xn~vn .
„⇒“ {~v1 , . . . , ~vn } sei eine Basis von V. Dann sind ~v1 , . . . , ~vn paarweise verschieden, da falls ~vi = ~vj , für i und j, 1 ≤ i < j ≤ n gilt, dass
~v := ~vi = 1 · ~vi = 1 · ~vj ,
und damit wäre die Eindeutigkeit der Darstellung von ~v verletzt.
Sei ~v ∈ V . Dann lässt sich ~v eindeutig darstellen in der Form
~v = x1 · ~v1 + · · · + xn~vn ,
wobei einige xi = 0 sein können. Damit ist das Tupel (x1 , . . . , xn )t ∈ K n
ebenfalls eindeutig bestimmt.
„⇐“ Diese Richtung ist trivial.
Beispiel 10.3.2.
1. Einheitsvektoren im K n : Die Menge der Einheitsvektoren {~e1 , . . . , ~en } ist eine Basis des K-Vektorraums K n .
2. Nicht jedes Erzeugendensystem
1ist
eine2 Basis: Wie wir
1weiter
−1 oben
be1
obachtet haben, gilt 11 , −1
,
=
R
.
Die
Menge
,
,
ist
1
0
1
1
0
jedoch keine Basis von R2 , denn
−1
1
−1
1
= 0·
+ 1·
+ 0·
1
1
1
0
und andererseits
−1
1
−1
1
= 1·
+ 0·
− 2·
1
1
1
0
KAPITEL 10. VEKTORRÄUME
22
3. Der Nullvektor und Basen: Der Nullvektor ~0 kann nie Element einer
Basis sein, denn
0 · ~0 = 1 · ~0 = ~0 ,
so dass also die Darstellung des Nullvektors nicht eindeutig sein kann.
1 1
2
Basis
des
R
:
Die
Menge
ist Basis von R2 , denn für
4. Eine
1 , 0
x
2
y ∈ R gilt
x
1
1
= y·
+ (x − y) ·
.
y
1
0
Gilt auch
x
1
1
= a·
+ b·
y
1
0
für a, b ∈ R, so muss x = a + b und y = a gelten. Daraus folgt aber a = y
und b = x − y, so dass die Koeffizienten der Darstellung also eindeutig
sind.
5. Der R-Vektorraum R2 hat unendlich viele Basen: Zum Beispiel ist die
Menge {~e1 , c · ~e2 } für alle c ∈ R\{0} eine Basis von R2 .
10.4
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Bei der Idee eines optimalen Erzeugendensystems (also einer Basis) sollte auch die
Idee der Unabhängigkeit umgesetzt werden. Das wollen wir nun konkretisieren.
Definition 10.4.1 (Lineare Unabhängigkeit). Es sei (V, +, ·) ein K-Vektorraum.
Eine Teilmenge M ⊆ V heißt linear unabhängig, wenn für jedes ~v ∈ M gilt, dass
D
E
~ 6= hM i.
M \ {v}
Die Teilmenge M heißt linear abhängig, wenn M nicht linear unabhängig ist,
das heißt
M ist linear abhängig
Beispiel 10.4.1.
⇔
∃~v ∈ M : hM \ {~v }i = hM i.
1. Die leere Menge ∅ ist linear unabhängig.
2. Ist ~0 ∈ M , so ist M linear abhängig, da hM \ {~0}i = hM i.
1
3. Die Menge 11 , −1
ist linear abhängig, weil hM i = R2 , aber auch
1 , 0
−1
2
schon M \
=R .
1
Lemma 10.4.2. Es sei V ein K-Vektorraum und M ⊆ V . Die folgenden
Aussagen sind äquivalent:
(i) M ist linear abhängig.
(ii) Es gibt ein ~v ∈ M mit ~v ∈ hM \ {~v }i.
KAPITEL 10. VEKTORRÄUME
23
Beweis:
(i) ⇒ (ii) Sei M ⊆ V eine linear abhängige Teilmenge von V . Dann gibt es ein
~v ∈ M mit hM \ {~v }i = hM i. Wegen M ⊆ hM i und ~v ∈ M gilt dann auch
~v ∈ M ⊆ hM i = hM \ {~v }i.
(ii) ⇒ (i) Sei ~v ∈ M mit ~v ∈ hM \ {~v }i. Dann gibt es si ∈ K und ~vi ∈
M \ {~v } , 1 ≤ i ≤ n mit
n
X
~v =
si · ~vi
(10.4.1)
i=1
Wir zeigen nun, dass
hM \ {~v }i = hM i
(10.4.2)
ist. Nach Definition ist M dann linear abhängig.
z.z.: Gleichung 10.4.2 gilt
Wegen M \ {~v } ⊆ M ist auch hM \ {~v }i ⊆ hM i. Sei umgekehrt w
~ ∈ hM i, d.h.
w
~=
m
X
tj · w
~j
(3)
j=1
mit tj ∈ K, w~j ∈ M, 1 ≤ j ≤ m. Ist keines der w
~ j gleich ~v , so ist w
~ ∈ hM \{~v }i,
und wir sind fertig. Andernfalls ist ~v = w
~ j für ein j, o.B.d.A. ~v = w
~ 1 . Mit
10.4.1 und 3 können wir dann schreiben:
w
~ = t1 · ~v +
m
X
tj · w
~j
j=2
n
m
X
X
= t1 (
si · ~vi ) +
tj · w
~j
=
i=1
n
X
j=2
m
X
(t1 · si ) · ~vi +
i=1
|
tj · w
~ j ∈ hM \ {~v }i
j=2
{z
∈hM \{~
v }i
}
|
{z
}
∈hM \{~
v }i
Insgesamt gilt damit 10.4.2.
Das Lemma sagt also aus, dass es in einer linear abhängigen Teilmenge M
ein Element gibt, das als Linearkombination der anderen Elemente aus M
geschrieben werden kann.
Beispiel 10.4.2. Es sei V = R3 und
       
1
0
0 
 1
1 , 0 , 1 , 0 .
M :=


0
0
0
1
KAPITEL 10. VEKTORRÄUME
24
Dann ist M linear abhängig, da
 
 
 
 
1
1
0
0
1 = 1 · 0 + 1 · 1 + 0 · 0
0
0
0
1
* 1 0 0 +
∈
0 , 1 , 0
0
0
1
.
Es gilt auch
  *     +
1
1
0
0
0 ∈ 1 , 1 , 0
0
0
0
1
und
  *     +
0
1
1
0
1 ∈ 1 , 0 , 0 .
0
0
0
1
Man beachte jedoch, dass
  *     +
0
1
1
0
0 ∈
/ 1 , 0 , 1 .
0
0
0
1
Welche Folgerung können wir aus dem letzten Beispiel ziehen?
Bemerkung: Bei einer linear abhängigen Menge M muss nicht jedes Element
~v ∈ M in dem von den übrigen erzeugten Teilraum liegen.
Lemma 10.4.3. Es sei V ein K-Vektorraum und M ⊆ V . Die folgenden
Aussagen sind äquivalent:
(i) M ist linear abhängig.
(ii) Es gibt paarweise verschiedene Vektoren ~v1 , . . . , ~vn ∈ M mit zugehörigen
Skalaren s1 , . . . , sn ∈ K, die nicht alle Null sind, mit
s1 · ~v1 + · · · + sn · ~vn = ~0.
Beweis: Wir zeigen zunächst (i) ⇒ (ii). M sei linear abhängig. Nach Lemma
10.4.2 gibt es ein ~v1 ∈ M mit ~v1 ∈ hM \ {~v1 }i.
Fall 1: M \ {~v1 } = ∅. Dann ist ~v1 ∈ h∅i = ~0 , also ~v1 = 0. Wähle (z.B.)
s1 = 1 ∈ K, dann ist
s1 · ~v1 = 1 · ~0 = ~0.
Fall 2: M \{~v1 } =
6 ∅. Dann gibt es paarweise verschiedene ~v2 , . . . , ~vn ∈ hM \{~v1 }i
und s1 , . . . , sn ∈ K mit
~v1 = s2 · ~v2 + · · · + sn · ~vn .
KAPITEL 10. VEKTORRÄUME
25
Dann ist aber
−~v1 + s2 · ~v2 + · · · + sn · ~vn = ~0,
wobei ~v1 , ~v2 , . . . , ~vn paarweise verschieden sind und zumindest der Koeffizient
von ~v1 von 0 verschieden ist (−1 6= 0).
Es bleibt noch zu zeigen, dass (ii) ⇒ (i) gilt. Nach Voraussetzung gibt es
(paarweise verschiedene) Vektoren ~v1 , . . . , ~vn ∈ M und Skalare s1 , . . . , sn ∈ K,
nicht alle gleich 0, mit s1 · ~v1 + · · · + sn · ~vn = ~0. Mindestens eines der si ist 6= 0,
sei dies o.B.d.A. s1 . Dann ist
s1 · ~v1
⇒
s−1
1
= − s2 · ~v2 − · · · − sn · ~vn
· (s1 · ~v1 )= − s−1
v2 ) − · · · − s−1
vn )
1 (s2 · ~
1 (sn · ~
=1 · ~v1 = (s−1
v1
1 · s1 ) · ~
⇒ ~v1
= − (s−1
v2 − · · · − (s−1
vn
1 s2 ) · ~
1 sn ) · ~
⇒ ~v1
∈h~v2 , . . . , ~vn i ⊆ hM \ {~v1 }i.
Also ist M linear abhängig.
Als unmittelbare Folgerung aus Lemma 10.4.3 erhalten wir das nächste Korollar.
Korollar 10.4.4. Es sei V ein K-Vektorraum und M ⊆ V . Die folgenden
Aussagen sind äquivalent:
(i) M ist linear unabhängig.
(ii) Für beliebige paarweise verschiedene Vektoren ~v1 , . . . , ~vn ∈ M und beliebige
Skalare s1 , . . . , sn ∈ K gilt:
s1 · ~v1 + · · · + sn · ~vn = ~0
⇒
s1 = · · · = sn = 0.
(10.4.3)
Beweis: Dieses Korollar ergibt sich aus Lemma 10.4.3 durch Negation von (i)
und (ii) unter Beachtung der logischen Äquivalenz
A ⇔ B gdw. ¬A ⇔ ¬B.
Negation von (i), Lem. 10.4.3:
M ist linear unabhängig.
Negation von (ii), Lem. 10.4.3:
¬(∃~v1 , . . . , ~vn ∈ M paarweise verschieden, ∃s1 , . . . , sn ∈ K, nicht alle si = 0:
s1~v1 + · · · + sn~vn = ~0.)
≡
∀~v1 , . . . , ~vn ∈ M paarweise verschieden, ∀s1 , . . . , sn ∈ K, nicht alle si = 0:
s1~v1 + · · · + sn~vn 6= ~0.
≡
∀~v1 , . . . , ~vn ∈ M paarweise verschieden, ∀s1 , . . . , sn ∈ K :
s1~v1 + · · · + sn~vn = ~0 ⇒ si = 0 für alle i mit 1 ≤ i ≤ n.
KAPITEL 10. VEKTORRÄUME
26
Bedingung 10.4.3 liefert eine sehr häufig verwandte Methode, um lineare Unabhängigkeit nachzuweisen.
Bemerkung: Die Implikation in Teil (ii) des obigen Korollars ist eigentlich
eine Äquivalenz.
Aus diesem Korollar kann man nun wiederum ein weiteres ableiten.
Korollar 10.4.5. Teilmengen linear unabhängiger Mengen sind selbst wieder
linear unabhängig.
Dieses Korollar gilt jedoch nicht für linear abhängige Mengen, was sich leicht
anhand eines Gegenbeispiels verdeutlichen lässt.
Beispiel 10.4.3. Es sei V = R3 und
     
1
1 
 1
1 , 2 , 3 ⊆ V.
M=


1
3
5
Um festzustellen, ob M linear abhängig ist, müssen wir nach Lemma 10.4.3
überprüfen, ob es Skalare x1 , x2 , x3 ∈ R gibt mit (x1 , x2 , x3 ) 6= (0, 0, 0), so dass
 
 
 
 
1
1
0
1
x1 · 1 + x2 · 2 + x3 · 3 = 0
1
3
5
0
gilt. Dies ist z.B. für (x1 , x2 , x3 ) = (1, −2, 1) der Fall.
  
 1 
Also ist M linear abhängig. Allerdings ist jede der Teilmengen M1 = 1 ,


1
  
 
 1 
 1 
M2 = 2 und M3 = 3 linear unabhängig.




3
5
10.5
Basis und Dimension
Wir bringen nun die Begriffe “Vektorraumbasis” und “lineare Unabhängigkeit”
zusammen und verbinden diese au?erdem mit dem Begriff der “Minimalität”.
Wir werden auch sehen, dass eine Vektorraumbasis optimal ist in Bezug auf
“maximale Ausschöpfung”.
Satz 10.5.1 (Charakterisierung von Basen). Es sei (V, +, ·) ein K-Vektorraum
und M ⊆ V . Dann sind die folgenden Aussagen äquivalent:
(i) M ist Basis von V .
KAPITEL 10. VEKTORRÄUME
27
(ii) M ist linear unabhängiges Erzeugendensystem von V .
(iii) M ist inklusionsminimales Erzeugendensystem von V , d.h.
hM i = V
und
hM \ {~u}i =
6 V für alle ~u ∈ M.
„Wenn man einen Vektor wegnimmt, erhält man kein Erzeugendensystem
mehr.“
(iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V , d.h.
M ist linear unabhängig, aber M ∪ {~v } ist für jedes ~v ∈ V \ M linear
abhängig.
„Wenn man einen Vektor hinzunimmt, erhält man keine linear unabhängige
Menge mehr.“
Beweis: Wir beweisen den Satz mit folgendem Ringschluss:
(i) ⇒ (ii) ⇒ (iii) ⇒ (iv) ⇒ (i)
(i) ⇒ (ii) Sei M eine Basis von V . Dann ist M auch ein Erzeugendensystem von
V nach Definition 10.3.5. Wir müssen noch zeigen, dass M linear unabhängig ist.
Wir benutzen dazu Korollar 10.4.4 bzw. Bedingung (4). Seien also ~v1 , . . . , ~vn ∈
M , paarweise verschieden, mit s1 , . . . , sn ∈ K, so dass
s1 · ~v1 + · · · + sn · ~vn = ~0 = 0 · ~v1 + · · · + 0 · ~vn .
Wegen der Eindeutigkeit der Darstellung ist dann s1 = · · · = sn = 0. Damit
ist (4) erfüllt, und also gilt (ii).
(ii) ⇒ (iii) Sei M ein linear unabhängiges Erzeugendensystem von V . Wir
müssen zeigen: M ist inklusionsminimales Erzeugendensystem, d.h. es gibt
keine echte Teilmenge M 0 ( M , die auch V erzeugt, d.h. hM \{~u}i =
6 V = hM i
für alle ~u ∈ M . Das ist aber gerade die Defnition der linearen Unabhängigkeit.
Damit ist M inklusionsminimales Erzeugendensystem.
(iii) ⇒ (iv) Es gelte hM i = V und hM \ {~u}i =
6 V für alle ~u ∈ M .Damit ist M
linear unabhängig.
Noch z.z.: M ∪ {~v } ist für jedes ~v ∈ V \ M linear abhängig.
Sei ~v ∈ V \ M . Dann ist
V = hM i ⊆ hM ∪ {~v }i ⊆ V,
da ~v ∈ V und M ⊆ V . Also ist
hM i = hM ∪ {~v }i = V,
und damit ist M ∪ {~v } linear abhängig.
(iv) ⇒ (i) Sei M inklusionsmaximale linear unabhängige Teilmenge von V. Wir
müssen zeigen, dass M eine Basis von V ist. Wir zeigen zunächst, dass
M ein Erzeugendensystem von V ist, d.h. dass jeder Vektor ~v aus V als
Linearkombination von endlich vielen Vektoren aus M geschrieben werden
KAPITEL 10. VEKTORRÄUME
28
kann. Für ~v ∈ M ist das klar. Sei nun ~v ∈
/ M . Da M inklusionsmaximale
linear unabhängige Teilmenge von V ist und M ⊂ M ∪ {~v } ist, muss M ∪ {v}
linear abhängig sein. Also gibt es ~v1 , . . . , ~vn ∈ M und s, s1 , . . . , sn ∈ K, nicht
alle gleich 0, mit
s · ~v + s1 · ~v1 + · · · + sn~vn = ~0.
Da M linear unabhängig ist, muss insbesondere s 6= 0 sein. Also gilt
− s · ~v =s1 · ~v1 + · · · + sn · ~vn
⇒ ~v
=(−s)−1 s1 · ~v1 + · · · + (−s)−1 sn · ~vn .
Also ist ~v ∈ hM i und daher hM i = V .
Es bleibt, die Eindeutigkeit der Darstellung als Linearkombination zu zeigen.
Sei ~v ∈ V , und nehmen wir an, es gilt
~v = s1~v1 + · · · + sn~vn
= t1 w
~ 1 + · · · + tm w
~m
(10.5.1)
mit s1 , . . . , sn , t1 , . . . , tm ∈ K, ~v1 , . . . , ~vn , w
~ 1, . . . , w
~ m ∈ M . Wir betrachten
die beteiligten Vektoren gemeinsam:
{~v1 , . . . , ~vn , w
~ 1, . . . , w
~ m } = {~u1 , . . . , ~uq } ⊆ M
mit q ≤ n + m (es können Vektoren ~vi und w
~ j identisch sein, für 1 ≤ i ≤
n, 1 ≤ j ≤ m). Dann können wir schreiben
~v = s01 ~u1 + · · · + s0q ~uq
= t01 ~u1 + · · · + t0q ~uq ,
indem wir die Darstellungen von 10.5.1 übernehmen und für zusätzliche
Vektoren ~ui die zugehörigen Skalare (s0i bzw. t0i ) gleich 0 setzen.
Durch Subtraktion erhält man
~0 = (s01 − t01 )~u1 + · · · + (s0q − t0q )~uq .
Da {~u1 , . . . , ~uq } ⊆ M und M linear unabhängig ist, gilt s0i = t0i für alle i,
1 ≤ i ≤ q, und damit sind die obigen Darstellungen in 10.5.1 identisch.
Wir haben bislang nur an speziellen Beispielen gesehen, dass Basen von Vektorräumen tatsächlich existieren können. Der folgende Satz belegt, dass das kein
Zufall ist.
Satz 10.5.2 (Existenz von Basen). Jeder endlich erzeugte K-Vektorraum besitzt
eine Basis.
Beweis: Sei M ein Erzeugendensystem von V . Solange es (rekursiv) einen
Vektor ~v ∈ M gibt, so dass hM \ ~v i = hV i ist, entferne diesen. Da M endlich ist,
sind wir in endlich vielen Schritten fertig und erhalten ein inklusionsminimales
Erzeugendensystem von V , also eine Basis nach Satz 10.5.1.
Aus dem Beweis ergibt sich sofort das folgende Korollar:
KAPITEL 10. VEKTORRÄUME
29
Korollar 10.5.3. Jedes endliche Erzeugendensystem eines Vektorraums enthält
eine Basis.
Wir wenden uns jetzt dem Problem zu, für einen endlich erzeugten Vektorraum
eine Basis aus einem Erzeugendensystem heraus zu konstruieren. Das Verfahren
beruht auf dem folgenden Lemma.
Lemma 10.5.4. Es sei V ein K-Vektorraum und ~v1 , . . . , ~vn ∈ V .
(i) Für i 6= j und s ∈ K gilt
h~v1 , . . . , ~vj , . . . , ~vn i = h~v1 , . . . , ~vj + s~vi , . . . , ~vn i.
(ii) Für i ∈ {1, . . . , n} und t ∈ K\{0} gilt
h~v1 , . . . , ~vi , . . . , ~vn i = h~v1 , . . . , t~vi , . . . , ~vn i
(iii) h~v1 , . . . , ~vn i = h~v1 , . . . , ~vn , ~0i.
Beweis: Um jeweils zu zeigen, dass beide Vektorräume identisch sind, muss
man zeigen, dass jeder Vektor des einen Erzeugendensystems sich auch als
Linearkombination des anderen Erzeugendensystems schreiben l?sst. F?r die
unver?nderten Vektoren v~k ist das klar. Wir m?ssen uns also nur die Vektoren
an der ge?nderten Stelle anschauen.
zu (i) Sei s ∈ K.
Die Teilmengenrelation „⊆“ gilt, da
~vj = (~vj + s~vi ) − s~vi ∈ h~v1 , . . . , ~vj + s~vi , . . . , ~vn i
als Linearkombination der Vektoren ~vj + s~vi und ~vi ist . Die andere Teilmengenrelation gilt, da
~vj + s~vi ∈ h~v1 , . . . , ~vj , . . . , ~vn i
ist, und somit gilt die Gleichheit.
zu (ii) Klar, da ~vi = t−1 · t~vi
zu (iii) Wegen ~0 ∈ h~v1 , . . . , ~vn i gilt
h~v1 , . . . , ~vn i ⊆ h~v1 , . . . , ~vn , ~0i ⊆ h~v1 , . . . , ~vn i.
Wir wenden Lemma 10.5.4 an, um Erzeugendensysteme so zu modifizieren,
dass linear abhängige Teile auf Nullvektoren reduziert werden, so dass die
Basisvektoren (als Nicht-Nullvektoren) direkt abgelesen werden können.
KAPITEL 10. VEKTORRÄUME
30
Beispiel 10.5.1. Es sei K = R und
* 1 1  1  +
V := 1, 3,  6  .
1
5
11
| {z } | {z } | {z }
=:~
v1
=:~
v2
=:~
v3
Wegen Lemma 10.5.4 ist dann
V = h~v1 , ~v2 − ~v1 , ~v3 i
= h~v1 , ~v2 − ~v1 , ~v3 − ~v1 i
*     +
1
0
0
= 1, 2,  5 
1
4
10
| {z } | {z } | {z }
=:~
v10
=:~
v20
=:~
v30
Wir halten jetzt ~v10 fest und machen mit ~v20 , ~v30 nach Lemma 10.5.4 weiter:
5 0
0 1 0
0
V = ~v1 , ~v2 , ~v3 − ~v2
2
2
* 1 0 0 +
= 1 , 1 , 0
1
2
0
* 1 0 +
=
1 , 1
1
2
(wegen Lemma 10.5.4 (iii))
Da die letzten beiden Vektoren linear unabhängig sind, bilden sie also eine Basis
von V .
Vektorraumbasen haben zwei charakteristische Eigenschaften:
• sie sind linear unabhängig, und
• sie bilden ein Erzeugendensystem.
Wir haben oben gezeigt, dass man mit Hilfe von Lemma 10.5.4 aus jedem
endlichen Erzeugendensystem eines Vektorraums V eine Basis von V erhalten
kann.
Der folgende Satz stellt die umgekehrte Vorgehensweise zur Findung einer Basis
dar – linear unabhängige Teilmengen lassen sich zur Basis ergänzen.
Satz 10.5.5 (Basisergänzungssatz). Es sei V ein endlich erzeugter K-Vektorraum mit endlichem Erzeugendensystem E ⊆ V , also V = hEi. Weiterhin sei
M ⊆ V linear unabhängig. Dann gibt es eine Teilmenge E 0 ⊆ E, so dass M ∪ E 0
eine Basis von V ist.
KAPITEL 10. VEKTORRÄUME
31
Beweis: Seien V = hEi mit E ⊆ V , E endlich und M ⊆ V , M linear unabhängig.
Es ist hM i ⊆ hM ∪ Ei ⊆ V = hEi, also hM ∪ Ei = V . D.h., durch Hinzunahme
von Vektoren aus E kann man aus M ein Erzeugendensystem gewinnen.
Sei E 0 ⊆ E eine inklusionsminimale Menge mit hE 0 ∪ M i = V (d.h. h(E 0 \ {~v }) ∪
Mi =
6 V für alle ~v ∈ E 0 ). Dann ist E 0 ∪ M eine Basis von V , denn:
0
E ∪ M ist wegen hE 0 ∪ M i = V ein Erzeugendensystem von V . Wir müssen nur
noch zeigen, dass E 0 ∪ M linear unabhängig ist. Seien dazu ~v1 , . . . , ~vm ∈ E 0 und
w
~ 1, . . . , w
~ n ∈ M mit
s1~v1 + · · · + sm~vm + t1 w
~ 1 + · · · + tn w
~ n = ~0.
Z.z. ist
s1 = · · · = sm = t1 = · · · = tn = 0.
Wir schauen uns zunächst die si an. Ist eines der si 6= 0, so gilt (nach Umstellung)
si~vi +
m
X
sk~vk +
k=1,k6=i
m
X
⇒ ~vi = −
n
X
tl w
~ l = ~0
l=1
(s−1
vk −
i sk )~
k=1,k6=i
n
X
(s−1
~l
i tl )w
l=1
0
∈E \ {~vi } ∪ M
0
0
also hE ∪ M i = hE \ {~vi } ∪ M i, das aber verletzt die Minimalität von E 0 . Also
muss gelten s1 = · · · = sm = 0. Dann ist aber
t1 w
~ 1 + · · · + tn w
~ n = ~0.
Aus der linearen Unabhängigkeit von M folgt t1 = · · · = tn = 0. Damit sind alle
Koeffizienten si und tj gleich 0, und folglich ist E 0 ∪ M linear unabhängig. Beispiel 10.5.2. Wir betrachten das Erzeugendensystem
1 0
0 1
0 0
0 0
E :=
,
,
,
0 0
0 0
1 0
0 1
des R-Vektorraums R2×2 (Raum der reellen 2 × 2-Matrizen). Die Menge
1 0
0 1
M :=
,
0 1
1 0
ist linear unabhängig. Wir bilden wie im Beweis zu Satz 10.5.5 die Menge
M ∪ E und reduzieren dann den Anteil aus E, bis wir ein linear unabhängiges
Erzeugendensystem M ∪ E 0 mit E 0 ⊆ E erhalten. Es ist
0 0
1 0
1 0
=
−
∈ hM ∪ E (1) i
0 1
0 1
0 0
| {z } | {z }
∈M
mit E (1)
∈E (1)
0 0
=E\
, also ist hM ∪ Ei = hM ∪ E (1) i. Weiterhin ist
0 1
0 0
0 1
0 1
=
−
∈ hM ∪ E (2) i
1 0
0 0
1 0
| {z } | {z }
∈M
∈E (2)
KAPITEL 10. VEKTORRÄUME
mit E (2) = E (1) \
32
0 0
, also ist hM ∪ E (1) i = hM ∪ E (2) i. Die Menge
1 0
B = M ∪ E (2)










1 0
0 1
1 0
0 1
,
=
,
,
0 0
0 0 
0 1
1 0




{z
} |
{z
}

|
M
E (2)
ist linear unabhängig, denn:
Sei
0 0
1 0
0 1
1 0
0 1
= s1
+ s2
+ s3
+ s4
0 0
0 1
1 0
0 0
0 0
s + s3 s2 + s4
= 1
,
s2 s1
so muss gelten
s1 +s3
s1
=0
s2
+s4 =0
s2
=0
=0
Hieraus folgt sofort
s1 = s2 = s3 = s4 = 0.
Damit ist B eine Basis.
Man beachte jedoch, dass die Menge
1 0
0 1
1 0
0 0
0
B :=
,
,
,
0 1
1 0
0 0
0 1
zwar M enthält, aber keine Basis von R2×2 ist, da diese Menge linear abhängig
ist (der erste Vektor ist die Summe der beiden letzten Vektoren).
Wir fassen noch einmal die Ergebnisse bisher zusammen:
Korollar 10.5.6.
1. Jeder Vektorraum besitzt eine Basis.
2. In jedem Erzeugendensystem eines Vektorraumes ist eine Basis enthalten.
3. Jede linear unabhängige Menge lässt sich zu einer Basis ergänzen.
Das folgende Korollar verdeutlicht noch einmal die Optimalität von Basen:
Korollar 10.5.7. Die folgenden Aussagen für eine Teilmenge B eines Vektorraumes V sind äquivalent:
1. B ist eine Basis von V .
KAPITEL 10. VEKTORRÄUME
33
2. B ist eine minimale1 Erzeugendenmenge.
3. B ist eine maximal2 linear unabhängige Menge.
Wir haben gesehen, dass Basen als minimale Erzeugendensysteme optimale (und
platzsparende) Darstellungen der Information in einem Vektorraum sind.
Wir wollen nun diese Minimalität zahlenmäßig erfassen und fragen: Wie “groß”
ist eine Basis? Kann die Größe der Basis in Abhängigkeit von den gewählten
Vektoren variieren?
Ziel des Folgenden ist es zu zeigen, dass alle Basen eines Vektorraums dieselbe
Kardinalität besitzen, die dann die Dimension des Vektorraums genannt wird.
Dazu müssen wir unsere vorherigen Überlegungen noch stärker präzisieren.
Satz 10.5.8 (Austauschsatz von Steinitz). Es sei V ein K-Vektorraum und
{~v1 , . . . , ~vn } Basis von V . Ferner sei I eine beliebige Indexmenge und {~ui | i ∈ I}
eine weitere Basis von V . Dann gibt es zu jedem i ∈ {1, . . . , n} ein ji ∈ I, so
dass
{~v1 , . . . , ~vi−1 , ~uji , ~vi+1 , . . . , ~vn }
eine Basis von V ist.
D.h., jedes Element einer Basis lässt sich durch ein geeignetes Element einer
anderen Basis ersetzen. Beweis: Sei B = {~v1 , . . . , ~vn } eine Basis von V , und sei
{~ui |i ∈ I} eine weitere Basis von V . Sei i ∈ {1, . . . , n}. Dann ist die Menge
Ḃ = {~v1 , . . . .~vi−1 , ~vi+1 . . . . , ~vn }
zwar linear unabhängig, aber kein Erzeugendensystem von V (siehe Satz 10.5.1).
Folglich kann V = h~ui |i ∈ Ii keine Teilmenge von hḂi sein, d.h. es gibt ein ji ∈ I
mit ~uji ∈
/ hḂi. Wir zeigen, dass
B 0 = {~v1 , . . . , ~vi−1 , ~uji , ~vi+1 , . . . , ~vn }
eine Basis von V ist. Zunächst zur linearen Unabhängigkeit:
Sei
s1~v1 + · · · + si−1~vi−1 + t~uji + si+1~vi+1 + · · · + sn~vn = ~0
mit s1 , . . . , si−1 , si+1 , . . . , sn , t ∈ K. Wegen ~uji ∈
/ h~v1 , . . . , ~vi−1 , ~vi+1 , . . . , ~vn i
muss t = 0 sein. Aus der linearen Unabhängigkeit von {~v1 , . . . , ~vi−1 , ~vi+1 , . . . , ~vn }
folgt weiter
s1 = · · · = si−1 = si+1 = sn = 0.
Also ist B 0 linear unabhängig. Da {~v1 , . . . , ~vn } ein Erzeugendensystem von V
ist, kann man nach Satz 10.5.5 B 0 mit Vektoren aus {~v1 , . . . , ~vn } zu einer Basis
ergänzen, d.h. es gibt eine Teilmenge E 0 ⊆ {~v1 , . . . , ~vn }, so dass B 0 ∪ E 0 eine
Basis von V ist. Ist ~vi ∈
/ E 0 , so ist B 0 ∪ E 0 = B 0 , und also ist B 0 eine Basis von
1 bezgl.
2 siehe
Mengeninklusion
Fußnote 1
KAPITEL 10. VEKTORRÄUME
34
V . Anderenfalls ist ~vi ∈ E 0 . Dann ist B 0 ∪ E 0 = {~v1 , . . . , ~vn , ~uji } eine Basis. Da
schon {~v1 , . . . , ~vn } eine Basis und damit inklusionsmaximal linear unabhängig
ist, muss ~uji ∈ {~v1 , . . . , ~vn } sein (insbesondere ~uji = ~vi ), d.h. B 0 = B.
Der folgende Satz enthält das wichtigste Resultat zum Begriff der Dimension:
Satz 10.5.9. Es sei V ein K-Vektorraum und B = {~v1 , . . . , ~vn } eine Basis von
V mit n paarweise verschiedenen Elementen, d.h. |B| = n. Dann gilt:
(i) Ist B 0 eine beliebige Basis von V , so ist |B 0 | = n.
(ii) Ist M ⊆ V linear unabhängig, so ist |M | ≤ n.
(iii) Ist M ⊆ V linear unabhängig und |M | = n, so ist M Basis von V .
Beweis: Sei B = {~v1 , . . . , ~vn } eine Basis von V , |B| = n.
zu (i) Sei B 0 eine beliebige Basis von V . Wir ersetzen nun nach dem Austauschsatz
von Steinitz 10.5.8 sukzessive die Vektoren ~v1 , . . . , ~vn ∈ B durch Vektoren
~uj1 , . . . , ~ujn ∈ B 0 , so dass
{~uj1 , . . . , ~uji , ~vi+1 , . . . , ~vn }
eine Basis von V ist (1 ≤ i ≤ n). Dann gilt, dass
{~uj1 , . . . , ~ujn } ⊆ B 0
|
{z
}
=:B 00
eine Basis von V ist, und damit auch eine inklusionsmaximal linear unabhängige Menge nach Satz 10.5.1. Deshalb kann B 0 keine zusätzlichen
Vektoren zu B 00 enthalten, da sonst B 0 linear abhängig und somit keine
Basis wäre, also B 0 = B 00 und damit |B 0 | = n.
zu (ii) Ist M ⊆ V linear unabhängig, so kann man M nach Satz 10.5.5 zu einer
Basis B 0 ergänzen. Diese enthält nach (i) genau n paarweise verschiedene
Vektoren und somit gilt für M ⊆ B 0 :
|M | ≤ |B 0 | = n.
zu (iii) Argumentation wie im Beweis zu (ii).
Definition 10.5.10 (Dimension eines Vektorraums). Wenn der Vektorraum V
eine endliche Basis besitzt, so wird die Anzahl n der Vektoren der Basis die
Dimension von V genannt: dim V = n. Besitzt ein Vektorraum V keine endliche
Basis, so ist seine Dimension unendlich, also dim V = ∞. Man sagt dann auch,
dass V unendlich dimensional ist.
KAPITEL 10. VEKTORRÄUME
35
Beispiel 10.5.3.
1. Die Dimension des K-Vektorraums K n ist n, da beispielsweise die Menge der Einheitsvektoren {~e1 , . . . , ~en } eine Basis von K n
bildet.
2. Es sei K = R und
*     +
1
1
1
V := 1 , 3 ,  6  .
1
5
11
Wie in Beispiel 10.5.1 schon gezeigt wurde, ist
* 1 0 +
V = 1 , 1
1
2
mit dim V = 2.
Bemerkung: Es folgt aus Korollar 10.5.3, dass jeder endlich erzeugte Vektorraum auch endlich dimensional ist.
Beispiel 10.5.4 (Matrizen). Die Dimension des K-Vektorraums aller m × n
Matrizen K m×n ist m · n. Eine Basis von K m×n ist die Menge
{Eij | 1 ≤ i ≤ m und 1 ≤ j ≤ n},
wobei Eij die m × n Matrix bezeichnet, deren Eintrag in der i-ten Zeile und
j-ten Spalte eine Eins ist und die sonst nur Null-Einträge hat.
Korollar 10.5.11. Ist V ein endlich dimensionaler K-Vektorraum und U ein
Teilraum von V , dann ist auch U endlich dimensional, und es gilt
dim U ≤ dim V.
Ist dim U = dim V , so ist U = V .
Beweis: Folgt aus Satz 10.5.9.
Satz 10.5.12 (Dimensionsformel für Teilräume). Es sei V ein endlich dimensionaler K-Vektorraum und U1 , U2 seien Teilräume von V . Dann ist
dim U1 + dim U2 = dim(U1 + U2 ) + dim(U1 ∩ U2 ).
Beweis: Sei V ein endlich dimensionaler K-Vektorraum, und seien U1 , U2 Teilräume von V . Insbesondere sind dann U1 und U2 auch endlich dimensional. Sei
B = {~u1 , . . . , ~ud } eine Basis von U1 ∩ U2 . B lässt sich nach Satz 10.5.5 zu Basen
von U1 bzw. U2 erweitern:
B1 = {~u1 , . . . , ~ud , ~v1 , . . . , ~vm }
Basis von U1 ,
B2 = {~u1 , . . . , ~ud , w
~ 1, . . . , w
~ n}
Basis von U2 .
KAPITEL 10. VEKTORRÄUME
36
Insbesondere haben wir
dim U1 ∩ U2 = d,
dim U1
= d + m,
dim U2
=d+n
also
dim U1 + dim U2 = d + m + d + n
= dim(U1 ∩ U2 ) + m + n + d.
Wir zeigen noch
dim(U1 + U2 ) = m + n + d,
damit ist die Behauptung dann gezeigt. Die Menge
C = {~u1 , . . . , ~ud , ~v1 , . . . , ~vm , w
~ 1, . . . , w
~ n}
hat d + m + n (paarweise verschiedene) Elemente. Es ist C ⊆ U1 ∪ U2 und auch
C ⊆ U1 + U2 , da jedes Element aus C in U1 oder U2 liegt.
Wir zeigen:
(i) hCi = U1 + U2 , d.h. C erzeugt U1 + U2
(ii) C ist linear unabhängig.
zu(i) Sei ~x ∈ U1 + U2 , also ~x = ~x1 + ~x2 , ~x1 ∈ U1 , ~x2 ∈ U2 . Da B1 eine Basis
von U1 ist, gibt es s1 , . . . , sd , r1 , . . . , rm ∈ K mit
~x1 =
d
X
si ~ui +
i=1
m
X
rj ~vj ,
j=1
ebenso gibt es s01 , . . . , s0d , t1 , . . . , tn ∈ K mit
~x2 =
d
X
s0i ~ui
+
i=1
m
X
tk~vj .
k=1
Insgesamt ist dann
~x1 + ~x2 =
d
X
(si + s0i )~ui +
i=1
m
X
rj ~vj +
j=1
n
X
tk w
~k
k=1
∈ hCi
also ist U1 + U2 ⊆ hCi, und wegen C ⊆ U1 + U2 dann auch U1 + U2 = hCi.
zu (ii) Seien s1 , . . . , sd , r1 , . . . , rm , t1 , . . . , tn ∈ K mit
d
X
i=1
si ~ui +
m
X
j=1
rj ~vj +
n
X
k=1
tk w
~ k = ~0.
(10.5.2)
KAPITEL 10. VEKTORRÄUME
37
Dann ist
~y :=
d
X
si ~ui +
i=1
rj ~vj
(10.5.3)
j=1
{z
|
=−
m
X
∈U1
n
X
}
tk w
~k
k=1
|
{z
∈U2
}
∈ U1 ∩ U2 .
Da B eine Basis von U1 ∩ U2 ist, gibt es (eindeutig bestimmte) s01 , . . . , s0d
mit
d
X
~y =
s0i ~ui ,
i=1
also ist
d
X
s0i ~ui +
i=1
n
X
tk w
~ k = ~0.
k=1
Da B2 linear unabhängig ist, folgt
s01 = · · · = s0d = t1 = · · · = tn = 0,
insbesondere ist damit ~y = ~0, d.h. aus Gleichung 10.5.3 folgt
d
X
si ~ui +
i=1
m
X
rj ~vj = ~0.
j=1
Da B1 linear unabhängig ist, folgt
s1 = · · · = sd = r1 = · · · = rm = 0.
Insgesamt müssen alle Koeffizienten in 10.5.2 gleich 0 sein, und damit ist
C linear unabhängig.
Aus (i) und (ii) folgt, dass C eine Basis von U1 + U2 ist, also
dim U1 + U2 = |C| = d + m + n.
Beispiel 10.5.5. Es sei V ein dreidimensionaler K-Vektorraum, und U1 =
6 U2
seien zwei verschiedene Teilräume von V mit dim U1 = dim U2 = 2. Dann muss
dim(U1 ∩ U2 ) = 1
gelten, denn für dim(U1 + U2 ) kommen nur 2 oder 3 in Betracht.
Wäre dim(U1 + U2 ) = 2 = dim Ui für i = 1, 2, dann wäre U1 = U1 + U2 = U2
nach Korollar 10.5.11, da U1 , U2 Teilräume von U1 + U2 sind, im Widerspruch
zur Voraussetzung (U1 6= U2 ). Also muss dim(U1 + U2 ) = 3 sein. Mit der
Dimensionsformel folgt die Behauptung.
Kapitel 11
Lineare Gleichungssysteme
11.1
Definitionen und Beispiele
Es sei im Folgenden immer (K, +, ·) ein Körper (z.B. Q, R, C, Z2 , Z3 . . . ), d.h.,
man kann “normal rechnen”.
Definition 11.1.1 (Lineares Gleichungssystem). Ein lineares Gleichungssystem
mit n Gleichungen und m Variablen hat die Form:
a1,1 x1
a2,1 x1
+
+
an,1 x1
+
a1,2 x2
a2,2 x2
+ ···
+ ···
..
.
+
+
an,2 x2
+ ···
+
a1,m xm
a2,m xm
=
=
b1
b2
an,m xm
= bn
(11.1.1)
Die aij heißen Koeffizienten und die bi heißen rechte Seiten, mit aij , bi ∈ K.
Gesucht sind dann Werte x1 , x2 , . . . , xm ∈ K, die (11.1.1) erfüllen.
Die Lösungsmenge des linearen Gleichungssystems (11.1.1) ist die Menge
L := (x1 , x2 , . . . , xm )t ∈ K m | x1 , x2 , . . . , xm erfüllen 11.1.1
Definition 11.1.2 (Koeffizientenmatrix).
Gleichungssystems (11.1.1) über K ist die

a11 a12 · · ·
 a21 a22 · · ·

A=
..

.
an1
an2
Die Koeffizientenmatrix des linearen
Matrix

a1m
a2m 

 ∈ K n×m .

· · · anm
Mit ~x = (x1 , x2 , . . . , xm )t ∈ K m und ~b = (b1 , . . . , bn )t ∈ K n können wir dann
(11.1.1) auch in der Form
A~x = ~b
38
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
39
schreiben, mit Lösungsmenge
n
o
L = ~x ∈ K m | A~x = ~b .
Definition 11.1.3 (Erweiterte Koeffizientenmatrix). Die erweiterte Matrix des
linearen Gleichungssystems (11.1.1) ist die Matrix


a11 a12 · · · a1m b1
 a21 a22 · · · a2m b2 


(A, ~b) := 
 ∈ K n×(m+1) .
..


.
an1 an2 · · · amm bn
Beispiel 11.1.1.
1. Beispiel (mit genau einer Lösung):
Es sei folgendes lineares Gleichungssystem über Q gegeben.
I
II
III
2x
+
2y
y
+
+
x
= −2
= 4
= 1
z
z
| −z
| −z
(11.1.2)
Dann gilt:
II’
III’
y =
x =
4−z
1−z
Einsetzen in I liefert:
⇔
⇔
⇔
⇔
2(1 − z) + 2(4 − z) = −2
2 − 2z + 8 − 2z
= −2
−4z + 10
= −2
−4z
= −12
z
=
3
und damit folgt:
II’ ⇒ y = 4 − 3 = 1
III’ ⇒ x = 1 − 3 = −2
Das lineare Gleichungssystem hat also genau eine Lösung, nämlich
L = {(−2, 1, 3)t } ⊂ Q3 .
In Matrix-Schreibweise

2
0
1
|
hat dieses Gleichungssystem die Form
  
 
x
2 0
−2
1 1 y  =  4 ,
z
1
0 1
{z
} | {z }
| {z }
A
~
x
~b
2. Beispiel (mit keiner Lösung):
Das lineare Gleichungssystem über Q
x1
x1
+ x2
+ x2
+
+
x3
x3
besitzt offensichtlich keine Lösung: L = ∅.
= 0
= 1
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
40
3. Beispiel (mit mehreren Lösungen):
Wir berechnen nun die Lösung zu folgendem linearen Gleichungssystem
über R.
I
II
III
IV
x1
x1
2x1
+ 2x2
+ 2x2
+ 4x2
+
+ x4
+ 3x4
+ 3x4
+ 2x4
2x3
3x3
= 1
= 5
= 5
= 3
(11.1.3)
Aus IV folgt nach Subtraktion von 2x4
⇔ IV
3x3
x3
0
3 − 2x4
1 − 32 x4 .
=
=
| · 13
Einsetzen von IV’ in II liefert:
x1
⇔ x1
⇔ x1
+ 2x2
+ 2x2
+ 2x2
2(1 − 23 x4 ) + 3x4
2 − 43 x4
+ 3x4
5
x
3 4
+
+
+
=5
= 5 | −2
= 3.
Wir erhalten ein neues Gleichungssystem
I’
II’
III’
x1
x1
2x1
+ 2x2
+ 2x2
+ 4x2
und subtrahieren
I’-II’:
⇒
+
+
+
− 32 x4
x4
x4
5
3 x4
3x4
= 1
= 3
= 5
−2
3.
=
=
Mit IV’ gilt dann
x3 = 1 − 2 = −1
Durch Einsetzen von x4 = 3 erhalten
stem:
I”
x1 +
II” x1 +
III” 2x1 +
wir wieder ein neues Gleichungssy2x2
2x2
4x2
= −2
= −2
= −4
Aus allen drei Gleichungen folgt nun
x1 = −2 − 2x2 .
Das Gleichungssystem besitzt also mehrere Lösungen,
L = {(−2 − 2x2 , x2 , −1, 3)t |x2 ∈ R},
also z.B. die Lösungen x1 = −2, x2 = 0, x3 = −1, x4 = 3 oder x1 = 0, x2 =
−1, x3 = −1, x4 = 3.
Lineare Gleichungssysteme gehören zu den einfachsten Formen, um Zusammenhänge in Systemen zu beschreiben. Man findet sie z.B. in der linearen
Optimierung (→ wirtschaftswissenschaftliche Anwendungen).
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
41
Beispiel 11.1.2. Anwendung von linearen Gleichungssystemen in der Informatikvorlesung Eingebettete Systeme (Prof. Marwedel):
• Sog. Petri-Netze zur Modellierung der Bewegungen von Thalys-Zügen
zwischen Köln, Amsterdam, Brüssel und Paris.
• Matrix zur Abbildung der Transitionen zwischen den Stationen (Knoten).
• Belegung der Stationen mit Zügen liefert für jede Transition eine lineare
Gleichung mit konstantem Ergebnis (0) ( Invariante!).
• Insgesamt entsteht ein lineares Gleichungssystem, wobei Lösungen in
{0, 1}(!) gesucht werden.
11.2
Das Gau’sche Eliminationsverfahren
Grundlegend für die systematische Lösung linearer Gleichungssysteme ist das
folgende einfache Lemma.
Lemma 11.2.1. Die Lösungsmenge eines linearen Gleichungssystems über K
ändert sich nicht, wenn man
(i) zwei Gleichungen vertauscht,
(ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K)
(iii) eine Gleichung mit c ∈ K \ {0} multipliziert.
Beweis:
zu (i) Sei A~x = ~b ein lineares Gleichungssystem, seien ~ati die Zeilenvektoren von
A, d.h. für 1 ≤ i ≤ n muss ~ati ~x = bi gelten. Dann verletzt das Vertauschen
zweier Gleichungen diese Bedingung nicht.
zu (ii) Wir addieren das c-fache der j-ten Gleichung zur i-ten Gleichung und
beobachten das Lösungsverhalten:
~ati ~x
⇔ ~ati ~x
+
c · ~atj ~x
= bi + c · bj
=
bi
, ~atj ~x
, ~atj ~x
= bj
= bj
Durch die Umformung haben sich die Lösungen also nicht verändert.
zu (iii) Da c 6= 0 ist, kann die Multiplikation mit c−1 wieder rückgängig gemacht
werden, sodass sich die Lösungsmenge nicht ändert.
Der Gauß’sche Algorithmus (auch Gauß’sches Eliminationsverfahren|( genannt)
benutzt die Operationen aus Lemma 11.2.1 sukzessive, um ein gegebenes lineares
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
42
Gleichungssystem in ein anderes mit derselben Lösungsmenge(!) zu überführen,
bei dem man die Lösung direkt ablesen kann.
Definition 11.2.2 (Äquivalenz von lin. Gleichungssystemen). Zwei lineare
Gleichungssysteme heißen äquivalent, wenn ihre Lösungsmengen identisch sind.
Man nutzt also wieder eine Invarianten-Eigenschaft aus, um ein Problem zu
vereinfachen.
Beispiel 11.2.1. Wir wenden nun den Gauß’schen Algorithmus an, um das
folgende Gleichungssystem zu lösen:
I
3x3 +2x4 =3
II
x1 +2x2 +2x3 +3x4 =5
III
2x1 +4x2
+3x4 =5
IV
x1 +2x2
+x4 =1
Wir vertauschen die 1. und 4. Zeile und erhalten das Beispiel-Gleichungssystem
(11.1.3):
IV=I0
II0
III0
I=IV
x1 +2x2
+x4 =1
x1 +2x2 +2x3 +3x4 =5
2x1 +4x2
0
+3x4 =5
3x3 +2x4 =3
Die erste Zeile lassen wir nun stehen und „eliminieren“ mit dieser alle Vorkommnisse der Variable x1 in den Zeilen darunter durch geeignete Subtraktion
(also Operation (ii) in Lemma 11.2.1).
I00
0
0
II -I =II
x1
+2x2
00
+x4 =1
2x3 +2x4 = 4
2III0 -I0 =III00
x4 =3
00
3x3 +2x4 =3
IV
Dieses Schema führen wir nun mit der 2. Zeile fort und eliminieren alle Vorkommnisse der Variable x3 in den Zeilen darunter. Danach können wir durch
sukzessives Einsetzen der Ergebnisse von unten nach oben die Lösungsmenge
bestimmen.
I000
x1 +2x2
1 00
II =II000
2
III000
000
00
3II -IV =IV
000
+x4 =1
x3 +x4 =2
⇒ x1 = −2 − 2x2
⇒ x3 = −1
x4 =3
⇒ x4 = 3
x4 =3
⇒ x4 = 3
Somit erhalten wir die Lösungsmenge
L = {(−2 − 2x2 , x2 , −1, 3)|x2 ∈ R} .
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
43
Die in Lemma 11.2.1 genannten System-Umformungen wirken sich auch auf
die Matrizen A bzw. (A, ~b) des Gleichungssystems aus bzw. lassen sich durch
Matrix-Umformungen realisieren:
Definition 11.2.3 (Elementare Zeilenumformungen). Elementare Zeilenumformungen auf Matrizen aus K n×m sind Abbildungen der folgenden Form (für
1 ≤ k, l ≤ n):
(i) Vk,l : K m×n → K m×n : “Vertausche k-te und l-te Zeile."
(ii) Ak,l (c) : K m×n → K m×n für c ∈ K:
“Addiere das c-fache der k-ten Zeile zur l-ten Zeile."
(iii) Mk (c) : K m×n → K m×n für c ∈ K \ {0}:
“Multipliziere die k-te Zeile mit c."
Durch elementare Zeilenumformungen kann man eine beliebige m × n Matrix
auf sogenannte Stufenform bringen.
Definition 11.2.4 (Stufenform). Eine Matrix A ∈ K m×n hat Stufenform, wenn
sie wie folgt aussieht:
Die Stufenform hat also die folgenden charakteristischen Eigenschaften:
• Jede Stufe beginnt mit einer 1, davor stehen nur Nullen.
• In jeder Zeile beginnt eine neue Stufe, oder die Zeile enthält nur Nullen.
Insbesondere sind alle Einträge unterhalb der letzten Stufe 0.
• In den Spaltenvektoren der Stufen stehen Einheitsvektoren.
Satz 11.2.5. Jede Matrix A ∈ K m×n kann man durch elementare Zeilenumformungen auf Stufenform bringen.
Beweis: Wir führen den Beweis durch Induktion über die Zahl n der Zeilen.
n = 1 : Hier ist A = (a11 , a12 , . . . , a1m ). Sind alle a1j = 0, so hat A bereits
Stufenform. Anderenfalls gibt es ein (erstes) a1j , das verschieden ist von 0. Sei
j1 der Index dieses ersten a1j , d.h. j1 = min{j | a1j 6= 0}. Mit der Umformung
M1 (a−1
1j1 ) erhält man aus A die Matrix (0, . . . , 0, 1, ∗ · · · ∗) mit 1 an der j1 -ten
Stelle und diese Matrix hat Stufenform.
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
44
Induktionsvoraussetzung: Wir nehmen nun an, dass die Behauptung des Satzes
für n bewiesen ist, d.h. dass man alle Matrizen aus K n×m auf Stufenform
bringen kann.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen. Sind alle Einträge
von A gleich 0, so hat A bereits Stufenform. Anderenfalls suchen wir die erste
Spalte, die Einträge 6= 0 hat:
sei also j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}.


0 ... 0
0
∗ ... ∗


..
..
..


.
.
.


0 . . . 0

0
∗
.
.
.
∗


0 . . . 0 ai1 j1 ∗ . . . ∗


0 . . . 0
∗
∗ . . . ∗




..
..
..


.
.
.
0 ... 0
∗
∗ ... ∗
Wir führen jetzt an dieser Matrix mehrere elementare Zeilenumformungen
durch:
• Durch Mi1 (a−1
i1 j1 ) erhalten wir an der Stelle (i1 , j1 ) eine 1.
• Durch Ai1 ,k (−akj1 ) für k 6= i1 erhält man in der Spalte j1 an allen
Positionen ungleich (i1 , j1 ) eine 0.
• Durch Vi1 ,1 erhält man

0
0



0
schließlich eine Matrix der folgenden Form.

... 0 1 ∗ ... ∗
. . . 0 0 ∗ . . . ∗

(11.2.1)

..
..
..

.
.
.
... 0 0 ∗ ... ∗
Aus den unteren n Zeilen dieser Matrix (Zeilen 2 bis n + 1) erhält man die
Matrix B ∈ K n×m . Nach Induktionsannahme kann man B durch elementare
Zeilenumformungen auf Stufenform bringen. Schließlich können die Einträge
in der ersten Zeile der Matrix (11.2.1), die oberhalb der Stufen stehen, durch
geeignete Ak,1 (c)- Operationen auf 0 gebracht werden. Insgesamt hat man
damit A in eine Stufenform gebracht.
Wir wenden nun den Satz und das im Beweis beschriebene Verfahren auf das
Beispiel 11.2.1 und ein Beispiel über einem endlichen Körper an.
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
Beispiel 11.2.2.





A1,2 (−1),
A1,3 (−2) 
⇔


A4,3 (1), 
A4,2 (1),
A4,1 (1) 
⇔


1. Ausgangsmatrix von Beispiel


0 0 3 2 3
V1,4 
1 2 2 3 5 

⇔


2 4 0 3 5
1 2 0 1 1


1 2 0 1 1
M2 ( 12 ),
A2,4 (− 23 ) 
0 0 2 2 4 

⇔ 


0 0 0 1 3
0 0 3 2 3

1 2 0 0 −2
0 0 1 0 −1 

0 0 0 0
0 
0 0 0 −1 −3
Die entstandene Matrix ist in

1
 0

 0
0
45
11.2.1:
1 2 0 1
1 2 2 3
2 4 0 3
0 0 3 2
1
0
0
0
2
0
0
0
0
1
0
0
1
1
1
−1

1
5 

5 
3

1
2 

3 
−3
Stufenform:
2
0
0
0
0
1
0
0
0
0
1
0

−2
−1 

3 
0
2. Wir betrachten das folgende lineare Gleichungssystem mit Koeffizienten
aus Z5 :
x3 = 4
3x1 + x2 + x3 = 2
x1 + 4x2
= 4
Wir leiten daraus die erweiterte Matrix (A, ~b) ab und bringen sie auf
Stufenform.




0 0 1 4
1 4 0 4
V1,3
3 1 1 2 → 3 1 1 2
1 4 0 4
0 0 1 4




1 4 0 4
1 4 0 4
A1,2 (2)
M2 (4)
→ 0 4 1 0 → 0 1 4 0
0 0 1 4
0 0 1 4




1 4 0 4
1 0 0 3
A3,2 (1)
A2,1 (1)
→ 0 1 0 4 → 0 1 0 4
0 0 1 4
0 0 1 4
Die entstandene Matrix hat Stufenform, aus ihr lässt sich sofort die (eindeutige) Lösung ablesen.
x1 = 3
x2 = 4
x3 = 4
Satz 11.2.6. Jede elementare Zeilenumformung (und damit jede Folge von
elementaren Zeilenumformungen) an einer Matrix A ∈ K n×m ist Ergebnis einer
Multiplikation von links mit einer regulären Matrix U ∈ K n×n .
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
46
Für jeden Typ der elementaren Zeilenumformungen aus Definition 11.2.3 wollen
wir die entsprechende reguläre Matrix U ∈ K n×n angeben. Sei Eij diejenige
Matrix aus K n×n , die überall mit Nullen besetzt ist bis auf die Position (i, j),
an der sie eine 1 hat.
(i) Hier sieht die Matrix U wie folgt aus:
d.h.

1



0
(uij ) =
1



0
für i = j 6∈ {k, l}
für i = j ∈ {k, l}
für i = k, j = l und für i = l, j = k
sonst
Für 1 ≤ i, j, k, l ≤ n gilt
U = En − Ekk − Ell + Elk + Ekl
(
(0) k 6= j
Eij · Ekl =
Eil k = j
damit folgt U · U = En .
(ii) Für die Addition des c-fachen der k-ten Zeile zur l-ten Zeile erhalten wir
als Matrix U 0
also
U 0 = En + c · Elk
mit
(U 0 )−1 = En − c · Elk
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
47
(iii) Für die Multiplikation der k-ten Zeile mit c erhalten wir als Matrix U 00
also
U 00 = En + (c − 1) · Ekk
Beispiel 11.2.3.
1. Beispiel
einer Beispielmatrix.

1 2
1 2

2 4
0 0
mit
(U 00 )−1 = En + (c−1 − 1) · Ekk
zu (i) Vk,l : Wir vertauschen die 2. und 4. Zeile
0
2
0
3

1
3
2,4
 V→
3
2
Das gleiche Ergebnis erhält man
Matrix U .

 
1 0 0 0
1
0 0 0 1 1

 
0 0 1 0 · 2
0
0 1 0 0
|
{z
}

1
0

2
1
2
0
4
2
0
3
0
2

1
2

3
3
bei der Multiplikation von links mit der
2
2
4
0
0
2
0
3
 
1
1
0
3
=
3 2
1
2
2
0
4
2
0
3
0
2

1
2

3
3
U
2. Beispiel zu (ii) Ak,l (c) : Wir

1 2 0
1 2 2

2 4 0
0 0 3
Wir können aber auch
mutiplizieren.

1 0 0
0 1 0

2 0 1
0 0 0
|
{z
U0
addieren das 2-fache der 1. Zeile zur 3. Zeile.



1
1 2 0 1
(2) 1 2 2 3
3
 A1,3

→ 
4 8 0 5
3
2
0 0 3 2
unsere Beispielmatrix von links mit der Matrix U 0
 
0
1
1
0
·
0 2
1
0
}
2
2
4
0
0
2
0
3
 
1
1
1
3
=
3 4
2
0
3. Beispiel zu (iii) Mk (c): Wir multiplizieren
matrix mit −1.



1 2 0 1
1
1 2 2 3 M2 (−1) −1



2 4 0 3 →  2
0 0 3 2
0
2
2
8
0
0
2
0
3

1
3

5
2
die 2. Zeile unserer Beispiel2
0
−2 −2
4
0
0
3

1
−3

3
2
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
Oder man multipliziert von links

 
1 0 0 0
1 2
0 −1 0 0 1 2

·
0 0 1 0 2 4
0 0 0 1
0 0
|
{z
}
mit der Matrix U 00 .
 
0 1
1
2

2 3
 = −1 −2
0 3  2
4
3 2
0
0
48
0
−2
0
3

1
−3

3
2
U 00
Wir wenden nun Satz 11.2.6 auf die erweiterte Matrix (A, ~b) ∈ K n×(m+1) eines
linearen Gleichungssystems an und nehmen an, dass die Stufen in den Spalten
j1 ≤ j2 ≤ · · · ≤ jr auftreten.
Die Spalte ji , i = 1, . . . , r, ist also die Spalte, in der die i-te Zeile den ersten
Eintrag ungleich Null - genau genommen gleich 1 - enthält. Wir unterscheiden
nun zwei Fälle.
Fall 1: jr = m + 1 , d.h., die r-te Gleichung des umgeformten linearen Gleichungssystems lautet
0x1 + 0x2 + · · · + 0xn = 1,
so dass das Gleichungssystem offenbar keine Lösung besitzt. In diesem Fall ist
also L = ∅.
Fall 2: jr ≤ m Das umgeformte Gleichungssystem lautet also:
m
X
xj1 +
xj2 +
j=j1 +1
j6=j2 ,...,jr
m
X
a01j xj = a01,m+1
a02j xj = a02,m+1
j=j2 +1
j6=j3 ,...,jr
..
.
xjr +
m
X
a0rj xj = a0r,m+1
j=jr +1
0=0
..
.
0=0
Alle xi außer xj1 , . . . , xjr sind frei wählbar; aus deren Wahl ergeben sich dann
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
49
die restlichen xj1 , . . . , xjr durch einfache Umstellung:
xj1 := a01,m+1
m
X
−
xj2 := a02,m+1
−
j=j1 +1
j6=j2 ,...,jr
m
X
a01j xj
a02j xj
j=j2 +1
j6=j3 ,...,jr
..
.
xjr := a0r,m+1
m
X
−
a0rj xj
j=jr +1
Damit haben wir also eine vollständige Beschreibung der Lösungsmenge des
linearen Gleichungssystems. Aus der konstruktiven Beschreibung der Lösungsmenge sehen wir sofort, dass das Gleichungssystem genau dann eindeutig lösbar
ist, wenn keine xi mehr frei wählbar sind, sondern die Lösungen durch die
(umgeformten) rechten Seiten eindeutig bestimmt werden. Das ist genau dann
der Fall, wenn {j1 , . . . , jr } = {1, . . . , m} ist. Insbesondere ist dann r = m. Da es
höchstens so viele Stufen wie Zeilen gibt, erhalten wir also das folgende Korollar:
Korollar 11.2.7. Falls das lineare Gleichungssystem (11.1.1) eine eindeutige
Lösung besitzt, so gilt m ≤ n.
Beweis: Falls das lineare Gleichungssystem (11.1.1) eine eindeutige Lösung
besitzt, so gilt {j1 , . . . , jr } = {1, . . . , m}.
⇒r = m, r ≤ n
⇒m ≤ n
Definition 11.2.8 (Homogene lineare Gleichungssysteme). Das lineare Gleichungssystem (11.1.1) heißt homogen, wenn b1 = b2 = . . . = bn = 0.
Ein homogenes lineares Gleichungssystem hat immer eine Lösung, nämlich
x1 = x2 = . . . = xm = 0.
Diese Lösung (x1 , . . . , xn )t = ~0 heißt triviale Lösung.
Satz 11.2.9. Ist n = m und hat das homogene lineare Gleichungssystem
a11 x1
a21 x1
+
+
a12 x2
a22 x2
+
+
···
···
..
.
+
+
a1n xn = 0
a2n xn = 0
an1 x1
+ an2 x2
+
···
+
ann xn = 0
nur die triviale Lösung, so hat (11.1.1) für jede rechte Seite b1 , . . . , bn eine
eindeutig bestimmte Lösung.
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
50
Beweis: Wir betrachten die erweiterte Matrix (A, ~0) des homogenen Gleichungssystems. Da dieses eindeutig lösbar ist, muss sich (A, ~0) durch elementare Zeilenumformungen in die folgende Stufenform bringen lassen:


1 0 ... 0 0
 0 1 ... 0 0 


 .. .. . .
.. .. 
 . .
. . . 
0 0 ... 1 0
(beachte n = m). Wendet man dieselben Zeilenumformungen auf die Matrix
(A, ~b) für ein beliebiges ~b ∈ K n an, so erhält man die Matrix


1 0 . . . 0 b01
 0 1 . . . 0 b02 


 .. .. . .
.. .. 
 . .
. . . 
0
0
...
1
b0n
Die eindeutige Lösung des zugehörigen Gleichungssystems lässt sich sofort daraus
ablesen.
x1 = b01 , x2 = b02 , . . . , xn = b0n
11.3
Invertieren von Matrizen
Im letzten Abschnitt haben wir gesehen, wie man lineare Gleichungssysteme
A~x = ~b algorithmisch löst und dabei gleichzeitig Aussagen über die allgemeine
Lösbarkeit solcher Gleichungssysteme erhält. Von zentraler Bedeutung waren
dabei elementare Zeilenumformungen, die man auch durch Multiplikation (von
links) mit regulären, d.h. invertierbaren Matrizen realisieren kann. Die Lösbarkeit
homogener Gleichungssysteme ist fundamental für die Lösbarkeit ganzer Klassen
von Gleichungssystemen.
In diesem Abschnitt wollen wir zeigen, wie man durch eine Erweiterung der
Anwendung des Gauß-Algorithmus gleichzeitig Lösungen für beliebige rechte
Seiten erhalten (bzw. vorbereiten) und das Inverse einer regulären Matrix berechnen kann. Um ein Gleichungssystem A~x = ~b, A ∈ K n×m zu lösen, haben
wir den Gauß-Algorithmus auf die Matrix (A, ~b) angewendet. Wollen wir danach
ein System A~x = ~c lösen, müssen wir den Algorithmus mit der Matrix (A, ~c)
wiederholen. Um diesen Aufwand zu reduzieren, lösen wir nun Gleichungssysteme
mit einer generischen rechten Seite, d.h. wir wenden den Gauß-Algorithmus auf
die Matrix (A, En ) ∈ K n×(m+n) an. Sei U die Umformungsmatrix, die der Folge
elementarer Zeilenumformungen, um A in Stufenform zu bringen, entspricht.
Durch dieselben Umformungen wird die Einheitsmatrix zur Matrix U · En = U ,
also zur Umformungsmatrix selbst. Die Matrix En nimmt bei der Modifizierung
also die Informationen der Zeilenumformungen auf. Konkret passiert bei den
Zeilenumformungen der Matrix (A, En ) folgendes:
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
51
Wir formen A und damit (A, En ) auf Stufenform um und erhalten eine Matrix
(B, C). Diese Umformung von (A, En ) nach (B, C) entspricht einer Multiplikation
von links mit einer (regulären) Umformungsmatrix U ∈ K n×n , also
B = U · A und C = U · En = U.
B hat also Stufenform und C ist die Umformungsmatrix. Für beliebige rechte
Seiten ~b des Gleichungssystems A~x = ~b kann man nun die Informationen zur
Umformung in Stufenform folgendermaßen ausnutzen:
A~x = ~b
⇔U
· A} ~x = U · ~b,
| {z
B
d.h. ~x ist genau dann eine Lösung von A~x = ~b wenn ~x eine Lösung von B~x = U~b
ist. Dabei ist B in Stufenform, bzw. entspricht En wenn A regulär ist, und somit
lässt sich das letztere Gleichungssystem einfach lösen.
Beispiel 11.3.1 (beliebige rechte Seite). Wir betrachten nun das (eindeutig lösbare) Gleichungssystem aus Beispiel 11.1.2 mit einer beliebigen anderen rechten
Seite.
2x + 2y
= 1
y + z = 2
(11.3.1)
x
+ z = 3
Also ist

2
A = 0
1
2
1
0

 
0
−2
1 , ~b =  4  .
1
1
Wir stellen die Stufenform zur Koeffizientenmatrix



2 2 0
1
V1,3
0 1 1
→ 0
1 0 1
2



1 0 1
1
A1,3 (−2)
A2,3 (−2)
→ 0 1 1  → 0
0 2 −2
0
 A (−1) 

3,2
1
1 0 1
M3 (− 14 )
A3,1 (−1)
→ 0 1 1
→ 0
0 0 1
0
|
A her.

0 1
1 1
2 0

0 1
1 1
0 −4

0 0
1 0
0 1
{z
}
=B=U ·A
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
wobei U die Umformungsmatrix ist:

 
 
1
1 0 0
1 0 −1
U = 0 1 0  · 0 1 −1 · 0
0 0 1
0 0 1
0
{z
} |
{z
} |
|
A3,1 (−1)
A3,2 (−1)

1
0
0
|
0
1
−2
{z
A2,3 (−2)

52

0 0
1 0 ·
0 − 14
{z
}
M3 (− 14 )
 
 

0
1 0 0
0 0 1
0 ·  0 1 0 · 0 1 0
1
−2 0 1
1 0 0
} |
{z
} |
{z
}
A1,3 (−2)
V1,3

1/4 −1/2 1/2
1/2 −1/2
=  1/4
−1/4 1/2
1/2


1 −2 2
1
2 −2
= 1
4
−1 2
2
Wir erhalten also als vereinfachtes Gleichungssystem
A~x = ~b
⇔ U
· A} ~x = U · ~b
| {z
=B=E3
⇔ ~x = U · ~b,
und müssen nur noch U · ~b berechnen, um die Lösung für ~x zu erhalten.
 

 
1
1 −2 2
1
1
2 −2 2
U · 2 =  1
4
3
−1 2
2
3
 
3
1
= −1
4
9


3/4
= −1/4
9/4
Lösung des linearen Gleichungssystems 11.3.1 ist also
x=
3
1
9
,y = − ,z = .
4
4
4
Dieselbe Idee – nämlich die Betrachtung der Matrix (A, En ) anstelle von A –
kann man auch benutzen, um das Inverse von (regulären) Matrizen auszurechnen.
Sei A~x = ~b ein Gleichungssystem mit regulärer Matrix A ∈ K n×n . Dann ist
A~x = ~b genau dann, wenn ~x = A−1~b, das Gleichungssystem ist also eindeutig
lösbar. Durch Anwendung des Gauß-Algorithmus erhält man aus der Matrix
(A, En ) die Matrix (En , U ) mit
En = B = U · A,
KAPITEL 11. LINEARE GLEICHUNGSSYSTEME
53
also ist U = A−1 .
Wir erhalten damit den folgenden Satz:
Satz 11.3.1. Sei A ∈ K n×n eine reguläre quadratische Matrix. Dann ist A~x = ~b
eindeutig lösbar, und man erhält das Inverse A−1 , indem man dieselben Zeilenumformungen auf die Einheitsmatrix in derselben Reihenfolge anwendet.
Beispiel 11.3.2 (Invertierung). Das Gleichungssystem
2x +
x
2y
y
+ z
+ z
=
=
=
−2
4
1
ist eindeutig lösbar (siehe Beispiel 11.1.2). Hier ist


 
2 2 0
−2
A = 0 1 1 , ~b =  4  .
1 0 1
1
Das Inverse zu A entspricht der Umformungsmatrix U , die wir bereits in Beispiel
11.3.1 bestimmt haben. Wir können das Inverse aber auch bei der Umformung
von A mitbestimmen.




2 2 0 1 0 0
1 0 1 0 0 1
V1,3
 0 1 1 0 1 0 
→ 0 1 1 0 1 0 
1 0 1 0 0 1
2 2 0 1 0 0




1 0 1 0 0 1
1 0 1 0 0
1
A1,3 (−2)
A2,3 (−2)
0 
→  0 1 1 0 1 0  →  0 1 1 0 1
0 2 −2 1 0 −2
0 0 −4 1 −2 −2


 A (−1) 
3,2
0 1
1 0 1 0
1 0 0 1/4 −1/2 1/2
M3 − 41
A3,1 (−1)
1 0  →  0 1 0 1/4
1/2 −1/2 
→  0 1 1 0
1
1
1
0 0 1 −1/4 1/2
1/2
0 0 1 −4 2 2
Die Umformungsmatrix steht nun in dem abgetrennten, hinteren Bereich der
Matrix.
Kapitel 12
Lineare Abbildungen und
Matrizen
12.1
Lineare Abbildungen
Homomorphismen sind strukturerhaltende Abbildungen, d.h. Abbildungen, die
mit den Verknüpfungen auf Mengen verträglich sind. Vektorraumhomomorphismen werden auch lineare Abbildungen genannt; sie sind mit der Addition von
Vektoren und mit der Skalarmultiplikation verträglich.
Definition 12.1.1 (Lineare Abbildungen, Vektorraumhomomorphismus). Es
seien V und W zwei K-Vektorräume und ϕ : V → W eine Abbildung. Dann heißt
ϕ linear oder Vektorraumhomomorphismus, falls die folgenden Bedingungen
gelten:
ϕ(~v + ~v 0 ) = ϕ(~v ) + ϕ(~v 0 )
für alle ~v , ~v 0 ∈ V (Additivität)
und
ϕ(s · ~v ) = s · ϕ(~v )
für alle s ∈ K und ~v ∈ V (Homogenität).
Aus der Homogenität folgt sofort eine zentrale Eigenschaft linearer Abbildungen.
Nullvektoren werden unter Vektorraumhomomorphismen wieder auf Nullvektoren
abgebildet:
Satz 12.1.2. Sind V und W zwei K-Vektorräume und ist ϕ : V → W eine
lineare Abbildung, so ist ϕ(~0) = ~0.
Beweis: Es gilt:
ϕ(~0) = ϕ(0 · ~0) = 0 · ϕ(~0) = ~0.
Vektorraumhomomorphismen/Lineare Abbildungen lassen sich auch durch eine
54
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
55
Bedingung charakterisieren:
Satz 12.1.3 (Charakterisierung linearer Abbildungen). Es seien V und W zwei
K-Vektorräume und ϕ : V → W eine Abbildung. Die Abbildung ϕ ist genau dann
linear, wenn
ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 )
für alle s ∈ K und ~v , ~v 0 ∈ V.
(12.1.1)
Beweis: Seien ~v , ~v 0 ∈ V, s ∈ K.
„⇒“ Sei ϕ linear. Dann ist
ϕ(s · ~v + ~v 0 ) = ϕ(s · ~v ) + ϕ(~v 0 )
(Additivität)
= s · ϕ(~v ) + ϕ(~v 0 ).
Homogenität
„⇐“ Es gelte Gleichung 12.1.1. Wir zeigen die Additivität:
ϕ(~v + ~v 0 ) = ϕ(1 · ~v + ~v 0 )
= 1 · ϕ(~v ) + ϕ(~v 0 )
= ϕ(~v ) + ϕ(~v 0 ),
und die Homogenität:
ϕ(s · ~v ) = ϕ(s · ~v + ~0)
= s · ϕ(~v ) + ϕ(~0)
= s · ϕ(~v ).
Um eine Abbildung auf Linearität zu untersuchen, können wir also zwei verschiedene Tests durchführen. Wenn der Nullvektor nicht auf den Nullvektor abgebildet
wird, ist die Abbildung keinesfalls linear. Andernfalls gilt es, Bedingung (12.1.1)
zu überprüfen. Wir betrachten dazu nun ein paar Beispiele.
Beispiel 12.1.1.
1. Es sei V ein K-Vektorraum und c ∈ K ein Skalar. Dann
ist die Abbildung
ϕc : V → V
~v 7→ c · ~v
linear. Denn
ϕc (s · ~v + ~v 0 ) = c · (s · ~v + ~v 0 )
= s · (c · ~v ) + c · ~v 0
= s · ϕc (~v ) + ϕc (~v 0 )
für alle s ∈ K und ~v , ~v 0 ∈ V .
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
56
2. (Nullabbildung): Sind V und W zwei K-Vektorräume, dann ist die Abbildung
ϕ:V →W
~v 7→ ~0
für alle ~v ∈ V linear, denn es ist ϕ = ϕc für c = 0. Die Nullabbildung ist
also ein Vektorraumhomomorphismus.
3. (Differenzierbare Funktionen): Es sei V der R-Vektorraum aller differenzierbaren Funktionen von R nach R, also
V := { f : R → R | f ist differenzierbar } ⊂ RR ,
und f 0 bezeichne die Ableitung der Funktion f ∈ V .
Dann ist die durch
f 7→ f 0
definierte Abbildung von V nach RR linear.
Dies folgt sofort aus den bekannten Ableitungsregeln (Faktorregel und Summenregel) für Funktionen.
Ein besonders wichtiges Beispiel für eine lineare Abbildung wird durch den
folgenden Satz gegeben:
Satz 12.1.4. Sei A ∈ K m×n eine Matrix. Definiere ϕA durch
ϕA : K n → K m ,
~x 7→ A · ~x.
Jede solche Abbildung ϕA ist linear.
Der Beweis folgt sofort aus den Rechenregeln für Matrizen.
Wir werden später sehen, dass alle linearen Abbildungen zwischen Vektorräumen
K m und K n diese Form haben, also durch Matrizen darstellbar sind. Dementsprechend muss auch die folgende Eigenschaft von Homomorphismen gelten:
Schaltet man zwei lineare Abbildungen (geeignet) hintereinander, so erhält man
wieder eine lineare Abbildung. Die Komposition von zwei linearen Abbildungen
entspricht dann nämlich der Multiplikation zweier Matrizen, was wiederum eine
Matrix, also eine lineare Abbildung, zum Ergebnis hat.
Lemma 12.1.5. Es seien U, V und W drei K-Vektorräume. Sind ϕ : U → V
und ψ : V → W lineare Abbildungen, so ist die Hintereinanderausführung
ψ◦ϕ : U →W
~v 7→ ψ(ϕ(~v ))
ebenfalls eine lineare Abbildung.
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
57
Beweis: Seien ~v , w
~ ∈ V und s ∈ K. Wir benutzen Satz 12.1.3, um die Linearität
nachzuweisen.
ψ ◦ ϕ (s · ~v + w)
~ = ψ(ϕ(s · ~v + w))
~
= ψ(s · ϕ(~v ) + ϕ(w))
~
= s · ψ(ϕ(~v )) + ψ(ϕ(w))
~
= s · ψ ◦ ϕ(~v ) + ψ ◦ ϕ(w)
~
Satz 12.1.6. Es seien V und W zwei K-Vektorräume, {~v1 , . . . , ~vn } ⊂ V sei
eine Basis von V , und w
~ 1, . . . , w
~ n ∈ W seien n Vektoren in W . Dann gibt es
genau eine lineare Abbildung
ϕ:V →W
mit
ϕ(~vi ) = w
~i
für i = 1, · · · , n.
(12.1.2)
~ 1, . . . , w
~ n wie angegeben. Zunächst definieren wir
Beweis: Seien {~v1 , . . . , ~vn }, w
ϕ : V 7→ W wie folgt: Jedes ~v ∈ V lässt sich eindeutig als Linearkombination
der Basisvektoren ~v1 , . . . , ~vn darstellen, d.h. es gibt eindeutig bestimmte Skalare
s1 , . . . , sn ∈ K mit
~v = s1 · ~v1 + · · · + sn · ~vn .
Definiere dann
ϕ(~v ) = s1 · w
~ 1 + · · · + sn · w
~ n.
Für die Basisvvektoren ~vi selbst gilt
~vi = 0 · ~v1 + · · · + 0 · ~vi−1 + 1 · ~vi + 0 · ~vi+1 + · · · + 0 · ~vn ,
also
ϕ(~vi ) = 1 · w
~i = w
~i ,
daher ist (12.1.2) erfüllt. Wir müssen noch zeigen, dass ϕ linear ist, und verwenden
dazu Satz 12.1.3. Seien also ~u, ~v ∈ V ,
~u = s1 · ~v1 + · · · + sn · ~vn ,
~v = t1 · ~v1 + · · · + tn · ~vn
und r ∈ K. Dann gilt
ϕ(r · ~u + ~v ) = ϕ(r · (s1 · ~v1 + · · · + sn · ~vn ) + t1 · ~v1 + · · · + tn · ~vn )
= ϕ((rs1 + t1 ) · ~v1 + · · · + (rsn + tn ) · ~vn )
= (rs1 + t1 ) · w
~ 1 + · · · + (rsn + tn ) · w
~n
= r(s1 · w
~ 1 + · · · + sn · w
~ n ) + t1 · w
~ 1 + · · · + tn · w
~n
= rϕ(~u) + ϕ(~v ).
Es bleibt die Eindeutigkeit von ϕ zu zeigen. Sei dazu ϕ0 eine beliebige lineare
Abbildung, die (12.1.2) erfüllt. Dann gilt für den beliebig gewählten Vektor ~v ,
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
58
dass
ϕ0 (~v ) = ϕ0 (t1 · ~v1 + · · · + tn · ~vn )
= t1 · ϕ0 (~v1 ) + · · · + tn · ϕ0 (~vn )
= t1 · w
~ 1 + · · · + tn · w
~n
= ϕ(~v ),
also ϕ0 = ϕ. Damit ist ϕ durch (12.1.2) eindeutig bestimmt.
Beispiel 12.1.2 (im R2 ). Wir betrachten den R-Vektorraum R2 mit der Basis
{~e1 , ~e2 }. Eine lineare Abbildung ϕ : R2 → R2 ist dann eindeutig durch die
Bilder w
~ 1 := ϕ(~e1 ) und w
~ 2 := ϕ(~e2 ) gegeben. Für einen beliebigen Vektor
~v = ss12 = s1 · ~e1 + s2 · ~e2 ∈ R2 gilt dann
Sei z.B. w
~1 =
1
1
ϕ(~v ) = s1 · w
~ 1 + s2 · w
~ 2.
und w
~ 2 = 02 , dann gilt
ϕ(~v ) = s1 · w
~ 1 + s2 · w
~2
1
0
= s1
+ s2
1
2
s1
=
.
s1 + 2s2
Korollar 12.1.7. Jede lineare Abbildung ϕ : K n → K m ist von der Form
ϕ = ϕA für eine Matrix A ∈ K m×n , wobei ϕA wie in Satz 12.1.4 definiert ist.
Die Matrix A heißt auch darstellende Matrix von ϕ .
Beweis: Sei ϕ : K n → K m eine lineare Abbildung, sei {~e1 , . . . , ~en } die Standardbasis von K n . Dann ist ϕ(~ei ) ∈ K m für alle i, 1 ≤ i ≤ n, wir können also
schreiben


a1i


ϕ(~ei ) =  ...  ∈ K m , 1 ≤ i ≤ n.
ami
Wir setzen
Dann ist

a11

A =  ...
...

a1n
..  ∈ K m×n .
. 
am1
...
amn


a1i


ϕA (~ei ) = A · ~ei =  ...  = ϕ(~ei )
ami
für 1 ≤ i ≤ n. ϕA und ϕ stimmen also auf den Standardbasisvektoren überein.
Nach Satz 12.1.6 gilt dann ϕA = ϕ.
Damit haben wir alle linearen Abbildungen zwischen Vektorräumen K n und K m
bestimmt. Um diese Erkenntnis für lineare Abbildungen zwischen allgemeinen
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
59
Vektorräumen ausnutzen zu könnnen, müssen wir Homomorphismen zwischen
allgemeinen Vektorräumen einerseits und den Standardräumen K n andererseits
untersuchen. Das Ziel ist, eine lineare Abbildung
ϕ : V 7→ W
in eine Hintereinanderschaltung linearer Abbildungen
ϕ1
ϕ2
ϕ3
ϕ : V → Kn → Km → W
(12.1.3)
zu zerlegen. ϕ2 muss dann ein Homomorphismus ϕA sein, während ϕ1 und
ϕ2 die Aufgabe haben, V bzw W zu klassifizieren. Zu diesem Zweck sind die
Eigenschaften Injektivität und Surjektivität nötig. Lineare Abbildungen können
injektiv, surjektiv und auch bijektiv sein:
Definition 12.1.8 (Monomorphismus, Epimorphismus, Isomorphismus). Wir
betrachten Homomorphismen zwischen beliebigen K-Vektorräumen V, W .
(i) Ein injektiver Vektorraumhomomorphismus heißt (Vektorraum-) Monomorphismus.
(ii) Ein surjektiver Vektorraumhomomorphismus heißt (Vektorraum-) Epimorphismus.
(iii) Ein bijektiver Vektorraumhomomorphismus heißt (Vektorraum-) Isomorphismus.
Definition 12.1.9 (Isomorphie). Zwei K-Vektorräume V und W heißen isomorph (in Zeichen V ∼
= W ), falls es einen Vektorraumisomorphismus ϕ : V →
W gibt.
Wenn zwei Vektorräume V und W isomorph sind, dann haben beide Vektorräume
die gleiche Struktur, lediglich die Benennumg ihrer Elemente ist ggf. verschieden.
Man könnte also sagen, dass die Vektorräume einander „entsprechen“. Ein Vektorraumisomorphismus bildet aufgrund der Bijektivität jedes Element eindeutig auf
eines des Bildbereiches ab und andersherum, was man einer Umbenennung der
Elemente gleichsetzen kann. Die Linearität des Isomorphismus sorgt wiederum
dafür, dass die Struktur der Operationen zwischen den Elementen erhalten bleibt.
D.h., es ist egal, ob wir eine Berechnung in V oder in W durchführen, es kommt
das bis auf die Benennung eindeutig bestimmte Ergebnis heraus.
Satz 12.1.10 (Eigenschaften von Isomorphismen). Es seien U, V und W drei
K-Vektorräume.
(i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung
ϕ−1 : V → U ein Isomorphismus.
(ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die
Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus.
(iii) Die Isomorphie “ ∼
= “ ist eine Äquivalenzrelation auf der Menge der KVektorräume.
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
60
Beweis:
zu (i): Sei ϕ : U → V ein Isomorphismus, d.h. ϕ ist linear und bijektiv. Dann
ist ϕ−1 : V → U definiert und ebenfalls bijektiv. Wir müssen noch zeigen,
dass ϕ−1 linear ist. Seien ~v1 , ~v2 ∈ V . Dann gibt es eindeutige ~u1 , ~u2 ∈ U mit
ϕ(~ui ) = ~vi , also auch ϕ−1 (~vi ) = ~ui , i = 1, 2. Sei s ∈ K.
ϕ−1 (s · ~v1 + ~v2 ) = ϕ−1 (s · ϕ(~u1 ) + ϕ(~u2 ))
= ϕ−1 (ϕ(s · ~u1 ) + ϕ(~u2 ))
= ϕ−1 (ϕ(s · ~u1 + ~u2 ))
= s · ~u1 + ~u2
= s · ϕ−1 (~v1 ) + ϕ−1 (~v2 )
nach Satz 12.1.3 ist dann ϕ−1 linear.
zu (ii): Dies folgt sofort mit Lemma 12.1.5, da die Hintereinanderausführung
bijektiver Abbildung auch wieder bijektiv ist.
zu (iii): V ∼
= W genau dann, wenn es einen Isomorphismus ϕ : V → W gibt.
Insbesondere ist die identische Abbildung idV : V → V, ~v 7→ ~v , ein Isomor∼ ist reflexiv.
phismus, damit ist V ∼
= V , und “=“
∼
Mit (i) folgt aus V = W auch W ∼
= V , also die Symmetrie von “∼
=“.
∼
Wegen (ii) schließlich ist “=“ transitiv, d.h. aus U ∼
= V und V ∼
= W folgt
U∼
= W . Damit sind die Eigenschaften einer Äquivalenzrelation (s. Definition
3.20, Teil I) gezeigt.
Die Isomorphierelation “∼
=“ liefert also als Äquivalenzrelation eine passende
Methode, um Vektorräume zu klassifizieren. Die Frage lautet insbesondere, wie
viele Äquivalenzklassen von Vektorräumen existieren, wie viele Möglichkeiten
es also gibt, eine Vektorraumstruktur zu bilden. Ebenfalls interessant wäre es
zu wissen, welche Vektorräume z. Bsp. isomorph zu den Standardräumen K n
sind, da uns diese Räume bereits vertraut sind und ihre Eigenschaften eingehend
untersucht wurden. Gibt es auch noch andere Möglichkeiten, einen Vektorraum
aus den Elementen des K n zu bilden? Wir beantworten im Folgenden diese Frage
und betrachten hierzu die Funktion cB .
Sei V ein K-Vektorraum der Dimension n, sei B = {~v1 , . . . , ~vn } ⊂ V eine Basis
von V . Wir wollen im Folgenden immer voraussetzen, dass durch die Nummerierung i = 1, . . . , n eine Reihenfolge der Basiselemente ~v1 , . . . , ~vn von B festgelegt ist.
Aus der Definition von Basen folgt, dass es zu jedem Vektor ~v ∈ V eindeutige
Koeffizienten s1 , . . . , sn ∈ K gibt mit
~v = s1 · ~v1 + · · · + sn · ~vn .
Wegen der Festlegung der Reihenfolge können wir dem Vektor ~v ∈ V diese
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
61
Koeffizienten eindeutig zuordnen und erhalten eine Abbildung
 
s1
 .. 
n
cB : V → K ,
~v = s1 · ~v1 + · · · + sn · ~vn 7→  .  .
(12.1.4)
sn
Satz 12.1.11. Die in (12.1.4) definierte Abbildung cB : V → K n ist ein
Isomorphismus mit Umkehrabbildung
 
s1
 .. 
−1
n
cB : K → V,
 .  7→ ~v = s1 · ~v1 + · · · + sn · ~vn .
sn
Beweis: Seien B und cB festgelegt wie angegeben. Seien ~v , w
~ ∈ V , s ∈ K. Seien
s1 , . . . , sn , t1 , . . . , tn die (eindeutigen) Koeffizienten mit
~v = s1 · ~v1 + · · · + sn · ~vn
w
~ = t1 · ~v1 + · · · + tn · w
~ n.
Wir zeigen zunächst, dass cB eine lineare Abbildung ist: Es ist
s · ~v + w
~ = (ss1 + t1 ) · ~v1 + · · · + (ssn + tn ) · ~vn ,
also


ss1 + t1


..
cB (s · ~v + w)
~ =

.
ssn + tn
   
s1
t1
 ..   .. 
= s .  +  . 
sn
tn
= s · cB (~v ) + cB (w).
~
cB ist injektiv, denn sei cB (~v ) = cB (w),
~ d.h.
   
s1
t1
 ..   .. 
~
 .  =  .  ⇒ s1 = t1 , . . . , sn = tn ⇒ ~v = w.
sn
tn


s1
 
cB ist auch surjektiv, denn zu jedem  ...  ∈ K n gibt es ~v = s1 ·~v1 +· · ·+sn ·~vn ∈
sn


s1
 
V mit cB (~v ) =  ...  ∈ K n , cB ist also ein Isomorphismus. Es ist klar, dass die
sn
Umkehrabbildung c−1
B ist wie angegeben.
Wir haben also mit cB einen Isomorphismus von beliebigen n-dimensionalen
Vektorräumen auf den K n gefunden. Das bedeutet, dass jeder denkbare n-
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
62
dimensionale Vektorraum die gleiche Struktur hat wie der K n , und es folgt
damit das folgende Korollar.
Korollar 12.1.12. Jeder n-dimensionale Vektorraum ist isomorph zu K n .
Daraus ergibt sich sofort der folgende Satz:
Satz 12.1.13. Je zwei endlich dimensionale K-Vektorräume derselben Dimension n sind isomorph.
Beweis: Seien V1 , V2 K-Vektorräume mit dim V1 = dim V2 = n. Seien B1 , B2
Basen von V1 bzw V2 mit festgelegter Reihenfolge. Dann sind cB1 : V1 →
−1
n
K n , c−1
B2 : K → V2 Isomorphismen nach Satz 12.1.11, also ist auch cB1 ◦ cB2 :
V1 → V2 nach Satz 12.1.10 ein Isomorphismus, und folglich sind V1 und V2
isomorph.
Die K-Vektorräume der Dimension n bilden also eine Isomorphie-Äquivalenzklasse
mit dem bekanntesten Vertreter K n .
12.2
Matrix einer linearen Abbildung
Wir setzen unsere Überlegungen zur Charakterisierung beliebiger linearer Abbildungen ϕ : V → W (V , W endlich dimensionale K-Vektorräume) fort. Nach
Satz 12.1.6 ist ϕ eindeutig bestimmt durch die Bilder auf einer Basis von V .
Ganz ähnlich wie im Beweis von Korollar 12.1.7 kann ϕ in Abhängigkeit von
den gewählten Basen durch eine Matrix beschrieben werden. Dies wollen wir
uns im Folgenden genauer anschauen. Sei
dim V = n mit Basis B = {~v1 , . . . , ~vn },
dim W = m mit Basis B 0 = {w
~ 1, . . . , w
~ m },
wobei wir – wie üblich – sowohl für B als auch für B 0 die Reihenfolge der Elemente
festlegen (sonst muss man alle Permutationen der Reihenfolge betrachten). Dann
ist nach Satz 12.1.6 ϕ durch die Angabe von
ϕ(~vj ) ∈ W
für j = 1, . . . , n
vollständig bestimmt. Der Vektor ϕ(~vj ) ∈ W lässt sich eindeutig in der Basis B 0
ausdrücken:
ϕ(~vj ) = a1j · w
~ 1 + · · · + amj · w
~m
m
X
=
aij · w
~i
für j = 1, . . . , n,
i=1
wobei aij ∈ K für i = 1, . . . , m und j = 1, . . . , n, d.h. (aij ) ∈ K m×n . Wir erhalten
also eine Matrix, deren j-te Spalte die Koeffizienten für die Berechnung von
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
63
ϕ(~vj ) in Abhängigkeit von den Basisvektoren w
~ i angibt (1 ≤ j ≤ n, 1 ≤ i ≤ m):


a11 . . . a1j . . . a1n

..
.. 
(aij ) =  ...
.
. 
am1
...
amj
...
amn
Wir halten dies in der folgenden Definition fest.
Definition 12.2.1 (Matrix einer linearen Abbildung). Seien V , W endlich
dimensionale K-Vektorräume, dim V = n mit Basis B = (~v1 , . . . , ~vn ) und
dim W = m mit Basis B 0 = (w
~ 1, . . . , w
~ m ), sei ϕ : V → W eine lineare Abbildung. Die durch
ϕ(~vj ) =
m
X
aij · w
~i
für i = 1, . . . , m, j = 1, . . . , n,
(12.2.1)
i=1
definierte Matrix (aij ) ∈ K m×n heißt Matrix von ϕ bezüglich der Basen B und
B’, in Zeichen
m×n
.
B 0 [ϕ]B = (aij ) ∈ K
Beispiel 12.2.1.
1. Es sei A ∈ K m×n und ϕA : K n → K m die zugehörige lineare Abbildung mit ϕA (~x) = A · ~x. Es seien B = (~e1 , . . . , ~en ) die
Standardbasis von K n und B 0 = (e~0 1 , . . . , e~0 m ) die Standardbasis von K m .
Dann ist


a1j
m
X


ϕA (~ej ) = A · ~ej =  ...  =
aij · e~0 i
für j = 1, . . . , n.
i=1
amj
Folglich ist also
B 0 [ϕA ]B
= A.
2. Sei V = R3 , W = R2 mit den Basen

 
 
 
1
1
0 

B = ~v1 = 1 , ~v2 = 0 , ~v3 = 1


0
1
1
als Basis von V und
1
0
B = w
~1 =
, w
~2 =
0
1
0
als Basis von W . Sei ϕ : V → W definiert durch
1
ϕ(~v1 ) =
= 1·w
~1 + 1 · w
~2
1
1
ϕ(~v2 ) =
= 1·w
~1 + 0 · w
~2
0
0
ϕ(~v3 ) =
= 0·w
~1 + 1 · w
~2
1
Dann ist
B0
[ϕ]B =
1
1
1
0
0
.
1
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
64
Wir haben also eine Matrix A := B 0 [ϕ]B , die bezgl. der gewählten Basen B
und B 0 die lineare Abbildung ϕ : V → W in Matrixform kodiert und damit
wiederum eine lineare Abbildung ϕA : K n → K m definiert. ϕA ist ein geeigneter
Kandidat für den Homomorphismus ϕ2 zur Zerlegung von ϕ in (12.1.3). Um
diese Zerlegung mit ϕA herzustellen, brauchen wir geeignete Isomorphismen von
V nach K n und von W nach K m , die insbesondere die Beziehung von ϕA zu ϕ
definieren. Wir erinnern uns dazu an die Abbildungen cB aus (12.1.4). Es gilt
V ∼
= K n und W ∼
= K m dank der Isomorphismen
 
s1
 .. 
n
cB : V → K ,
~v = s1 · ~v1 + · · · + sn · ~vn 7→  . 
sn

cB 0 : W → K m ,
w
~ = t1 · w
~ 1 + · · · + tm · w
~m

t1
 
7→  ... 
tm
cB übersetzt also einen Vektor ~v ∈ V in seine Darstellung im K n bezgl. der
Basis B. Auf diese Darstellung können wir nun die Abbildung ϕA anwenden und
erhalten eine Abbidung
ϕA ◦ cB : V → K m ,
V → K n → K m , A =B 0 [ϕ]B .
Diese Abbildung ist insbesondere linear, da die Komposition linearer Abbildungen
wiederum linear ist (12.1.5). Ebenso gilt für eine lineare Abbildung ϕ : V → W ,
dass
cB 0 ◦ ϕ : V → K m
eine lineare Abbildung von V nach K m ist. Wir wollen im Folgenden cB 0 ◦ ϕ mit
Hilfe der Matrix B 0 [ϕ]B beschreiben.
Satz 12.2.2. Es seien V und W zwei K-Vektorräume, B = {~v1 , . . . , ~vn } eine
Basis von V und B 0 = {w
~ 1, . . . , w
~ m } eine Basis von W . Sei weiterhin ϕ : V → W
eine lineare Abbildung, und sei A := B 0 [ϕ]B . Dann gilt
cB 0 ◦ ϕ = ϕA ◦ cB .
(12.2.2)
Das Abbildungsdiagramm 12.1 ist also kommutativ.
Beweis: Nach Definition gilt
B 0 [ϕ]B
= (aij ) ∈ K m×n
mit ϕ(~vj ) = a1j w
~ 1 + · · · + amj w
~ m für j = 1, . . . , n, also


a1j


cB 0 ◦ ϕ(~vj ) = cB 0 (ϕ(~vj )) =  ...  .
amj
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
V
ϕ
cB
65
W
cB 0
ϕA
Kn
Km
cB 0 ◦ ϕ = ϕ A ◦ cB
Abbildung 12.1: Kommutatives Abbildungsdiagramm zu Satz 12.2.2.
Weiterhin ist
also auch

0
 .. 
 . 



cB (~vj ) = 
 1  ← j -te Zeile
 . 
 .. 
0

 
0

 ..  
a1j
.
   . 

ϕA ◦ cB (~vj ) = (aij ) 
1 =  ..  .
.
amj
 .. 
0
Für alle Basisvektoren gilt dann
cB 0 ◦ ϕ(~vj ) = ϕA ◦ cB (~vj ).
Da sowohl cB 0 ◦ ϕ(~vj ) als auch ϕA ◦ cB (~vj ) lineare Abbildungen sind, muss nach
Satz 12.1.6 gelten
cB 0 ◦ ϕ = ϕA ◦ cB .
Mit diesem Satz erhalten wir nun unsere gewünschte Zerlegung von ϕ. Wir
wenden das Inverse von cB (s. Satz 12.1.11) auf beide Seiten von Gleichung
(12.2.2) an, und erhalten
⇔
cB 0 ◦ ϕ =
ϕ =
ϕA ◦ cB
c−1
B 0 ◦ ϕA ◦ cB .
Das bedeutet insbesondere, dass alle linearen Abbildungen zwischen zwei endlich
dimensionalen Vektorräumen V und W mit fest gewählten Basen eindeutig durch
eine Abbildungsmatrix beschrieben sind. Die Menge aller linearen Abbildungen
von V nach W entspricht damit der Menge aller Matrizen A ∈ K m×n , wenn
dim V = n und dim W = m gilt.
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
66
Beispiel 12.2.2. Sei ϕ definiert wie in Beispiel 2. Sei
~v = s1 · ~v1 + s2 · ~v2 + s3 · ~v3
 
 
 
1
1
0
= s1 1 + s2 0 + s3 1
0
1
1


s1 + s2
= s1 + s3 
s2 + s3
 
s1
Dann ist cB (~v ) = s2  und
s3
cB 0 (ϕ(~v )) = cB 0 (s1 ϕ(~v1 ) + s2 ϕ(~v2 ) + s3 ϕ(~v3 ))
= cB 0 (s1 (1 · w
~1 + 1 · w
~ 2 ) + s2 (1 · w
~ 1 ) + s3 (1 · w
~ 2 ))
= cB 0 ((s1 + s2 )w
~ 1 + (s1 + s3 )w
~ 2)
s + s2
= 1
s1 + s3
 
s1
1 1 0  
s2
v) =
B 0 [ϕ]B · cB (~
1 0 1
s3
s + s2
= 1
,
s1 + s3
also cB 0 (ϕ(~v )) = B 0 [ϕ]B · cB (~v ).
Das folgende Korollar zeigt, dass die Matrixmultiplikation durch die Kompatibilität mit der Hintereinanderschaltung linearer Abbildungen motiviert ist:
Korollar 12.2.3. Es seien U , V und W drei endlich-dimensionale K-Vektorräume
und ϕ : U → V und ψ : V → W lineare Abbildungen. Ist B Basis von U , B 0
Basis von V und B 00 Basis von W , so gilt
B 00 [ψ
◦ ϕ]B =
B 00 [ψ]B 0
·
B 0 [ϕ]B .
Beweis: Seien
B = {~u1 , . . . , ~un }
Basis von U
0
Basis von V
00
Basis von W,
B = {~v1 , . . . , ~vm }
B = {w
~ 1, . . . , w
~ l}
seien
B 0 [ϕ]B
= A = (aij ) ∈ K m×n und
ϕ(~uj ) =
B 00 [ψ]B 0
m
X
= C = (cki ) ∈ K l×m , d.h.
aij ~vi
i=1
ψ(~vi ) =
l
X
k=1
cki w
~ k.
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
67
Durch Hintereinanderschaltung erhält man
ψ ◦ ϕ(~uj ) = ψ(ϕ(~uj ))
m
X
= ψ(
aij ~vi )
i=1
=
m
X
aij ψ(~vi )
i=1
=
m
X
aij (
i=1
l
X
cki w
~ k)
k=1
l X
m
X
~k
=
(
cki aij ) · w
k=1 i=1
|
{z
(C·A)kj
}
also (B 00 [ψ ◦ ϕ]B )kj = (C · A)kj , insgesamt also die Behauptung.
Beispiel 12.2.3. Wir setzen Beispiel 12.2.2 fort und kombinieren nun ϕ : R3 →
R2 mit ψ : R2 → R2 ,
1
1
ψ(w
~ 1) = ψ
=
=1·w
~1 + 1 · w
~2
0
1
0
2
ψ(w
~ 2) = ψ
=
=2·w
~1 + 2 · w
~2
1
2
(sowohl für Definition- als auch für Bildbereich von ψ betrachten wir dieselbe
Basis B 0 ). Dann ist also
1 2
.
B 0 [ψ]B 0 =
1 2
Für die Hintereinanderausführung
ϕ
ψ
ψ ◦ ϕ : R3 → R2 → R2
erhalten wir
ψ ◦ ϕ(~v1 ) = ψ(1 · w
~1 + 1 · w
~ 2)
= ψ(w
~ 1 ) + ψ(w
~ 2)
=3·w
~1 + 3 · w
~ 2,
ψ ◦ ϕ(~v2 ) = ψ(1 · w
~ 1)
=1·w
~1 + 1 · w
~ 2,
ψ ◦ ϕ(~v3 ) = ψ(1 · w
~ 2)
=2·w
~1 + 2 · w
~ 2,
also
B0
3
3
1
1
[ψ ◦ ϕ]B =
=
1 2
1 2
2
1 1
2
1 0
= B 0 [ψ]B 0 · B 0 [ϕ]B .
0
1
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
68
Man kann die Assoziativität der Matrixmultiplikation durch Ausrechnen zeigen,
eleganter folgt das mit diesem Korollar:
Korollar 12.2.4. Die Matrixmultiplikation ist assoziativ, d.h. für A ∈ K m×n , B ∈
K n×p und C ∈ K p×q gilt
(A · B) · C = A · (B · C).
Dies folgt leicht durch Betrachtung der zugehörigen linearen Abbildungen
ϕA , ϕB , ϕC aus Satz 12.2.3, da die Hintereinanderschaltung von Abbildungen
assoziativ ist. Im Folgenden wollen wir uns nicht auf die lineare Abbildung selbst
konzentrieren, sondern die Darstellung von Vektoren bezgl. unterschiedlicher
Basen (desselben Vektorraums) untersuchen. Sei also V ein K-Vektorraum mit
dim V = n und idV : V → V die identische Abbildung.
Definition 12.2.5 (Basiswechselmatrix). Sei V ein K-Vektorraum mit Basen
B = (~v1 , . . . , ~vn ) und B 0 = (w
~ 1, . . . , w
~ n ). Dann heißt die Matrix
Q = (qij ) :=
B 0 [idV ]B
Basiswechselmatrix.
Jeder Vektor ~v ∈ V lässt sich sowohl bzgl. B als auch bzgl. B 0 eindeutig darstellen:
~v =
n
X
si~vi
und ~v =
n
X
i=1
das heißt
s0i w
~ i,
i=1


s1
 
cB (~v ) =  ... 

s01
 
cB 0 (~v ) =  ...  .

und
s0n
sn
Mit Hilfe der Basiswechselmatrix Q = (qij ) lässt sich die eine Darstellung leicht
aus der anderen gewinnen:
Lemma 12.2.6. Die Voraussetzungen und Notationen seien wie in Definition
12.2.5. Für jeden Vektor ~v ∈ V gilt dann
cB 0 (~v ) = Q · cB (~v ),
und insbesondere erhält man für jeden Basisvektor ~vj die folgende Darstellung:
~vj =
n
X
qij w
~ i.
i=1
Beweis: Für ~v ∈ V ist nach Satz 12.2.2
cB 0 (~v ) = cB 0 (idV (~v )) = cB 0 ◦ idV (~v ) = Q · cB (~v )
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
69
Ist ~v = ~vj ∈ B, so ist
cB 0 (~vj ) = Q · cB (~vj )
0
.
 .. 
1  ←j-te Zeile
=Q·
.
..
0

q1j
 
=  ...  ,

qnj
d.h. ~vj =
Pn
~ i.
i=1 qij w
Wir können nun die Abbildung idV auch bezgl. iterierter Basiswechsel betrachten:
B → B0 → B
B0 → B → B0
Mit Satz 12.2.3 gilt dann (wegen idV ◦ idV = idV )
· B [idV ]B 0
0
[id
]
B
V B · B 0 [idV ]B
B 0 [idV ]B
=
=
B 0 [idV ]B 0
=
=
B [idV ]B
En und
En ,
wobei En ∈ K n×n die n × n Einheitsmatrix ist. Folglich ist
zu Q := B 0 [idV ]B inverse Matrix.
B [idV ]B 0
= Q−1 die
Satz 12.2.7. Sei V ein K-Vektorraum der Dimension n, seien B, B 0 Basen
von V . Dann ist die Basiswechselmatrix Q = B 0 [idV ]B invertierbar, die inverse
Matrix ist Q−1 = B [idV ]B 0 .
Schließlich untersuchen wir nun, wie sich Basiswechsel auf die Matrizen linearer
Abbildungen auswirken:
Satz 12.2.8. Es seien V und W zwei endlich-dimensionale K-Vektorräume und
ϕ : V → W eine lineare Abbildung. Weiter seien B und B 0 Basen von V und C
und C 0 Basen von W . Dann ist
C 0 [ϕ]B 0
=
C 0 [idW ]C
·
C [ϕ]B
·
B [idV ]B 0
.
Beweis: Wir können ϕ auch in der Form
ϕ = idW ◦ϕ ◦ idV
schreiben und erhalten dann mit Korollar 12.2.3 direkt
C 0 [ϕ]B 0
= C 0 [idW ◦ϕ ◦ idV ]B 0
= C 0 [idW ]C 0 · C 0 [ϕ]B 0 · B 0 [idV ]B 0
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
70
Beispiel 12.2.4. Wir betrachten den Vektorraum V = R2 mit den Basen
1
0
1
1
B = {~e1 , ~e2 } =
,
und
B 0 = {w
~ 1, w
~ 2} =
,
0
1
2
−1
Es sei ϕ : V → V die durch
− 31
ϕ(~e1 ) =
!
ϕ(~e2 ) =
und
4
3
2
3
1
3
!
definierte lineare Abbildung. Dann ist für beliebige Vektoren
1
x1
− 3 x1 + 32 x2
.
ϕ
= x1 ϕ(~e1 ) + x2 ϕ(~e2 ) =
1
4
x2
3 x1 + 3 x2
Wegen
− 31
ϕ(~e1 ) =
!
1
4
= − ~e1 + ~e2
3
3
4
3
und
2
3
1
3
ϕ(~e2 ) =
!
=
2
1
~e1 + ~e2
3
3
ist
B [ϕ]B
2
3
1
3
!
B [ϕ]B
·
− 31
=
4
3
Mit Satz 12.2.8 ist dann
B 0 [ϕ]B 0
mit
B 0 [idV ]B
=
·
B 0 [idV ]B
B [idV ]B 0
= (B [idV ]B 0 )−1 . Man sieht sofort, dass
!
1 1
B [idV ]B 0 =
2 −1
ist, daraus erhält man durch Invertieren
!
1 1 1 0
2 −1 0 1
!
1 1 1 0
M2 (−1/3)
→
0 1 32 13
also ist
B 0 [idV ]B
=
→
A2,1 (−1)
→
!−1
1
1
2
−1
!
1 1 0
0 −3 −2 1
!
1
1 0 13
3
0 1 23 − 31
1
A1,2 (−2)
1
3
2
3
=
1
3
− 31
!
.
Insgesamt ist also
B 0 [ϕ]B 0
=
=
1
3
2
3
1
3
− 23
1
3
− 31
!
1
3
1
3
!
·
·
2
3
1
3
− 13
4
3
!
·
!
1
1
2
−1
=
!
1
1
2
−1
!
1
0
0
−1
.
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
12.3
71
Dimensionssatz und Homomorphiesatz
Auch bei Vektorraumhomomorphismen sind Kern und Bild besonders interessant:
Definition 12.3.1 (Kern und Bild einer linearen Abbildung). Es seien V und
W zwei K-Vektorräume und ϕ : V → W eine lineare Abbildung. Dann ist
Kern(ϕ) := { ~v ∈ V | ϕ(~v ) = ~0 } ⊆ V
Bild(ϕ) := { ϕ(~v ) | ~v ∈ V } = ϕ(V ) ⊆ W
Beispiel 12.3.1. Wir betrachten den R-Vektorraum V = W = R2 und die
lineare Abbildung ϕ : V → W mit
x
x−y
1 −1
x
ϕ
:=
=
·
.
y
y−x
−1 1
y
Dann gilt
ϕ
x
0
=
y
0
⇔
x−y
y−x
⇔
=
=
0
0
x = y,
also ist
Kern(ϕ) =
x
1 1
∈ R2 x = y = x ·
x
∈
R
=
.
y
1 1
Für die Bildvektoren ( ab ) ∈ R2 gilt
a
x−y
=
b
y−x
⇔
⇔
also
a =
b =
für x, y ∈ R
x−y
y−x
a = −b,
a
1
2
Bild(ϕ) =
∈ R b = −a =
.
b
−1
Abbildung 12.2 veranschaulicht Bild und Kern in der euklidischen Ebene.
Satz 12.3.2. Es seien V und W zwei K-Vektorräume und ϕ : V → W eine
lineare Abbildung. Dann gilt:
(i) Kern(ϕ) ist Teilraum von V und
Kern(ϕ) = {~0} ⇔ ϕ injektiv (Monomorphismus).
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
72
Kern(ϕ)
Bild(ϕ)
Abbildung 12.2: Bild und Kern aus Beispiel 12.3.1
(ii) Bild(ϕ) ist Teilraum von W und
Bild(ϕ) = W ⇔ ϕ surjektiv (Epimorphismus).
Ist V = h~v1 , . . . , ~vn i, so ist
Bild(ϕ) = hϕ(~v1 ), . . . , ϕ(~vn )i
(12.3.1)
Beweis:
zu (i): Wegen ϕ(~0) = ~0 ist ~0 ∈ Kern(ϕ), also Kern(ϕ) 6= ∅.
Seien s ∈ K, ~v , w
~ ∈ Kern(ϕ). Dann ist
ϕ(s · ~v + w)
~ = s · ϕ(~v ) + ϕ(w)
~ = s · ~0 + ~0 = ~0,
also auch s · ~v + w
~ ∈ Kern(ϕ). Wegen Lemma 10.2.4 ist Kern(ϕ) also ein
Teilraum von V . Wir müssen noch zeigen, dass
ϕ injektiv
⇔
Kern(ϕ) = {~0}
gilt.
„⇒“ Ist ϕ injektiv, so kann es höchstens einen Vektor ~v mit ϕ(~v ) = ~0 geben,
und das ist der Nullvektor, also Kern(ϕ) = {~0}.
„⇐“ Sei Kern(ϕ) = {~0}. Seien ~v1 , ~v2 ∈ V mit ϕ(~v1 ) = ϕ(~v2 )
⇒
~0 = ϕ(~v1 ) − ϕ(~v2 )
= ϕ(~v1 − ~v2 ),
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
73
also ~v1 − ~v2 ∈ Kern(ϕ) = {~0} und daher
~v1 − ~v2 = ~0
⇒ ~v1 = ~v2 .
Also ist ϕ injektiv.
zu (ii): Wegen ϕ(~0) = ~0 ist ~0 ∈ Bild(ϕ), also Bild(ϕ) 6= ∅.
Seien s ∈ K, w
~ 1, w
~ 2 ∈ Bild(ϕ). Dann gibt es ~v1 , ~v2 ∈ V mit w
~ 1 = ϕ(~v1 ), w
~2 =
ϕ(~v2 ), und daher ist
s·w
~1 + w
~ 2 = s ϕ(~v1 ) + ϕ(~v2 )
= ϕ(s ~v1 + ~v2 ) ∈ Bild(ϕ).
| {z }
∈V
Nach Lemma 10.2.4 ist damit Bild(ϕ) ein Teilraum von W . Die Äquivalenzaussage gilt allgemein für Abbildungen und folgt direkt aus der Definition
für Surjektivität. Es bleibt also noch Eigenschaft (12.3.1) zu zeigen. Sei V =
h~v1 , . . . , ~vn i, sei w
~ ∈ Bild(ϕ). Dann gibt es ~v ∈ V mit w
~ = ϕ(~v ). Für ~v gibt es
s1 , . . . , sn ∈ K mit ~v = s1~v1 +· · ·+sn~vn ⇒ w
~ = ϕ(~v ) = s1 ϕ(~v1 )+· · ·+sn ϕ(~vn ).
Jedes w
~ ∈ Bild(ϕ) lässt sich also als Linearkombination der ϕ(~vi ) darstellen.
Damit ist
Bild(ϕ) = hϕ(~v1 ), . . . , ϕ(~vn )i.
Bemerkung: Um das Bild einer linearen Abbildung zu bestimmen, kann
Eigenschaft (12.3.1) sehr hilfreich sein. Insbesondere dann ist das der Fall, wenn
die lineare Abbildung durch eine Matrix definiert ist, d.h.
ϕA : Rn → Rm , ~x 7→ A · ~x
mit A ∈ K m×n . In diesem Fall können wir als Basis des Rn die Standardbasis
{~e1 , . . . , ~en } wählen und erhalten für 1 ≤ i ≤ n:

 0
a11 . . . a1n
.
 .. 

 ..
.

..  ·  1 
←i-te Zeile
ϕA (~ei ) = A · ~ei =  .
.. 
am1 . . . amn
.
0


a1i


=  ...  .
ami
Das Bild von ϕA wird also von den Spaltenvektoren aus A erzeugt.
Satz 12.3.3 (Dimensionssatz für Homomorphismen). Ist V endlich-dimensional,
so ist
dim V = dim Kern(ϕ) + dim Bild(ϕ)
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
74
Beweis: Sei dim V = n. Mit Satz 12.3.2 sind Kern(ϕ) und Bild(ϕ) Teilräume von
V mit dim Kern(ϕ) = d ≤ n (nach Korollar 10.5.11). Sei {~v1 , . . . , ~vd } eine Basis
von Kern(ϕ), die wir nach Satz 10.5.5 zu einer Basis {~v1 , . . . , ~vd , ~vd+1 , . . . , ~vn }
von V erweitern können. Weiterhin ist nach Korollar 10.5.11 und nach (12.3.1)
Bild(ϕ) = hϕ(~v1 ), . . . , ϕ(~vn )i
= h0, . . . , 0, ϕ(~vd+1 ), . . . , ϕ(~vn )i
= hϕ(~vd+1 ), . . . , ϕ(~vn )i.
Wir müssen nun nur noch zeigen, dass B = {ϕ(~vd+1 ), . . . , ϕ(~vn )} ⊆ Bild(ϕ)
linear unabhängig ist, dann ist
dim Bild(ϕ) = n − d
und insgesamt
dim V = n = d + (n − d)
= dim Kern(ϕ) + dim Bild(ϕ).
Sei also
n
X
~0 =
si ϕ(~vi ) = ϕ(
i=d+1
n
X
si ~vi )
i=d+1
mit sd+1 , . . . , sn ∈ K. Folglich ist
n
X
si ~vi ∈ Kern(ϕ) = h~v1 , . . . , ~vd i,
i=d+1
also
n
X
i=d+1
si~vi =
d
X
tj ~vj ⇒ ~0 =
j=1
d
X
tj ~vj +
j=1
n
X
(−si )~vi
i=d+1
Da ~v1 , . . . , ~vn Basisvektoren und daher linear unabhängig sind, folgt
t1 = · · · = td = sd+1 = · · · = sn = 0.
Damit folgt auch die lineare Unabhängigkeit von B.
Definition 12.3.4. Es seien V und W zwei K-Vektorräume und ϕ : V → W
eine lineare Abbildung. Der Rang von ϕ ist die Dimension von Bild(ϕ), also
Rang(ϕ) := dim Bild(ϕ).
Satz 12.3.5. Es seien V und W zwei K-Vektorräume und ϕ : V → W eine
lineare Abbildung. Ist V endlich dimensional, so gilt:
(i) ϕ surjektiv ⇔ Rang(ϕ) = dim W
(ii) ϕ injektiv ⇔ Rang(ϕ) = dim V
(iii) Ist dim V = dim W , so gilt:
ϕ surjektiv ⇔ ϕ injektiv.
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
75
Beweis: Sei ϕ : V → W eine lineare Abbildung, sei dim V = n.
(i) folgt sofort mit Satz 12.3.2.
zu (ii): Ebenfalls mit Satz 12.3.2 folgt:
ϕ injektiv ⇔ Kern(ϕ) = {~0}
⇔ dim Kern(ϕ) = 0,
wegen des Dimensionssatzes ist das äquivalent zu
dim V = dim Bild(ϕ) = Rang(ϕ).
zu (iii): Sei dim V = dim W .
(ii)
ϕ injektiv ⇔ Rang(ϕ) = dim V = dim W
(i)
⇔ ϕ surjektiv.
Beispiel 12.3.2 (lineare Gleichungssysteme). Es sei A eine m × n Matrix über
dem Körper K, also A ∈ K m×n , und
ϕA : K n → K m ,
~x 7→ A · ~x.
Dann ist
Kern(ϕA ) = {~x ∈ K n | A · ~x = ~0}
die Lösungsmenge des duch die Matrix A gegebenen homogenen linearen Gleichungssystems A · ~x = ~0. Nach dem Dimensionssatz 12.3.3 gilt
dim Kern(ϕA ) = n − Rang(ϕA ).
Für ~b ∈ K m ist die Lösungsmenge { ~x ∈ K n | A · ~x = ~b} des (inhomogenen)
linearen Gleichungssystems A·~x = ~b das Urbild des Vektors ~b unter der Abbildung
ϕA , also
~
{ ~x ∈ K n | A · ~x = ~b } = ϕ−1
A (b).
Kombiniert man eine lineare Abbildung mit Isomorphismen, so ändert sich ihr
Rang nicht.
Satz 12.3.6. Seien U, V, W, Y K-Vektorräume, sei ϕ : V → W eine lineare
Abbildung, seien ϕ1 : U → V und ϕ2 : W → Y Isomorphismen. Dann ist
Rang(ϕ)
=
Rang(ϕ ◦ ϕ1 )
=
Rang(ϕ2 ◦ ϕ)
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
76
Beweis: Seien U, V, W, Y K-Vektrorräume,
ϕ1 : U → V, ϕ2 : W → Y Isomorphismen,
ϕ : V → W eine lineare Abbildung.
Wir zeigen Rang(ϕ) = Rang(ϕ ◦ ϕ1 ):
Es ist w
~ ∈ Bild(ϕ ◦ ϕ1 )
⇔ ∃ ~u ∈ U : w
~ = ϕ ◦ ϕ1 (~u) = ϕ(ϕ1 (~u))
⇔ ∃ ~v ∈ V, ~v = ϕ1 (~u) : w
~ = ϕ(~v )
⇔w
~ ∈ Bild(ϕ),
also Bild(ϕ ◦ ϕ1 ) = Bild(ϕ) und daher Rang(ϕ) = Rang(ϕ ◦ ϕ1 ).
Wir zeigen Rang(ϕ) = Rang(ϕ2 ◦ ϕ):
Wenn {ϕ(~v1 ), . . . , ϕ(~vn )} eine Basis von Bild(ϕ) ist, so ist {ϕ2 (ϕ(~v1 )), . . . , ϕ2 (ϕ(~vn ))}
eine Basis von Bild(ϕ2 ◦ ϕ) (da ϕ2 Isomorphismus), d.h.
dim Bild(ϕ) = dim Bild(ϕ2 ◦ ϕ)
und daher Rang(ϕ) = Rang(ϕ2 ◦ ϕ).
Bei Gruppen haben wir Restklassen und Faktorgruppen kennengelernt, solche
Strukturen gibt es auch bei Vektorräumen:
Definition 12.3.7 (Nebenklasse). Ist U ein Teilraum des K-Vektorraums V
und ~v0 ∈ V , dann sei
~v0 + U := { ~v0 + ~u | ~u ∈ U }.
Man nennt ~v0 + U auch die Nebenklasse oder Restklasse von ~v0 nach U .
Beispiel 12.3.3. Sei V = R2 , dann ist
1 U = s·
s
∈
R
2 ein Teilraum von V . Für ~v0 = ( 20 ) ∈ R2 entspricht die Nebenklasse von ~v0 nach
U der Menge
2
1 ~v0 + U =
+s·
s
∈
R
,
0
2 siehe Abb. 12.3.
Nebenklassen entstehen z.B. durch Bildung von Urbildern linearer Abbildungen:
Satz 12.3.8. Es seien V und W zwei K-Vektorräume, ϕ : V → W eine lineare
Abbildung. Weiter seien ~v0 ∈ V und w
~ ∈ W mit ϕ(~v0 ) = w.
~ Dann ist
ϕ−1 (w)
~ = ~v0 + Kern(ϕ).
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
y
77
~v0 + U
U
3
2
1
~v0
1
2
3
x
Abbildung 12.3: Die Nebenklasse von ~v0 nach U aus Beispiel 12.3.3
Beweis: Sei ϕ : V → W linear, seien ~v0 ∈ V , w
~ ∈ W mit ϕ(~v0 ) = w.
~ Sei
~u ∈ ϕ−1 (w)
~ = {~v ∈ V | ϕ(~v ) = w},
~ also ϕ(~u) = w.
~ Dann ist
ϕ(~v0 − ~u) = ϕ(~v0 ) − ϕ(~u) = w
~ −w
~ = ~0,
d.h.
~v := ~v0 − ~u ∈ Kern ϕ
⇒ ~u = ~v0 + ~v mit ~v ∈ Kern ϕ
⇒ ~u ∈ ~v0 + Kern ϕ.
Daher ist ϕ−1 (w)
~ ⊆ ~v0 + Kern ϕ.
Umgekehrt gilt für jedes ~u = ~v0 + ~v ∈ ~v0 + Kern ϕ :
ϕ(~u) = ϕ(~v0 + ~v )
= ϕ(~v0 ) + ϕ(~v ) = ϕ(~v0 ) = w,
~
|{z}
=~
0
also auch ~v0 + Kern ϕ ⊆ ϕ−1 (w).
~
2 −6
Beispiel 12.3.4. Sei A =
∈ K 2×2 .
−1 3
Für die lineare Abbildung ϕA : R2 → R2 , ~x 7→ A · ~x gilt dann
2
−6
Bild(ϕ) = h
,
i
−1
3
2
=h
i,
−1
2 −6
x
x
2
~
Kern(ϕ) =
∈R ·
=0
y
−1 3
y
3
=h
i.
1
4
2
Für w
~=
ist
∈ ϕ−1 (w),
~ und damit gilt (s. Abb. 12.4)
−2
0
4
2
3 ϕ−1
=
+s·
s
∈
R
.
−2
0
1 KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
78
y
3
Bild(ϕ)
Kern(ϕ)
2
1
ϕ−1 (w)
~
−2 −1
1
2
x
3
Abbildung 12.4: Nebenklassen aus Urbildern linearer Abbildungen
y
2
1
U
x
−2 −1
1
2
Abbildung 12.5: Der R2 als Partition von Nebenklassen nach U .
Lemma 12.3.9. Die Menge der Nebenklassen eines Teilraums U des K-Vektorraums
V bildet eine Partitionierung der Menge V .
Beweis: Wir definieren auf V eine Relation ∼U durch
v~1 ∼U v~2 ⇔ v~1 − v~2 ∈ U.
∼U ist eine Äquivalenzrelation (Beweis als Übungsaufgabe), die Menge der
Äquivalenzklassen bildet also eine Partitionierung von V . Jede Äquivalenzklasse
[v~0 ]U entspricht einer Nebenklasse v~0 + U , denn:
~v ∈ [v~0 ]U ⇔ ~v ∼U v~0
⇔ ~v − v~0 ∈ U
⇔ ~v ∈ v~0 + U.
Beispiel 12.3.5. Für V = R2 und U := Kern(ϕ) aus Beispiel 12.3.4 folgt mit
Lemma 12.3.9
[
V =
~v0 + U
~
v0 ∈R2
3 2
= ~v0 + s ·
~
v
∈
R
,
s
∈
R
.
1 0
V besteht also aus lauter Nebenklassen nach U , wie in Abb. 12.5 angedeutet, und
für jeden Vektor w
~ ∈ V ist die Nebenklasse, die w
~ enthält, eindeutig bestimmt
(s. Abb. 12.6).
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
79
y
w
~
2
w
~ +U
U
1
x
−2 −1
1
2
Abbildung 12.6: Jeder Vektor des R2 ist Element genau einer Nebenklasse nach
U.
Satz 12.3.10 (Restklassenraum, Faktorraum, Quotientenraum). Es seien V
ein K-Vektorraum und U ein Teilraum von V . Weiter sei
V /U := { ~v + U | ~v ∈ V }
die Menge der Nebenklassen nach U . Für ~v , w
~ ∈ V und s ∈ K definiert man
(~v + U ) + (w
~ + U ) := (~v + w)
~ +U
und
s · (~v + U ) := (s · ~v ) + U,
damit wird V /U ein K-Vektorraum. V /U wird Restklassenraum, Quotientenraum oder Faktorraum von V nach U genannt.
Beweis: Im Wesentlichen ist die Wohldefiniertheit der Addition und der Skalarmultiplikation zu zeigen, d.h. die Unabhängigkeit des Ergebnisses von den
gewählten Restklassenvertretern. Es darf nicht passieren, dass einem Funktionsargument der für Vektorräume definierten Abbildungen „+“ und „·“ mehrere
Funktionswerte zugeordnet werden. Die Eigenschaften des Vektorraums für V /U
ergeben sich dann aus den Eigenschaften des Vektorraums für V . Der Nullvektor
in V /U entspricht dabei der Restklasse ~0 + U = U .
Zur Wohldefiniertheit müssen wir folgendes zeigen:
(i) Gilt ~v1 + U = ~v2 + U und w
~1 + U = w
~ 2 + U , dann ist auch
(~v1 + w
~ 1 ) + U = (~v2 + w
~ 2 ) + U.
(ii) Gilt ~v1 + U = ~v2 + U und ist s ∈ K, so gilt auch
(s · ~v1 ) + U = (s · ~v2 ) + U.
Wir benutzen dazu die im Beweis von Lemma 12.3.9 definierte Äquivalenzrelation
∼U , d.h.
~v1 + U = ~v2 + U ⇔ [~v1 ]U = [~v2 ]U ⇔ ~v1 − ~v2 ∈ U.
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
80
zu (i): Sei ~v1 + U = ~v2 + U und w
~1 + U = w
~2 + U
⇒ ~v1 − ~v2 ∈ U und w
~1 − w
~2 ∈ U
⇒ (~v1 − ~v2 ) + (w
~1 − w
~ 2) ∈ U
|
{z
}
=(~
v1 +w
~ 1 )−(~
v2 +w
~2)
⇒ (v~1 + w~1 ) + U = (v~2 + w~2 ) + U.
zu (ii): Sei ~v1 + U = ~v2 + U , sei s ∈ K.
⇒ ~v1 − ~v2 ∈ U
⇒ s~v1 − s~v2 = s(~v1 − ~v2 ) ∈ U
⇒ s~v1 + U = s~v2 + U.
Lemma 12.3.11. Es seien V ein K-Vektorraum, U ein Teilraum von V und
V /U der Faktorraum von V nach U . Die Abbildung π : V → V /U mit π(~v ) :=
~v + U ist ein Epimorphismus mit Kern(π) = U .
Beweis: Sei V ein K-Vektorraum, U ein Teilraum von V und V /U der Faktorraum von V nach U . Sei π : V → V /U mit π(~v ) := ~v + U .
Z.z. (i) π ist Homomorphismus.
(ii) π ist surjektiv.
(iii) Kern(π) = U .
zu (i) : Seien ~v , ~v1 , ~v2 ∈ V, s ∈ K.
π(~v1 + ~v2 ) = (~v1 + ~v2 ) + U
= (~v1 + U ) + (~v2 + U )
= π(~v1 ) + π(~v2 ).
π(s · ~v ) = (s · ~v ) + U
= s(~v + U )
= s · π(~v ).
zu (ii) : Zu jedem ~v + U ∈ V /U ist ~v wegen π(~v ) = ~v + U ein Urbild.
zu (iii): Der Nullvektor in V /U ist die Restklasse ~0 + U = U . Dann ist
~v ∈ Kern(π) ⇔ π(~v ) = U
⇔ ~v + U = U
⇔ ~v ∈ U,
also Kern(π) = U .
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
81
Satz 12.3.12 (Homomorphiesatz für Vektorräume). Es seien V und W zwei
K-Vektorräume und ϕ : V → W eine lineare Abbildung. Dann ist die Abbildung
Φ : V / Kern(ϕ) → Bild(ϕ) mit
Φ(~v + Kern(ϕ)) := ϕ(~v )
ein Isomorphismus.
Beweis: Seien V, W K-Vektorräume, ϕ : V → W linear. Φ : V / Kern(ϕ) →
Bild(ϕ) sei definiert durch
Φ(~v + Kern(ϕ)) = ϕ(~v ).
Es ist zu zeigen:
(i) Φ ist wohldefiniert.
(ii) Φ linear.
(iii) Φ injektiv.
(iv) Φ surjektiv.
zu (i) : Seien ~v1 , ~v2 ∈ V mit ~v1 + Kern(ϕ) = ~v2 + Kern(ϕ).
Z.z. Φ(~v1 + Kern(ϕ)) = Φ(~v2 + Kern(ϕ)),
d.h. ϕ(~v1 ) = ϕ(~v2 ).
~v1 + Kern(ϕ) = ~v2 + Kern(ϕ)
⇔ ~v1 − ~v2 ∈ Kern(ϕ)
⇔ ϕ(~v1 ) − ϕ(~v2 ) = ϕ(~v1 − ~v2 ) = 0
⇔ ϕ(~v1 ) = ϕ(~v2 ).
zu (ii) : Seien ~v1 , ~v2 ∈ V, s ∈ K.
Φ(s · (~v1 + Kern(ϕ)) + (~v2 + Kern(ϕ))) = Φ((s · ~v1 + ~v2 ) + Kern(ϕ))
= ϕ(s · ~v1 + ~v2 )
= s · ϕ(~v1 ) + ϕ(~v2 )
= s · Φ(~v1 + Kern(ϕ)) + Φ(~v2 + Kern(ϕ)).
zu (iii): Seien ~v1 , ~v2 ∈ V mit Φ(~v1 + Kern(ϕ)) = Φ(~v2 + Kern(ϕ)).
⇒
ϕ(~v1 ) = ϕ(~v2 )
wie unter (ii)
⇒
Also ist Φ injektiv.
~v1 + Kern(ϕ) = ~v2 + Kern(ϕ)
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
82
zu (iv): Sei w
~ ∈ Bild(ϕ), d.h. es gibt ~v ∈ V mit w
~ = ϕ(~v ). Dann ist auch
w
~ = Φ(~v + Kern(ϕ)), ~v + Kern(ϕ) ∈ V / Kern(ϕ), also ist Φ surjektiv.
Daraus folgt sofort:
Korollar 12.3.13. Es seien V und W zwei K-Vektorräume und ϕ : V → W
eine lineare Abbildung. Dann ist
V / Kern(ϕ) ∼
= Bild(ϕ).
12.4
Hauptsatz über lineare Gleichungssysteme
Um den Rang einer Matrix zu definieren, nutzen wir die Verbindung zwischen
Matrizen und linearen Abbildungen.
Definition 12.4.1 (Rang einer Matrix). Zu einer n × m Matrix A über dem
Körper K, also A ∈ K n×m , betrachten wir die zugehörige lineare Abbildung
ϕA : K m → K n ,
~x 7→ A · ~x.
Dann ist der Rang der Matrix A definiert als
Rang(A) := Rang(ϕA ) = dim Bild(ϕA ).
Die Rangbegriffe von Matrizen und linearen Abbildungen sind voll miteinander
kompatibel.
Satz 12.4.2. Es seien V und W zwei K-Vektorräume, B = {~v1 , . . . , ~vn } eine Basis von V und B 0 = {w
~ 1, . . . , w
~ m } eine Basis von W . Für eine lineare
Abbildung ϕ : V → W gilt dann
Rang(ϕ) = Rang(B 0 [ϕ]B ).
Beweis: Seien V, W K-Vektorräume mit Basen B (von V ) und B 0 (von W ); sei
ϕ : V → W linear. Sei A = B 0 [ϕ]B . Nach Satz 12.2.2 gilt cB 0 ◦ ϕ = ϕA ◦ cB mit
den beiden Isomorphismen cB , cB 0 . Nach Satz 12.3.6 ist dann
Rang(ϕ) = Rang(cB 0 ◦ ϕ)
= Rang(ϕA ◦ cB )
= Rang(ϕA )
= Rang(A)
= Rang(B 0 [ϕ]B ).
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
83
Insbesondere ist der Rang der Matrizen B 0 [ϕ]B unabhängig von der Wahl der
speziellen Basen B, B 0 .
Im Folgenden sei A eine n × m Matrix über dem Körper K, also


a11 · · · a1m

..  ∈ K n×m .
A =  ...
. 
an1
···
anm
Definition 12.4.3 (Spaltenraum). Der Spaltenraum SR(A) ist der Teilvektorraum von K n , der durch die Spalten von A erzeugt wird, also
   


* a11
a12
a1m +
 ..   .. 
 . 
SR(A) :=
 .  ,  .  , . . . ,  ..  .
an1
an2
anm
Definition 12.4.4 (Zeilenraum). Der Zeilenraum ZR(A) ist der Teilvektorraum
von K 1×m , der durch die Zeilen von A erzeugt wird, also
ZR(A) := h(a11 , . . . , a1m ), (a21 , . . . , a2m ), . . . , (an1 , . . . , anm )i
Elementare Spaltenumformungen lassen sich analog zu elementaren Zeilenumformungen definieren (vgl. Kapitel 11.2).
Satz 12.4.5 (Charakterisierung des Rangs einer Matrix). Es sei A eine n × m
Matrix über dem Körper K. Dann gilt:
(i) Rang(A) = dim SR(A), d.h., der Rang von A ist die Dimension ihres
Spaltenraumes.
(ii) Der Rang von A ändert sich durch elementare Spaltenumformungen nicht.
(iii) Der Rang von A ändert sich durch elementare Zeilenumformungen nicht.
Beweis:
zu (i): Es ist Rang(A) = Rang(ϕA ) = dim Bild(ϕA ),
wobei ϕA : K m → K n , ~x 7→ A~x und


a11 · · · a1m

.. 
A =  ...
. 
an1
···
anm
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
84
ist. Sei {~e1 , · · · , ~em } die Standardbasis von K m . Dann ist
Bild(ϕA ) = hϕA (~e1 ), · · · , ϕA (~em )i
= hA · ~e1 , · · · , A · ~em i


 
* a11
a1m +


 
=  ...  , · · · ,  ... 
anm
an1
= SR(A),
also Rang(A) = dim SR(A).
(ii) ist klar mit Lemma 10.5.4.
zu (iii): Die Matrix A0 gehe aus A durch elementare Zeilenumformungen hervor.
Dann ist nach Satz 11.2.1
Kern(ϕA ) = {~x ∈ K m | A · ~x = ~0}
= {~x ∈ K m | A0 · ~x = ~0}
= Kern(ϕA0 ).
Nach Satz 12.3.3 gilt dann
Rang(A) = m − dim Kern(ϕA )
= m − dim Kern(ϕA0 )
= Rang(A0 ).
Satz 12.4.6. Es sei A eine n × m Matrix über dem Körper K. Dann gilt:
(i) Man kann A durch elementare Zeilen- und Spaltenumformungen auf die
Form


1
0

0
.
.
.

0
0

.
 ..
1
..
.
···
···
0
···
···
..
.
..
.
0
0
..
.
0
0
..
.
0
..
.
···
0
.. 
.
0
1
0
..
.
0
0
0
0
..
.
0
···
···
···
0

0

0
.. 

.
0
···


(12.4.1)
mit r Einsen auf der Hauptdiagonalen bringen. Insbesondere erhält man
dadurch Rang(A) = r.
(ii) Rang(A) = dim(SR(A)) = dim(ZR(A)).
Beweis:
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
85
Abbildung 12.7: Stufenmatrix
zu (i): Nach Satz 11.2.5 kann man A durch elementare Zeilenumformungen auf
Stufenform (Abb. 12.7) bringen. Links oben beginnend kann man dann durch
elementare Spaltenumformungen die Einsen auf den Stufen dazu benutzen,
alle Einträge derselben Zeile zu Null zu machen; die folgenden Stufen werden
dadurch nicht berührt.
Schließlich sind alle Spalten entweder Einheits- oder Nullvektoren. Durch
Vertauschung der Spalten erhält man schließlich die Form (12.4.1).
zu (ii): Da der Rang der Matrix A sich nach Satz 12.4.5 weder durch elementare
Zeilen- noch durch elementare Spaltenumformungen ändert, hat die Matrix
A denselben Rang wie die Matrix A0 in (12.4.1), und dieser ist gerade die
Dimension ihres Spaltenraumes, also r :
dim A = r = dim SR(A0 ),
wobei r die Anzahl der Stufen ist. Auch der Zeilenraum ZR(A) von A hat
die Dimension r, da ZR(A) sich unter elementaren Zeilenoperationen nicht
verändert und damit gleich dem der Stufenform ist; hier sind die r von Null
verschiedenen Zeilenvektoren linear unabhängig. Insgesamt also
r = dim SR(A0 ) = dim SR(A) = Rang(A)
= dim ZR(A).
Beispiel 12.4.1. Wir wollen nun Satz 12.4.6 anwenden und den Rang einer
Matrix dadurch berechnen, dass wir sie durch elementare Zeilen- und Spaltenumformungen auf die Form (12.4.1) bringen, von der man dann den Rang leicht
ablesen kann.


1 2 3 4 −1 4 3 5
Rang  2 4 7 8 13 14 5 0 
3 6 9 12 2 10 4 −5


A1,2 (−2),
1 2 3 4 −1 4
3
5
A1,3 (−3)
6 −1 −10 
=
Rang  0 0 1 0 15
0 0 0 0 5 −2 −5 −20


1 0 0 0 0 0 0 0
s. Folien
= Rang  0 1 0 0 0 0 0 0  = 3
0 0 1 0 0 0 0 0
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
86
Damit können wir nun direkt Aussagen über Lösbarkeit und Lösungsmenge
linearer Gleichungssysteme machen.
Satz 12.4.7 (Hauptsatz über homogene lineare Gleichungssysteme). Es sei
A ∈ K n×m .
(i) Die Lösungsmenge L := {~x ∈ K m | A · ~x = ~0} des homogenen linearen
Gleichungssystems A · ~x = ~0 ist ein Teilraum von K m mit
dim L = m − Rang(A).
(ii) Insbesondere ist A · ~x = ~0 genau dann eindeutig lösbar, wenn Rang(A) = m
ist.
Beweis: Sei A ∈ K n×m .
zu (i): Es ist
L = {~x ∈ K m | A · ~x = 0}
= {~x ∈ K m | ϕA (~x) = 0}
= Kern(ϕA )
m
n
Wobei ϕA : K → K die bekannte Abbildung ist.
Nach dem Dimensionssatz 12.3.3 gilt:
m = dim Kern(ϕA ) + dim Bild(ϕA ),
m = dim L + Rang(A),
also
d.h
dim L = m − Rang(A).
zu (ii): A~x = ~0 ist genau dann eindeutig lösbar, wenn L = {~0}, also dim L = 0
ist. Wegen (i) ist das äquivalent mit Rang(A) = m.
Satz 12.4.8 (Hauptsatz über inhomogene lin. Gleichungssysteme). Es sei A ∈
K n×m , sei ~b ∈ K m .
(i) Das inhomogene lineare Gleichungssystem A · ~x = ~b ist genau dann lösbar, wenn Rang(A) = Rang([A, ~b]), wobei [A, ~b] die erweiterte Matrix des
linearen Gleichungssystems A · ~x = ~b ist.
(ii) Ist v~0 ∈ K m mit A · v~0 = ~b eine Lösung des Gleichungssystems, so kann
die Lösungsmenge
L~b := {~x ∈ K m | A · ~x = ~b}
geschrieben werden als
L~b = v~0 + L = {v~0 + w
~ ∈ Km | w
~ ∈ L}.
Insbesondere ist das inhomogene lin. Gleichungssystem A · ~x = ~b genau
dann eindeutig lösbar, wenn Rang(A) = m und L~b 6= 0 ist.
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
87
Beweis:
zu (i): A · ~x = ~b ist genau dann lösbar, wenn ~b ∈ Bild(ϕA ) = SR(A) ist. Dies ist
äquivalent zu SR(A) = SR([A, ~b]), und dies wiederum zu
dim SR(A) = dim SR([A, ~b]),
also Rang(A) = Rang([A, ~b]) mit Satz 12.4.5.
zu (ii): Sei ~v0 ∈ K m mit A · ~v0 = ~b. Ist ~x ∈ L, d.h. A · ~x = ~0, so gilt
A · (~v0 + ~x) = A · ~v0 + A · ~x = ~b + ~0 = ~b,
also ~v0 + ~x ∈ L~b . Folglich gilt ~v0 + L ⊆ L~b .
Umgekehrt gilt für ein beliebiges ~v ∈ L~b :
A · (~v − ~v0 ) = A~v − A~v0 = ~b − ~b = ~0,
d.h. ~v − ~v0 ∈ L und daher ~v ∈ ~v0 + L. Also ist auch L~b ⊆ ~v0 + L.
12.5
Algebra der linearen Abbildungen
Definition 12.5.1 (Hom(V, W ), Endomorphismen). Es seien V und W zwei
K-Vektorräume. Dann bezeichnen wir die Menge der linearen Abbildungen von
V nach W mit
Hom(V, W ) := {ϕ : V → W | ϕ linear}.
Im Spezialfall V = W bezeichnen wir eine lineare Abbildung von V nach V auch
als Endomorphismus und setzen
End(V ) := {ϕ : V → V | ϕ linear}.
Satz 12.5.2. Es seien V und W zwei K-Vektorräume.
(i) Die Menge Hom(V, W ) bildet einen Teilraum des K-Vektorraums Abb(V, W )
aller Abbildungen von V nach W .
(ii) Ist dim V = n und dim W = m, so ist Hom(V, W ) ∼
= K m×n . Insbesondere
ist dim Hom(V, W ) = m · n.
Beweis:
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
88
zu (i): Wir müssen zunächst zeigen, dass Abb(V, W ) ein K-Vektorraum ist.
Dazu definieren wir wie vom Funktionenraum bekannt (Beispiel 10.1.1(3)) für
f, g ∈ Abb(V, W ) und s ∈ K:
(f + g)(~v ) := f (~v ) + g(~v )
(s · f )(~v ) := s · f (~v )
für alle ~v ∈ V . Für diese Operationen müssen wir jetzt die Eigenschaften aus
Definition 10.1.1 nachweisen. Wir zeigen hier aber nur exemplarisch, wie man
die Distributivgesetze nachweisen kann, die anderen Eigenschaften kann man
ebenso nachrechnen. Sei f ∈ Abb(V, W ) und s, s0 ∈ K. Dann gilt:
((s + s0 ) · f )(~v ) = (s + s0 ) · f (~v )
= s · f (~v ) + s0 · f (~v )
= (s · f )(~v ) + (s0 · f )(~v )
für alle ~v ∈ V , also ist (s + s0 ) · f = (s · f ) + (s0 · f ). Ebenso gilt für f, g ∈
Abb(V, W ) und s ∈ K, dass
(s · (f + g))(~v ) = s · (f + g)(~v )
= s · (f (~v ) + g(~v ))
= s · f (~v ) + s · g(~v )
= (s · f )(~v ) + (s · g)(~v )
für alle ~v ∈ V , und damit ist s · (f + g) = (s · f ) + (s · g). Das neutrale Element in Abb(V, W ) ist wie im Funktionenraum die Nullabbildung
Φ0 : V → W, Φ0 (~v ) = ~0. Das negative Element zu f ∈ Abb(V, W ) ist
die Abbildung −f : V → W, (−f )(~v ) = −f (~v ). Damit gilt insgesamt, dass
Abb(V, W ) ein K-Vektorraum ist.
Wir zeigen nun mit Lemma 10.2.4, dass Hom(V, W ) ein Teilraum von Abb(V, W )
ist. Hom(V, W ) ist eine nichtleere Teilmenge von Abb(V, W ), da z. Bsp. Φ0 ∈
Hom(V, W ). Seien s ∈ K, ϕ, ψ ∈ Hom(V, W ), dann gilt für ~v , w
~ ∈ V, r ∈ K
(s · ϕ + ψ)(r · ~v + w)
~ = s · ϕ(r~v + w)
~ + ψ(r~v + w)
~
= s · (rϕ(~v ) + ϕ(w))
~ + rψ(~v ) + ψ(w)
~
= sr · ϕ(~v ) + sϕ(w)
~ + rψ(~v ) + ψ(w)
~
= r · (s · ϕ(~v ) + ψ(~v )) + s · ϕ(w)
~ + ψ(w)
~
= r · ((s · ϕ + ψ)(~v )) + (s · ϕ + ψ)(w).
~
Die Abbildung s · ϕ + ψ ist also linear und damit ist s · ϕ + ψ ∈ Hom(V, W ),
und Hom(V, W ) ist damit ein Teilraum von Abb(V, W ).
zu (ii): Seien dim V = n, dim W = m, B = {~v1 , . . . , ~vn } eine Basis von V und
B 0 = {w
~ 1, . . . , w
~ m } eine Basis von W . Wir definieren
Φ : Hom(V, W ) → K m×n ,
ϕ 7→ B 0 [ϕ]B .
Wir zeigen im Folgenden, dass Φ ein Isomorphismus ist. Dafür ist es nützlich,
sich noch einmal die Eigenschaften von B 0 [ϕ]B in Erinnerung zu rufen. Satz
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
89
12.2.2 liefert hier die wichtigen Zusammenhänge. Sei ϕ ∈ Hom(V, W ), A :=
B 0 [ϕ]B , dann gilt
ϕ(~v ) = (c−1
v)
B 0 ◦ ϕA ◦ cB )(~
= c−1
v )))
B 0 (ϕA (cB (~
= c−1
v )).
B 0 (A · cB (~
Ist insbesondere ~v = ~vi ∈ B, dann ist
0
.
 .. 
0

cB (~vi ) = 
 10 
.
..
0
| {z
}
←i−te Zeile ,
=:~
ei
und damit gelten die folgenden Gleichungen
ϕ(~vi ) = c−1
ei ),
B 0 (A · ~
(12.5.1)
⇒ cB 0 (ϕ(~vi )) = A · ~ei .
(12.5.2)
Wir zeigen nun die Linearität von Φ. Seien dafür ϕ, ψ ∈ Hom(V, W ) und
r ∈ K. Dann ist Φ(r · ϕ + ψ) = B 0 [r · ϕ + ψ]B , es ist also zu zeigen:
B 0 [r
· ϕ + ψ]B = r · B 0 [ϕ]B + B 0 [ψ]B .
Wir weisen diese Gleichung nun für die Spaltenvektoren der Matrizen nach.
Es gilt
B 0 [r
· ϕ + ψ]B · ~ei = cB 0 ((r · ϕ + ψ)(~vi ))
12.5.2
= cB 0 (r · ϕ(~vi ) + ψ(~vi ))
= r · cB 0 (ϕ(~vi )) + cB 0 (ψ(~vi ))
= rB 0 [ϕ]B · ~ei + B 0 [ψ]B · ~ei
12.5.1
= (rB 0 [ϕ]B + B 0 [ψ]B ) · ~ei .
Damit ist B 0 [r · ϕ + ψ]B = rB 0 [ϕ]B + B 0 [ψ]B und die Linearität von Φ ist
gezeigt. Es fehlt noch die Bijektivität.
Φ ist injektiv: Seien ϕ, ψ ∈ Hom(V, W ) mit A := Φ(ϕ) = Φ(ψ) =: B, dann
gilt für i ∈ {1, . . . , n}
ϕ(~vi )
(12.5.1)
=
c−1
ei ) = c−1
ei )
B 0 (A · ~
B 0 (B · ~
(12.5.1)
=
ψ(~vi ),
und damit ist ϕ = ψ nach Satz 12.1.6.
Φ ist surjektiv: Sei A = (aij ) ∈ K n×m . Dann gibt es nach Satz
eine
P12.1.6
m
lineare Abbildung ϕ ∈ Hom(V, W ), definiert durch ϕ(~vi ) = i=1 aij · w
~ i.
Für ϕ gilt dann
Φ(ϕ) = B 0 [ϕ]B = A.
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
90
Insgesamt ist also Φ ein Isomorphismus und
dim Hom(V, W ) = dim Kern(Φ) + dim Bild(Φ)
= 0 + dim K n×m = n · m
nach dem Dimensionssatz für Homomorphismen (Satz 12.3.3).
Satz 12.5.3. Es sei V ein K-Vektorraum. Die Menge der Endomorphismen
End(V ) bildet mit der Addition
(ϕ + ψ)(~v ) := ϕ(~v ) + ψ(~v )
für ϕ, ψ ∈ End(V ), ~v ∈ V
und der Multiplikation
(ϕ ◦ ψ)(~v ) := ϕ(ψ(~v ))
für ϕ, ψ ∈ End(V ), ~v ∈ V
einen Ring mit Eins.
Beweis: Sei V ein K-Vektorraum. Wir müssen zeigen, dass
(i) (End(V ), +) eine abelsche Gruppe ist,
(ii) (End(V ), ◦) ein Monoid ist,
(iii) die Distributivgesetze gelten.
(i) gilt, da End(V ) nach Satz 12.5.2 ein Vektorraum ist.
zu (ii): Für ϕ, ψ ∈ End(V ) ist ϕ ◦ ψ ∈ End(V ) nach Lemma 12.1.5, daher ist
(End(V ), ◦) abgeschlossen, also
◦ : End(V ) × End(V ) → End(V ).
Nach Beispiel 8.5, Teil I ist (V V = {f : V → V }, ◦) ein Monoid. Da End(V ) ⊂
V V und die Identitätsfunktion idV linear ist, das neutrale Element aus V V in
End(V ) also enthalten ist, ist (End(V ), ◦) ebenfalls ein Monoid.
zu (iii): Seien ϕ, ψ, µ ∈ End(V ), ~v ∈ V , dann gilt
(ϕ ◦ (ψ + µ))(~v ) = ϕ((ψ + µ)(~v ))
= ϕ(ψ(~v ) + µ(~v ))
= ϕ(ψ(~v )) + ϕ(µ(~v ))
= (ϕ ◦ ψ)(~v ) + (ϕ ◦ µ)(~v ),
und
((ϕ + ψ) ◦ µ)(~v ) = (ϕ + ψ)(µ(~v ))
= ϕ(µ(~v )) + ψ(µ(~v ))
= (ϕ ◦ µ)(~v ) + (ψ ◦ µ)(~v ).
Es gilt also ϕ ◦ (ψ + µ) = (ϕ ◦ ψ) + (ϕ ◦ µ) und (ϕ + ψ) ◦ µ = (ϕ ◦ µ) + (ψ ◦ µ),
womit die Distributivgesetze gezeigt wären.
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
91
Satz 12.5.4. Ist dim V = n und B eine Basis von V , dann ist
µB : End(V ) → K n×n
ϕ 7→
B [ϕ]B
ein Ring-Isomorphismus, d.h., µB ist bijektiv mit
µB (ϕ + ψ) = µB (ϕ) + µB (ψ)
und
µB (ϕ ◦ ψ) = µB (ϕ) · µB (ψ)
für ϕ, ψ ∈ End(V ).
Beweis: Sei dim V = n, B eine Basis von V und µB wie angegeben. Dann
entspricht µB dem Isomorphismus Φ aus dem Beweis von Satz 12.5.2 mit V = W
und B 0 = B und ist somit bijektiv und linear. Damit müssen wir noch zeigen,
dass
µB (ϕ ◦ ψ) = µB (ϕ) · µB (ψ)
gilt, und dies ist gegeben durch
µB (ϕ ◦ ψ) = B [ϕ ◦ ψ]B = B [ϕ]B · B [ψ]B
nach Satz 12.2.3.
Definition 12.5.5 (K-Algebra). Es sei K ein Körper. Ein Ring R mit Eins,
der gleichzeitig ein K-Vektorraum ist (mit derselben Addition wie im Ring), so
dass außerdem noch
s · (a · b) = (s · a) · b = a · (s · b)
für alle s ∈ K, a, b ∈ R
(12.5.3)
gilt, heißt eine K-Algebra (mit Eins).
Endomorphismenringe und Matrizenringe sind also K-Algebren.
Satz 12.5.6 (Automorphismen, volle lineare Gruppe).
(i) Ist V ein K-Vektorraum, so ist
GL(V ) := {ϕ ∈ End(V ) | ϕ ist bijektiv}
zusammen mit der Verknüpfung von Abbildungen “◦“ eine Gruppe, genannt
die volle lineare Gruppe (engl.: general linear group). Die Elemente von
GL(V ) heißen auch Automorphismen.
(ii) Für n ∈ N ist
GL(n, K) := {A ∈ K n×n | A invertierbar},
mit der Matrixmultiplikation ”·” eine Gruppe, die Gruppe der regulären
n × n Matrizen.
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
92
Beweis: Sei V ein K-Vektorraum.
zu (i): Wir können GL(V ) auch schreiben als
GL(V ) = {ϕ : V → V | ϕ Isomorphismus}.
Z.z.: (GL(V ), ◦) ist eine Gruppe.
GL(V ) ist unter der Verknüpfung ”◦“ abgeschlossen, da die Komposition von
Isomorphismen wieder ein Isomorphismus ist (Satz 12.1.10). Da GL(V ) ⊆
End(V ) und (End(V ), ◦) ein Monoid ist, überträgt sich die Eigenschaft der
Assoziativität auf (GL(V ), ◦). Die Identitätsfunktion idV ist bijektiv und daher
ist idV ∈ GL(V ) wieder das neutrale Element. Bleibt noch die Existenz der
inversen Elemente zu zeigen. Sei ϕ ∈ GL(V ), dann ist ϕ−1 ∈ GL(V ) nach
Satz 12.1.10, und es gilt
ϕ ◦ ϕ−1 = idV = ϕ−1 ◦ ϕ.
Das Inverse zu ϕ ist also ϕ−1 .
zu (ii): Nach Satz 10.1.4 bildet die Menge der n×n Matrizen mit der für Matrizen
definierten Addition und Multiplikation einen Ring. Die Matrixmultiplikation
in GL(n, K) ist abgeschlossen, da für A, B ∈ GL(n, K) die Matrix A · B wieder
invertierbar ist mit (A · B)−1 = B −1 · A−1 . Die Matrix En ist invertierbar und
somit auch in GL(n, K) das neutrale Element. Inverse Elemente existieren,
denn für A ∈ GL(n, K) gilt
A−1 · A = En = A · A−1 .
Somit ist (GL(n, K), ·) eine Gruppe.
Lemma 12.5.7. Sind V ein K-Vektorraum mit dim V = n und B eine Basis
von V , so ist
µG
B : GL(V ) → GL(n, K)
ϕ 7→
B [ϕ]B
ein Isomorphismus von Gruppen, das heißt µG
B ist bijektiv und
G
G
µG
B (ϕ ◦ ψ) = µB (ϕ) · µB (ψ)
für ϕ, ψ ∈ GL(V ).
(12.5.4)
Beweis: Seien V ein K-Vektorraum mit dim V = n, B eine Basis von V und
G
µG
B wie angegeben. µB ist die Einschränkung des Ring-Isomorphismus µB aus
Satz 12.5.4, wir zeigen zunächst, dass µG
B wohldefiniert ist. Sei dazu ϕ ∈ GL(V ).
Wir müssen zeigen, dass µG
(ϕ)
=
[ϕ]
B
B ∈ GL(n, K) ist. Es gilt
B
En = B [idV ]B = B [ϕ ◦ ϕ−1 ]B = B [ϕ]B · B [ϕ−1 ]B
= B [ϕ−1 ◦ ϕ]B = B [ϕ−1 ]B · B [ϕ]B .
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
93
−1
ist also invertierbar mit B [ϕ]B = B [ϕ−1 ]B und daher µG
B (ϕ) ∈ GL(n, K).
Somit ist µG
als
Einschränkung
eines
Ring-Isomorphismus
zumindest
injektiv,
B
und Gleichung (12.5.4) gilt. µG
ist
auch
surjektiv,
denn
für
A
∈
GL(K,
n) ist
B
ϕ := µB −1 (A) ∈ End(V ) und es gilt
B [ϕ]B
−1
−1
−1
µ−1
) = µ−1
) = µ−1
B (A) · µB (A
B (A · A
B (En )
= idV
−1
= µ−1
· A)
B (A
−1
= µ−1
) · µ−1
B (A
B (A).
Damit ist ϕ ∈ GL(V ), und mit µG
B (ϕ) = A ist die Surjektivität gezeigt. Daraus
folgt insgesamt die Behauptung.
Korollar 12.5.8. Es seien V ein K-Vektorraum mit dim V = n, ϕ ∈ End(V )
und A ∈ K n×n . Dann gilt
ϕ ∈ GL(V )
⇐⇒
Rang(ϕ) = n
A ∈ GL(n, K)
⇐⇒
Rang(A) = n.
und
Beweis: Sei V ein K-Vektorraum mit dim V = n, ϕ ∈ End(V ) und A ∈ K n×n .
Dann gilt
ϕ ∈ GL(V )
⇔
ϕ : V → V Isomorphismus
⇔
Rang(ϕ) = dim V = n,
wobei die letzte Äquivalenzaussage aus Satz 12.3.5 folgt. Sei nun B eine Basis
von V , µB der Ring-Isomorphismus aus Satz 12.5.4 und µG
B der Gruppenisomorphismus aus Lemma 12.5.7. Dann gilt einerseits
A ∈ GL(n, K)
⇒
⇒
µ−1
B (A) =: ϕ ∈ GL(V ) existiert,
B [ϕ]B
=A
12.4.2
Rang(A) = Rang(B [ϕ]B ) = Rang(ϕ) = n,
und andererseits
Rang(A) = n
⇒
−1
für ϕ := νB
(A), also
B [ϕ]B
= A gilt:
Rang(ϕ) = Rang(B [ϕ]B ) = n
⇒
ϕ ∈ GL(V )
⇒
µB (ϕ) ist definiert, und µB (ϕ) = B [ϕ]B = A ∈ GL(n, K)
Mit Satz 12.4.8 folgt dann:
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
94
Korollar 12.5.9. Es sei A ∈ K n×n , sei ~b ∈ K n . Das lineare Gleichungssystem
A·~x = ~b ist genau dann eindeutig lösbar, wenn A invertierbar, also A ∈ GL(n, K)
ist.
Beweis: Für A ∈ K n×n und ~b ∈ K n gilt mit Satz 12.4.8:
Das Gleichungssystem A~x = ~b ist eindeutig lösbar
⇔ Rang(A) = n und L~b = {~x ∈ K n | A~x = ~b} =
6 ∅
Aus Satz 12.5.8 folgt nun
Rang(A) = n ⇔ A ∈ GL(n, K),
und für A ∈ GL(V ) gilt für das inhomogene Gleichungssystem
A~x = ~b
⇔ ~x
= A−1 · ~b ∈ L~b 6= ∅
und somit folgt insgesamt die Behauptung.
Bemerkung: Ist V ein K-Vektorraum mit dim V > 1, so ist GL(V ) nicht
kommutativ.
Ist dim V = 1, so ist (GL(V ), ◦) isomorph zu (GL(1, K), ·). Sei B eine Basis
von V und µG
B der Gruppenisomorphismus aus Korollar 12.5.7. Die Matrizen
A ∈ GL(1, K) können wir schreiben als A = (a) für a ∈ K \ {0}, denn
Rang((a)) = 1 ⇔ a 6= 0.
Für zwei Matrizen (a), (b) ∈ GL(1, K), a, b ∈ K \ {0} gilt
(a) · (b) = (a · b) = (b · a) = (b) · (a),
(GL(1, K), ·) ist also kommutativ. Ebenso gilt für ϕ1 , ϕ2 ∈ GL(V )
ϕ1 ◦ ϕ2 = µG
B
−1
(µG
B (ϕ1 ◦ ϕ2 ))
= µG
B
−1
G
(µG
B (ϕ1 ) · µB (ϕ2 ))
= µG
B
−1
G
(µG
B (ϕ2 ) · µB (ϕ1 ))
= µG
B
−1
(µG
B (ϕ2 ◦ ϕ1 ))
= ϕ2 ◦ ϕ1 ,
womit gezeigt wäre, dass GL(V ) für dim V = 1 kommutativ ist. Ist dim V > 1,
so ist dies nicht mehr gegeben, wie das folgende Beispiel zeigt.
Beispiel 12.5.1. Wir definieren
x
x+y
1 1
x
2
2
ϕ1 : R → R , ϕ1
=
·
,
=
y
y
y
0 1
| {z }
=:A1
ϕ2 : R2 → R2 ,
x
x
1 0
x
ϕ2
=
=
·
.
y
x+y
1 1
y
| {z }
=:A2
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
95
Dann sind ϕ1 , ϕ2 ∈ GL(R2 ) und A1 , A2 ∈ GL(2, R), aber nicht kommutativ,
denn es gilt
x
x
2x + y
(ϕ1 ◦ ϕ2 )
= ϕ1
=
y
x+y
x+y
x
x+y
x+y
(ϕ2 ◦ ϕ1 )
= ϕ2
=
y
y
x + 2y
und damit gilt ϕ1 ◦ ϕ2 6= ϕ2 ◦ ϕ1 . Ebenso gilt
1 1
1 0
2
A1 · A2 =
·
=
0 1
1 1
1
1 0
1 1
1
·
=
A2 · A1 =
1 1
0 1
1
1
1
1
2
und damit ist A1 · A2 6= A2 · A1 .
Aus Kapitel 11.2 wissen wir:
• Es sei A ∈ GL(n, K). Bringt man die n × 2n Matrix (A, En ) durch elementare Zeilenoperationen auf Stufenform, so erhält man eine n × 2n Matrix
der Form (En , U ), wobei U = A−1 ist.
• Ist A nicht regulär, so lässt sich die Matrix (A, En ) durch elementare
Zeilenoperationen nicht in diese Form bringen.
• Jede elementare Zeilenoperation entspricht der Multiplikation mit einer
regulären Matrix von links (Satz 11.2.4). Diese Matrizen werden auch
Elementarmatrizen genannt.
Definition 12.5.10 (Elementarmatrizen). Es sei n ∈ N, i, j ∈ {1, . . . , n} mit
i 6= j und s ∈ K\{0}.
1. Die Elementarmatrix Vi,j ∈ GL(n, K) entsteht aus der Einheitsmatrix En
durch Vertauschen der i-ten und j-ten Zeile.
2. Die Elementarmatrix Mi (s) ∈ GL(n, K) entsteht aus der Einheitsmatrix
En durch Multiplikation der i-ten Zeile mit s.
3. Die Elementarmatrix Ai,j (s) ∈ GL(n, K) entsteht aus der Einheitsmatrix
En durch Addition des s-fachen der i-ten Zeile zur j-ten Zeile.
Diese Matrizen sind gerade die im Zusammenhang mit Satz 11.2.4 behandelten
Matrizen.
Lemma 12.5.11. Die inverse Matrix einer Elementarmatrix ist selbst eine
Elementarmatrix.
Beweis: Die Elementarmatrizen entsprechen den Umformungsmatrizen U aus
dem Beweis von Satz 11.2.6. Wieder sei Eij ∈ K n×n die Matrix, die an der
KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN
96
Position (i, j) eine 1 hat und sonst nur mit Nullen besetzt ist. Dann wurde
gezeigt, dass für U = Vi,j das Inverse
U −1 = U = Vi,j
ist. Für U = Mi (s) ist
U −1 = En + (s−1 − 1) · Eii = Mi (s−1 )
und für U = Ai,j (s) ist
U −1 = En − s · Eij = Ai,j (−s).
Die jeweiligen Inversen entsprechen also wieder Elementarmatrizen.
Da die Umformungsmatrix einer regulären Matrix das Inverse der Matrix ist
und diese Umformungsmatrix als Produkt von Elementarmatrizen entsteht, folgt
sofort:
Satz 12.5.12. Jede Matrix A ∈ GL(n, K) ist ein Produkt von Elementarmatrizen.
Kapitel 13
Determinanten und
Eigenwerte
13.1
Determinanten
In diesem Abschnitt betrachten wir nur quadratische Matrizen, also A ∈ K n×n
für ein n ∈ N:


a11 a12 · · · a1n

..
.. 
A =  ...
.
. 
an1 an2 · · · ann
Für n > 1 bezeichnet Ǎij (1 ≤ i, j ≤ n) die (n − 1) × (n − 1)-Matrix, die aus A
durch Streichen der i-ten Zeile und j-ten Spalte entsteht:


a11
a12
· · · a1,j−1
a1,j+1
···
a1n
 ..
..
..
..
.. 
 .
.
.
.
. 


ai−1,1 ai−1,2 · · · ai−1,j−1 ai−1,j+1 · · · ai−1,n 


Ǎij = 

ai+1,1 ai+1,2 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n 
 .
..
..
..
.. 
 ..
.
.
.
. 
an1
an2
···
an,j−1
an,j+1
···
ann
Ǎij wird auch Streichungsmatrix genannt.
Definition 13.1.1 (Determinanten, rekursiv definiert). Sei A ∈ K n×n .
• Für n = 1, also A = (a11 ), ist a11 die Determinante von A. Schreibweise:
det(A) = a11 .
• Für n > 1:
det(A) :=
n
X
(−1)i+1 ai1 det(Ǎi1 ).
i=1
97
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
98
Ǎij bezeichnet dabei eine Streichungsmatrix.
Beispiel 13.1.1. Für n = 2 liefert die Definition
a
a12
det 11
= a11 det(Ǎ11 ) − a21 det(Ǎ21 ) = a11 a22 − a21 a12 .
a21 a22
Für n = 3 entsprechend


a11 a12 a13
det a21 a22 a23  = a11 det(Ǎ11 ) − a21 det(Ǎ21 ) + a31 det(Ǎ31 )
a31 a32 a33
= a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 a23 − a22 a13 ).
Bemerkung: Statt det(A) schreibt man oft
a11 a12 · · ·
a21 a22 · · ·
..
..
.
.
an1 an2 · · ·
|A| oder auch
a1n a2n .. .
. ann Wenn v~1 , . . . , v~n die Spalten der Matrix A ∈ K n×n sind, dann schreibt man auch
det(v~1 , . . . , v~n ) := det(A).
Satz 13.1.2 (Entwicklung von det(A) nach einer Zeile oder Spalte). Sei A ∈
K n×n . Dann ist
Pn
1. det(A) = j=1 (−1)i+j aij det(Ǎij ) für jedes i ∈ {1, . . . , n}
(Entwicklung nach der i-ten Zeile),
Pn
2. det(A) = i=1 (−1)i+j aij det(Ǎij ) für jedes j ∈ {1, . . . , n}
(Entwicklung nach der j-ten Spalte).
Beweis: Diesen Satz kann man bei sorgfältiger Umindizierung durch Induktion
beweisen. Wir illustrieren die Vorgehensweise für den Fall n = 3 und setzen
voraus, dass 1. bzw. 2. für n = 1, 2 gelten.

a11
Sei also A = a21
a31
a12
a22
a32

a13
a23 
a33
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
zu 1: Nach Definition
a
det(A) = a11 22
a32
a
I.V.
= a11 22
a32
n=2
a
= a11 22
a32
a22
= a11 a32
99
ist
a23 a33 a23 a33 a23 a33 a23 a33 a
− a21 12
a32
a
a13 + a31 12
a22
a33
a13 a23 − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 )
− a12 (a21 a33 − a31 a23 ) + a13 (a21 a32 − a31 a32 )
a21 a22 a
a23 +
a
− a12 21
13 a31 a32 a31 a33 = a11 det(Ǎ11 ) − a12 det(Ǎ12 ) + a13 det(Ǎ13 ),
das ist die Entwicklung nach der ersten Zeile.
zu 2: Wir wollen hier zeigen, dass wir det(A) auch nach der 2. Spalte entwickeln
können (wieder unter geeigneter Benutzung der Induktionsvoraussetzung).
Wieder ist
det(A) =
a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 )
= −a12 (a21 a33 − a23 a31 ) + a22 (a11 a33 − a31 a13 ) − a32 (a11 a23 − a21 a13 )
a
a11 a13 a11 a13 a23 = −a12 21
+
a
−
a
22 32 a31 a33 a31 a33 a21 a23 = (−1)1+2 det(Ǎ12 ) + (−1)2+2 det(Ǎ22 ) + (−1)3+2 det(Ǎ32 )
dies ist die Entwicklung nach der 2. Spalte.
Definition 13.1.1 benutzt die Definition nach der 1. Spalte. Nach diesem Satz
kann man Determinanten auch nach jeder anderen Zeile oder Spalte entwickeln
und erhält denselben Wert.
Beispiel 13.1.2. Beispiel (n = 3): Für n = 3 bekommt man als Entwicklung
von A nach der zweiten Zeile
det(A) = (−1)3 a21 det(Ǎ21 ) + (−1)4 a22 det(Ǎ22 ) + (−1)5 a23 det(Ǎ23 )
= −a21 (a12 a33 − a32 a13 ) + a22 (a11 a33 − a31 a13 ) − a23 (a11 a32 − a31 a12 )
Dies steht im Einklang mit der ursprünglichen Definition, wie man leicht nachrechnet.
Korollar 13.1.3. Zu A ∈ K n×n sei At die transponierte Matrix. Dann gilt
det(A) = det(At ).
Beweis: durch vollständige Induktion nach n:
n = 1 : Es ist (a1 ) = (a1 )t , also det(A) = det(At ).
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
100
Induktionsvoraussetzung: Sei die Behauptung bewiesen für alle (n − 1) × (n − 1)
Matrizen.
n − 1 7→ n : Sei nun A ∈ K n×n . Wir entwickeln At nach der ersten Zeile und A
nach der ersten Spalte, wobei die zugehörigen Vektoren nach der Definition
der transponierten Matrix identisch sind:
det(A) =
n
X
(−1)i+1 ai1 det(Ǎi1 )
i=1
n
X
det(At ) =
(−1)i+1 ai1 det((Ǎt )1i )
i=1
t
t
Nun ist (Ǎ )1i = (Ǎi1 ) , und nach Induktionsvoraussetzung gilt:
det(Ǎt )1i = det(Ǎi1 )t = det(Ǎi1 ).
Folglich det(A) = det(At ).
~ ∈ K n.
Satz 13.1.4. Sei A ∈ K n×n mit Spalten ~v1 , . . . , ~vn , sei s ∈ K sowie w
Dann gilt für beliebige i, j ∈ {1, . . . , n} mit i 6= j
1. det(~v1 , . . . , ~vi , . . . , ~vn ) + det(~v1 , . . . , ~vi−1 , w,
~ ~vi+1 , . . . , ~vn )
= det(~v1 , . . . , ~vi−1 , ~vi + w,
~ ~vi+1 , . . . , ~vn )
2. det(~v1 , . . . , s~vi , . . . , ~vn ) = s det(~v1 , . . . , ~vi , . . . , ~vn )
3. det(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = − det(~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn )
Beweis: Sei A = (~v1 , . . . , ~vn ) ∈ K n×n , seien s ∈ K und w
~ ∈ K n.
zu (1) : Sei B = (~v1 , . . . , ~vi−1 , w,
~ ~vi+1 , . . . , ~vn ), C = (~v1 , . . . , ~vi−1 , ~vi +w,
~ ~vi+1 , . . . , ~vn ).
Wir entwickeln
alle
Determinanten
nach
der
i-ten
Spalte,
wobei
 
 
v1i
w1
 .. 
 .. 
~vi =  .  , w
~ =  .  sind:
vni
wn
det(C) =
n
X
(−1)j+i (vji + wj ) det(Čji ).
j=1
Nun ist Čji = Ǎji = B̌ji für alle j = 1, . . . , n, da sich A, B, C nur in der
i-ten Spalte unterscheiden und diese in den Streichungsmatrizen vollständig
gestrichen ist. Damit folgt
det(C) =
n
n
X
X
(−1)j+i vji det(Ǎji ) +
(−1)j+i wj det(B̌ji )
j=1
= det(A) + det(B).
j=1
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
101
zu (2) : Dies folgt analog zu (1) mit Hilfe der Entwicklung nach der i-ten Spalte
und aus der Distributivität der Skalarmultiplikation.
zu (3) : Dies folgt durch zweifache Anwendung von Satz 13.1.2 auf die entstehenden Streichungsmatrizen. Wir illustrieren die Vorgehensweise für den Fall
n = 3:


a11 a12 a13
Sei A = a21 a22 a23 , det A ist wie oben bereits (mehrfach) berechnet.
a31 a32 a33
Nun vertauschen wir erste und zweite Spalte:
a12 a11 a13 a22 a21 a23 = a12 a21 a23 − a22 a11 a13 + a32 a11 a13 a31 a33 a31 a33 a21 a23 a32 a31 a33 = a12 (a21 · a33 − a31 · a23 ) − a22 (a11 · a33 − a31 · a13 )
+ a32 (a11 · a23 − a21 · a13 )
Wir beobachten hier, dass die nach zweimaliger Anwendung des Satzes 13.1.2
entstehenden Determinanten der ”Rest”streichungsmatrizen dieselben sind, wie
bei der ursprünglichen Matrix (in diesem Fall sind dies einfach a13 , a23 , a33 ),
dass sich aber die Vorzeichen der entsprechenden Koeffizienten umgedreht
haben; in diesem speziellen Fall sieht man das noch einfacher, wenn man die
Determinante mit
nach der zweitenSpalte entwickelt.
 den vertauschten
 Spalten 
a12 a11 a13
a11 a12 a13
Es ist also det a22 a21 a23  = − det a21 a22 a23  .
a32 a31 a33
a31 a32 a33
Bemerkung: Wegen der Eigenschaften 1 und 2 ist die Determinante det(~v1 , . . . , ~vn )
in jeder Komponente ~vi linear. Man nennt det daher Multilinearform. Wegen 3
heißt det auch alternierende Multilinearform.
Korollar 13.1.5. Sei A ∈ K n×n mit Spalten ~v1 , . . . , ~vn , sei s ∈ K. Dann gilt:
1. det(~v1 , . . . , ~vi , . . . , ~vn ) = 0 falls ~vi = 0.
2. Ist ~vi = ~vj für i 6= j, so ist det(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = 0.
3. det(~v1 , . . . , ~vi , . . . , ~vn ) = det(~v1 , . . . , ~vi + s~vj , . . . , ~vn ) falls i 6= j.
4. Sind ~v1 , . . . , ~vn linear abhängig, dann gilt det(~v1 , . . . , ~vn ) = 0.
Beweis:
zu (1) : Ist ~vi = ~0, so zeigt die Entwicklung nach der i-ten Spalte, dass
det(~v1 , . . . , ~vi , . . . , ~vn ) = 0 ist.
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
102
zu (2) : Sei ~vi = ~vj für i 6= j: Wegen Satz 13.1.4 ist
det(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = − det(~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn ),
andererseits
det(~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn ) = det(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ),
da ja ~vi = ~vj . Das ist nur möglich, wenn det(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = 0.
zu (3) : Nach Satz 13.1.4 ist
i-te Pos.
det(~v1 , . . . , ~vi + s~vj , . . . , ~vn ) = det(~v1 , . . . , ~vi , . . . , ~vn ) + s det(~v1 , . . . , ~vj , . . ., ~vn )
= det(~v1 , . . . , ~vi , . . . , ~vn ),
i-te Pos.
da det(~v1 , . . . , ~vj , . . ., ~vn ) = 0, weil in dieser Matrix an zwei verschiedenen
Positionen der Vektor ~vj enthalten ist (vgl. (2)).
zu (4) : Seien ~v1 , . . . , ~vn linear abhängig. Dann lässt sich ein Vektor als Linearkombination der anderen Vektoren schreiben, sei dies o.B.d.A. ~v1 , also
~v1 =
n
X
si~vi .
i=2
Dann ist
det(~v1 , . . . , ~vn ) = det(
n
X
si~vi , ~v2 , . . . , ~vn )
i=2
=
n
X
i=2
si det(~vi , ~v2 , . . . , ~vn )
{z
}
|
=0
= 0,
da in allen Matrizen ein Vektor an zwei verschiedenen Stellen vorkommt.
Satz 13.1.4 und Korollar 13.1.5 behandeln (auch) Veränderungen der Determinante bei elementaren Spaltenumformungen. Wegen det(A) = det(At ) gelten die
gleichen Aussagen auch für elementare Zeilenumformungen, d.h. wir erhalten
das folgende Korollar:
Korollar 13.1.6.
• Entsteht A0 aus A durch eine elementare Zeilenumformung Vk,l , so gilt: det(A0 ) = − det(A).
• Entsteht A0 aus A durch eine elementare Zeilenumformung Mk (c), so gilt:
det(A0 ) = c · det(A).
• Entsteht A0 aus A durch eine elementare Zeilenumformung Ak,l (c), so gilt:
det(A0 ) = det(A).
Das letzte Korollar besagt insbesondere, dass sich die Determinante einer Matrix
aus ihrer Stufenform berechnen lässt (und umgekehrt).
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
103
Stufenform-Matrizen haben eine besonders einfache Form, sie sind insbesondere
obere Dreiecksmatrizen.
Eine Matrix A ∈ K n×n ist eine obere Dreiecksmatrix, wenn alle Einträge
unterhalb der Diagonalen 0 sind.
Die Determinanten solcher Matrizen lassen sich leicht berechnen.
Lemma 13.1.7. Ist A ∈ K n×n eine obere Dreiecksmatrix, also


a11 a12 · · · a1,n−1
a1n
 0 a22 · · · a2,n−1
a2n 


 ..
.. 
.
.

.
. 
A= .
,
 .

.
..
 ..
an−1,n 
0
···
0
ann
dann gilt det(A) = a11 · a22 · · · ann .
Beweis: Sei A ∈ K n×n eine obere Dreiecksmatrix, also


a11 a12 · · · a1,n−1
a1n
 0 a22 · · · a2,n−1
a2n 


 ..
.. 
.
..

.
0
.
A=


 .

.
.
..
..
 ..
an−1,n 
0
0 ···
0
ann
Wir beweisen das Lemma durch Induktion nach n:
n = 1: Hier ist A = (a11 ) und det A = a11 , wie gefordert.
Induktionsvoraussetzung: Das Lemma sei bewiesen für alle oberen (n − 1) ×
(n − 1)-Dreiecksmatrizen.
n − 1 → n: Sei A eine obere n × n-Dreiecksmatrix. Durch Entwicklung nach der
ersten Spalte erhalten wir det(A) = a11 · det Ǎ11 ,da alle anderen Einträge in
der ersten Spalte 0 sind. Ǎ11 ist eine obere (n − 1) × (n − 1)-Matrix, und nach
Induktionsvoraussetzung gilt daher:
det(Ǎ11 ) = a22 , . . . , ann . Insgesamt folgt damit det(A) = a11 a22 · · · ann .
Beispiel 13.1.3. Es sei K = R und

2
A := 1
3
4
2
3

6
7 .
−2
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
104
Wir subtrahieren das 12 -fache der ersten von der zweiten Zeile und das 32 -fache
der ersten von der dritten. Das ergibt die Matrix


2 4
6
4 
A1 := 0 0
0 −3 −11
mit det(A) = det(A1 ) (wegen Korollar 13.1.5).
Vertauschung von Zeile 2 und 3 ändert das Vorzeichen:
2 4
6 det(A) = det(A1 ) = −1 · 0 −3 −11 .
0 0
4 Nach Lemma 13.1.7 gilt:
det(A) = (−1) · 2 · (−3) · 4 = 24.
Durch den Vergleich der Determinanten von A und ihrer Stufenform erhalten
wir den folgenden wichtigen Satz:
Satz 13.1.8. Sei A ∈ K n×n . Dann ist A regulär genau dann, wenn det(A) 6= 0.
Beweis: Sei A ∈ K n×n . Durch elementare Zeilenumformungen kann man A auf
Stufenform B bringen, wobei der Rang von A erhalten bleibt (s. Satz 12.4.5)
und der Wert der Determinante mit (−1) oder einem Skalar s 6= 0 multipliziert
wird. Es gilt also
Rang(A) = Rang(B)
und
det(A) 6= 0
⇔
det(B) 6= 0
Ist Rang(A) = n (genau dann ist A regulär, s. Korollar 12.5.8, so ist B = En
mit det(B) = 1 6= 0, also auch det(A) 6= 0.
Ist Rang(A) < n, so enthält B eine Nullzeile, und damit ist det(B) = 0. Insgesamt
folgt damit die Behauptung.
D.h., um zu bestimmen, ob eine Matrix invertierbar ist, müssen wir nur ihre
Determinante ausrechnen. Im Folgenden wollen wir zeigen, dass sich die Inverse
einer regulären Matrix mit Hilfe der Determinante bestimmen lässt.
Satz 13.1.9 (Determinantenmultiplikation). Für beliebige A, B ∈ K n×n gilt
det(A · B) = det(A) · det(B).
Beweis: Seien A, B ∈ K n×n . Ist eine von beiden nicht regulär, so ist auch A · B
nicht regulär, und nach Satz 13.1.8 gilt:
det(A · B) = 0 = det(A) · det(B).
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
105
Sind beide Matrizen A, B regulär, so sind sie nach Satz 12.5.12 Produkt aus
Elementarmatrizen, so dass man die Behauptung nur für den Fall zeigen muss,
dass A Elementarmatrix ist. Der allgemeine Fall ergibt sich dann durch iterierte
Anwendung. Für die Elementarmatrizen Vij , Mi (s), Aij (s) ∈ GL(n, K) (s. Def.
12.5.10) gilt:
det(Vij ) = −1
det(Mi (s)) = s
det(Ai,j (s)) = 1.
Wir betrachten nun det(A · B) für den Fall, dass A eine Elementarmatrix ist,
und beachten, dass Multiplikation von links mit Elementarmatrizen elementaren
Zeilenumformungen entspricht.
det(Vij · B) = − det(B)
= (−1) · det(B)
= det(Vij ) · det(B)
det(Mi (s) · B) = s · det(B)
= det Mi (s) · det(B)
det(Aij (s) · B) = det(B)
= 1 · det(B)
= det(Aij (s)) · det(B)
Hat eine n × n-Matrix A den Rang n, dann ist A (nach Korollar 12.5.8) invertierbar, d.h., es existiert eine n × n-Matrix A−1 mit
det(A) · det(A−1 ) = det(A · A−1 ) = det(En ) = 1.
Daraus folgt:
Korollar 13.1.10. Sei A ∈ K n×n . Dann ist
det(A−1 ) =
1
.
det(A)
Beispiel 13.1.4. Sei
A :=
1
−1
1
.
1
Dann gilt offenbar det(A) = 2 und det(Ak ) = 2k für alle k ∈ N0 . Invers zu A ist
die Matrix
1
− 21
−1
2
A = 1
1
2
mit
det(A−1 ) =
2
1
1
=
.
2
det(A)
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
106
Definition 13.1.11 (Komplementärmatrix). Sei A ∈ K n×n und B = (βij ) mit
βij = (−1)i+j det(Ǎji )
definiert. Dann heißt B Komplementärmatrix zu
1
Beispiel 13.1.5. Wir berechnen zu A =
−1
B = (βij ):
β11 = (−1)2 det( 1) =
A.
1
die Komplementärmatrix
1
1
3
β12 = (−1) det( 1) = −1
β21 = (−1)3 det(−1) =
4
β22 = (−1) det( 1) =
also
B=
1
1
1
1,
−1
.
1
Satz 13.1.12. Sei A ∈ K n×n , und sei B die Komplementärmatrix zu A. Dann
gilt:
A · B = det(A)En .
Ist A regulär, so ist
A−1 =
1
B.
det(A)
Beweis: Sei A = (aij ) ∈ K n×n , sei B die Komplementärmatrix
zu A.
Pn
Die Matrix A · B hat Einträge der Form
k=1 aik βkj (an der Stelle (i, j)),
genauer
n
X
aik βkj =
k=1
=
n
X
k=1
n
X
aik (−1)k+j det(Ǎjk )
(−1)j+k aik det(Ǎjk ).
k=1
Für i = j ist dies
n
X
(−1)i+k aik det(Ǎik ) = det(A) · 1
k=1
(Entwicklung nach der i-ten Zeile).
Für i 6= j ist dies die Determinante einer Matrix, die aus A durch Ersetzen der
j-ten Zeile durch die i-te Zeile entstanden ist. Diese Determinante ist aber nach
Satz 13.1.5 (2) gleich Null.
Damit ist A · B = det(A) · En .
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
Ist A regulär, so ist det(A) 6= 0, d.h. wir können
A·(
d.h. A−1 =
1
det(A)
1
det(A)
107
bilden. Wir erhalten
1
1
· B) =
·A·B
det(A)
det(A)
1
· det(A) · En
=
det(A)
= En ,
· B.
Beispiel 13.1.6. Wir berechnen die Inverse zur Matrix A =
13.1.12:
1
=
2
A−1
1
1
−1
=
1
1
2
1
2
− 21
1
−1
1
mit Satz
1
!
1
2
,
dieses Ergebnis stimmt mit der oben angegebenen Inversen überein.
Satz 13.1.13 (Cramersche Regel). Sei A = (~a1 , . . . , ~an ) ∈ K n×n eine reguläre
Matrix mit den Spaltenvektoren ~ai . Dann hat das lineare Gleichungssystem
A · ~x = ~b die Lösung
xi =
1
det(~a1 , . . . , ~ai−1 , ~b, ~ai+1 , . . . , ~an ), i = 1, . . . , n.
det(A)
Beweis: Sei A = (~a1 , . . . , ~an ) ∈ GL(n, K), sei B die Komplementärmatrix zu A.
Dann ist
A~x = ~b
⇔
~x = A−1 · ~b
1
=
B · ~b,
det(A)
d.h. für 1 ∈ {a, . . . , n} gilt:
n
xi =
=
X
1
βik bk
det(A)
1
det(A)
k=1
n
X
(−1)i+k bk det(Ǎki )
k=1
1
=
det(~a1 , . . . , ~ai−1 , ~b, ~ai+1 , . . . , ~an )
det(A)
Satz 13.1.14. Sei V ein endlichdimensionaler Vektorraum und ϕ : V → V ein
Endomorphismus. Seien B, B 0 zwei Basen von V . Dann gilt:
det(B [ϕ]B ) = det(B 0 [ϕ]B 0 ),
d.h., die Determinante der darstellenden Matrix von ϕ ist unabhängig von der
Wahl von B.
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
108
Beweis: Sei dim V = n, sei ϕ : V → V ein Endomorphismus. Seien B, B 0 zwei
Basen von V . Mit Satz 12.2.8 ist B 0 [ϕ]B 0 = A ·B [ϕ]B · A−1 mit einer regulären
Basiswechselmatrix A. Dann ist
det(B 0 [ϕ]B 0 ) = det(A) · det(B [ϕ]B ) · det(A−1 )
1
= det(A) ·
· det(B [ϕ]B )
det(A)
= det(B [ϕ]B ).
13.2
Eigenwerte
Sei im folgenden V = K n (für n =
6 0) ein Vektorraum über K und sei A ∈ K n×n .
Definition 13.2.1 (Eigenwert,Eigenraum). Ein Skalar λ ∈ K heißt Eigenwert
von A, wenn es ein ~v ∈ V , ~v 6= 0 gibt mit
A~v = λ~v .
Ein Vektor ~v ∈ V , ~v 6= 0 mit A~v = λ~v heißt ein Eigenvektor zum Eigenwert λ.
Die Menge Vλ := {~v ∈ V | A~v = λ~v } heißt Eigenraum zum Eigenwert λ. Die
Menge σ(A) = {λ ∈ K | λ Eigenwert von A} heißt Spektrum von A.
Eigenwerte reduzieren also die komplexe Matrixmultiplikation auf eine Skalarmultiplikation (für gewisse Vektoren). Wie kann man den Eigenraum zu einem
Eigenvektor λ bestimmen?
Seien dim V = n, ~v ∈ V ein Eigenvektor zum Eigenwert λ. Dann gilt
A~v = λ~v
⇔
A~v − λ~v = ~0
⇔
⇔
A~v − λ · En~v = ~0
(A − λ · En )~v = ~0
⇔
~v ∈ Kern(ϕA−λ·En )
⇒ Vλ = Kern(ϕA−λEn )
Insbesondere folgt daraus, dass Vλ ein Untervektorraum von V ist. Die Eigenvektoren zu λ sind genau die von Null verschiedenen Vektoren in Vλ . Die Existenz
von Eigenvektoren zu λ hängt von der Lösbarkeit des lineare Gleichungssystems
(A − λEn )~v = ~0 ab, und hierfür wiederum ist det(A − λEn ) entscheidend.
Definition 13.2.2 (Charakteristisches Polynom). Sei V endlichdimensional.
Dann heißt
χA (λ) := det(A − λ · En )
das charakteristische Polynom von A.
Satz 13.2.3. Sei dim V = n < ∞, sei A ∈ K n×n . Dann gilt für λ ∈ K:
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
⇔
λ ist Eigenwert von A
109
det(A − λEn ) = 0.
Beweis: Seien dim V = n < ∞, A ∈ K n×n . Dann gilt:
λ ∈ K ist Eigenwert von A ⇔ ∃~v ∈ V \ {~0} : ~v ∈ Kern(ϕA−λEn )
⇔ (A − λEn )~v = ~0 ist nicht eindeutig lösbar
⇔ A − λEn ist nicht regulär
⇔ det(A − λEn ) = 0
Bemerkung:
1. χA (λ) ist ein Polynom vom Grad n. Es gilt für A = (αij ):
n
n
χA (λ) = (−1) · (λ −
n
X
αii λn−1 + · · · ± det(A))
i=1
2. Es gibt höchstens n Werte λi ∈ K mit det(A − λi En ) = 0, weil das
charakteristische Polynom det(A − λEn ) höchstens n Nullstellen hat.
3. A hat höchstens n verschiedene Eigenwerte.
Beispiel 13.2.1.

0
A= 1
−2

2 4
1 0
2 5
Wir berechnen nun die Eigenwerte und die zugehörigen Eigenräume von A. Es
gibt im Grunde 3 Schritte, die wir zur Berechnung durchführen müssen.
1. Bestimmung des charakteristischen Polynoms:
χA = det(A − λE3 )


−λ
2
4
0 
= det  1 1 − λ
−2
2
5−λ
= −λ3 + 6λ2 − 11λ + 6
2. Berechnung der Nullstellen von χA (λ):
χA (λ) = 0 ⇔
−λ3 + 6λ2 − 11λ + 6 = 0
Durch Ausprobieren erhält man eine Nullstelle λ1 = 1. Polynomdivision
und p–q– Formel liefern λ2 = 2, λ3 = 3. Die Menge aller Eigenwerte von
A (das Spektrum) ist also
σ(A) = {1, 2, 3}
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
3. Berechnung von Kern(ϕA−λi E3 ), i = 1, 2, 3:
λ1 = 1 :
(A − 1 · E3 )~v = ~0
⇔

−1
1
−2
 
2 4
v1
0 0 v2  = ~0
2 4
v3
Wir lösen dazu das folgende Gleichungssystem.




−1 2 4 0
1 0 0 0
V1,2
 1 0 0 0 
⇔  −1 2 4 0 
−2 2 4 0
−2 2 4 0




A1,2 (1),
1 0 0 0
1 0 0 0
A1,3 (2)
A2,3 (−1)
⇔  0 2 4 0 
⇔  0 2 4 0 
0 2 4 0
0 0 0 0
⇒
v1 = 0 ∧ v2 = −2v3
Die Menge der Eigenvektoren zu λ1 ist



 
* +
0
0
0 

−2v3  = v3 · −2v3 ∈ K \ {0} ⇒ Vλ1 = −2


1
1 v3
λ2 = 2 :

(A − 2 · E3 )~v = ~0
⇔
−2 2
 1 −1
−2 2
 
v1
4
0 v2  = ~0
3
v3
Wir lösen dazu das folgende Gleichungssystem.




−2 2 4 0
1 −1 0 0
V1,2
 1 −1 0 0 
⇔  −2 2 4 0 
−2 2 3 0
−2 2 3 0




A1,2 (2),
1 −1 0 0
1
−1
0
0
3
A2,3 (− 4 )
A1,3 (2)
⇔  0 0 4 0 
⇔  0 0 4 0 
0 0 3 0
0 0 0 0
⇔
v1 = v2 ∧ v3 = 0
Die Menge der Eigenvektoren zu λ2 ist
 

 
*1+
1  v2

v2  = v2 · 1v2 ∈ K \ {0} ⇒ Vλ2 = 1


0
0 0
110
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
111
λ3 = 3 :

(A − 3 · E3 )~v = ~0
⇔
−3
1
2
2
−2
2
 
4
v1
0 v2  = ~0
2
v3
Wir lösen dazu das folgende Gleichungssystem.




1 −2 0 0
−3 2 4 0
V1,2
 1 −2 0 0 
⇔  −3 2 4 0 
−2 2 2 0
−2 2 2 0




A1,2 (3),
1 −2 0 0
1 −2 0 0
A2,3 (− 21 )
A1,3 (2)
⇔  0 −4 4 0 
⇔  0 −4 4 0 
0 −2 2 0
0 0 0 0
⇔
v1 = 2v3 ∧ v2 = v3
Die Menge der Eigenvektoren zu λ2 ist
 

 
*2+
2  2v3

 v3  = v3 · 1v3 ∈ K \ {0} ⇒ Vλ3 = 1


1 v3
1
Sei ϕ : V → V ein Endomorphismus, dim V = n. Wir beschäftigen uns im
Folgenden mit der Frage
Gibt es eine Basis B, so dass
B [ϕ]B
eine möglichst einfache Form hat?
Dazu betrachten wir zunächst ein Beispiel zu der aus Beispiel 13.2.1 bekannten
Matrix.
Beispiel 13.2.2.

0
A= 1
−2

2 4
1 0
2 5
Das Spektrum von A ist die Menge σ(A) = {1, 2, 3}. Die Eigenräume lauten
*  +
* +
*  +
0
1
2
V1 = −2 , V2 = 1 , V3 = 1 .
1
0
1
     
0
1
2
Da −2 , 1 , 1 linear unabhängig sind, gibt es eine Basis des R3 , die
1
0
1
nur aus Eigenvektoren von A besteht.
     
1
2 
 0
B = −2 , 1 , 1


1
0
1
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
112
Für diese Basis gilt (unter Beachtung der Reihenfolge der Basisvektoren):
1
0 2
0 + 0· 1
= 1 · −2
+ 0· 1
A · −2
11 01 10 21 A· 1
= 0 · −2
+ 2· 1
+ 0· 1
20 01 10 21 A· 1
= 0 · −2
+ 0· 1
+ 3· 1
1
0
1
1


1 0 0
⇒ B [ϕA ]B = 0 2 0
0 0 3
Bezgl. dieser Basis hat A also Diagonalgestalt.
Sei B3 die Standardbasis des R3 , dann ist
B [ϕA ]B

0
−2
B3 [idR3 ]B =
1

1 2
1 1
0 1
= B [idR3 ]B3 · A · B3 [idR3 ]B .

B [idR3 ]B3
= B3 [idR3 ]B
−1
1
= 3
−1
−1
−2
1

−1
−4
2
Was wir im Beispiel gesehen haben, lässt sich auf viele Matrizen des K n×n
anwenden. Wir untersuchen nun die Eigenschaften und Charakteristika der
Matrizen, die sich in Diagonalform bringen lassen. Hierbei spielen Eigenvektoren
eine große Rolle.
Definition 13.2.4. Eine Matrix A ∈ K n×n heißt diagonalisierbar, wenn es
eine reguläre Matrix S gibt, so dass SAS −1 eine Diagonalmatrix ist.
Satz 13.2.5. Für A ∈ K n×n sind äquivalent:
(i) A ist diagonalisierbar
(ii) es gibt in V eine Basis aus Eigenvektoren von A
Qk
(iii) χA (λ) = i=1 (λi − λ)ni mit k ∈ N, λi ∈ K und dim Vλi = ni für 1 ≤ i ≤ k
Beweis: Sei Bn = {~e1 , . . . , ~en } die Standardbasis des K n .
(i) ⇒ (ii) A ist diagonalisierbar ⇒ ∃ reguläre Matrix S, so dass


λ1 . . . 0


..
S −1 AS = 

.
0
...
λn
mit λi ∈ K, 1 ≤ i ≤ n. S ist regulär, daher sind die Spaltenvektoren von S
linear unabhängig. Wir können daher als Basis B definieren:





   






s12
s1n 


 s11


   

B =  ... ,  ... , . . . ,  ... 




 sn1

sn2
snn 





|
{z
}
|
{z
}
|
{z
}


=:~
s1
=:~
s2
=:~
sn
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
113
Dann ist
idK n (~si ) = s1i · ~e1 + s2i · ~e2 + · · · + sni · ~en
für 1 ≤ i ≤ n, und damit

s11
 s21

Bn [idK n ]B =  .
 ..
...

s1n
s2n 

..  = S.
. 
sn1
...
sn1
Also ist
B [ϕA ]B
= Bn [idK n ]B
−1
· A · Bn [idK n ]B
−1
=S ·A·S


λ1 . . . 0


..
=
,
.
0 . . . λn
womit gilt, dass
ϕA (~si ) = A · ~si = 0 · ~s1 + · · · + 0 · ~si−1 + λi · ~si + 0 · ~si+1 + · · · + 0 · ~sn
= λi · s~i .
~si ∈ B ist also Eigenvektor zum Eigenwert λi von A.
(ii) ⇒ (iii) Sei B = {~b1 , . . . , ~bn } eine Basis aus Eigenvektoren zu A. Dann ist
A · ~bi = 0 · ~b1 + · · · + λi · ~bi + · · · + 0 · ~bn


λ1 . . . 0


..
⇒B [ϕA ]B = 

.
0
...
λn
⇒B [ϕA ]B = B [id ]Bn ·A · Bn [idK n ]B
| {z }
| {z }
Kn
=:S −1
=:S
χA (λ) = det(A − λEn )
= det(S −1 (A − λEn )S)
= det(S −1 AS − λEn )

λ1 − λ . . .

..
= det(
.
0
=
k
Y
...
0


)
λn − λ
(λi − λ)ni ,
i=1
wobei Vielfachheiten zusammengefasst werden. Seien dim Vλi = mi , Vλi =
h~bi1 , . . . , ~bimi i mit ~bij ∈ B, 1 ≤ j ≤ mi
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
114
⇒ Für ~b ∈ B gilt A · ~b = λi~b, wenn ~b ∈ {~bi1 , . . . , ~bimi } und A · ~b 6= λi~b sonst.
Damit hat die Darstellugsmatrix bzgl. B die Form
λ

1
..




B [ϕA ]B = 



.








0
λi
..
.
λi
..
0
.
)
genau mi -Mal
λn
Daraus folgt
1 −λ
 λ

..




χA (λ) = det 



.


k
 Y

(λi − λ)ni
 =

 i=1

0
λi −λ
..
.
λi −λ
..
0
.
λn −λ
und mi = ni .
Qk
(iii) ⇒ (i) Sei χA (λ) = i=1 (λi − λ)ni mit k ∈ N, λi ∈ K und dim Vλi = ni für
1 ≤ i ≤ k. Da dim Vλi = ni ist, existiert eine Basis Bi = {~bi1 , . . . , ~bini } von
Vλi . Wenn wir zeigen können, dass
B=
k
[
Bi
i=1
eine Basis von V ist, so hat ϕA bezgl. der Basis Diagonalgestalt und wir sind
fertig.
Es ist χA (λ) ein Polynom vom Grad n, daher ist
k
X
ni = n,
i=1
d.h. wenn die n Vektoren aus B linear unabhängig sind, ist B eine Basis von
V . Seien ri1 , . . . , rini , 1 ≤ i ≤ k in K mit
n1
X
r1j~b1j + · · · +
j=1
|
nk
X
rkj~bkj = ~0.
j=1
{z
}
=:~
v1 ∈Vλ1
|
{z
}
=:~
vk ∈Vλk
Dann gilt
~0 = ~v1 + · · · + ~vk
⇔ ~v1 = −~v2 − · · · − ~vk
⇒ A~v1 = λ1~v1
= λ1 (−~v2 − · · · − ~vk )
= −λ2~v2 − · · · − λk~vk
⇔ ~0 = (λ1 − λ2 )~v2 + · · · + (λ1 − λk )~vk
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
115
Also sind ~v2 , . . . , ~vk linear abhängig. Auf gleiche Art und Weise kann man nun
zeigen, dass ~v3 , . . . , ~vk linear abhängig sind, usw., bis wir die Aussage ~vk ist
linear abhängig erhalten. Daraus folgt
~vk = ~0 =
nk
X
rkj~bkj .
j=1
Die Vektoren ~bkj sind linear unabhängig für 1 ≤ j ≤ nk , also gilt rkj = 0 für
1 ≤ j ≤ nk . Da nach unserer Schlussfolgerung auch gelten muss, dass ~vk−1 , ~vk
linear abhängig sind, gilt nun auch
~vk−1 = s~vk = ~0
und wiederum folgt, dass rk−1j = 0 ist für 1 ≤ j ≤ nk−1 . Per Induktion folgt
schliesslich, dass alle Koeffizienten Null sein müssen, und damit ist B eine
Basis.

0 2
Beispiel 13.2.3.
1. Die Matrix A =  1 1
−2 2
spiel ist diagonalisierbar:



0 1 2
1 0 0
1 −1
 −2 1 1   0 2 0   3 −2
1 0 1
0 0 3
−1 1
2. Die Matrix A =
0
1
−1
0

4
0  aus dem obigen Bei5
 
−1
0
−4  =  1
2
−2

2 4
1 0 
2 5
ist über R nicht diagonalisierbar, weil
χA (λ) = det
−λ
1
−1
−λ
= λ2 + 1
keine Nullstellen hat, A also keine Eigenwerte bzw. Eigenvektoren hat.
13.3
Anwendung: Eigenfaces
13.3.1
Gesichtserkennung
Das Problem, das wir uns in diesem Abschnitt anschauen, besteht darin, die
relevanten Informationen zur Repräsentation einer Klasse/Menge von bekannten
Objekten automatisch aus Beispieldaten zu ermitteln. Also aus einer Menge von
Bildern zu “lernen”, was ein Gesicht darstellt. Dieser Abschnitt orientiert sich
an dem Artikel Eigenfaces for recognition und der Vorlesung Computervision
von Prof. Dr.-Ing. Gernot A. Fink.
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
116
Um dies mit einem Rechner erfassen zu können, werden die Bilder als Vektoren
des Rn aufgefasst, wobei n der Anzahl an Pixeln in den Bildern entspricht. Auf
Facebook haben die Profilbilder 180 Pixel in x-Richtung und meist zwischen
120 und 240 Pixel in y-Richtung. Somit haben die entsprechenden Vektorräume
Dimensionen zwischen 21.600 und 43.200.
Für die Gesichtserkennung gehen wir davon aus, dass wir M Beispielbilder mit
einer festen Auflösung von x · y = n haben. Bilder in anderen Auflösungen müssen dann entsprechend vergrößert, verkleinert oder ausgeschnitten werden. Die
Bilder sollten bezüglich Helligkeit und Kontrast normalisiert worden sein. Damit
wollen wir uns hier aber nicht befassen, sondern mit der Gesichtserkennung bei
ausreichend guten Bildern. Für Interessierte sei auf die Vorlesung Computervision
von Prof. Dr. Fink verwiesen.
Die Bilder sind nun zu Punkten Γ1 , . . . , ΓM im hochdimensionalem Vektorraum
Rn abstrahiert. Das Ziel ist dann eine vernünftige Repräsentation der “Punktwolke” (= Menge der gegebenen Bilder) im Raum der Bilder (= alle möglichen
Bilder einer festen Auflösung) zu finden. Vernünftige Repräsentation heißt dabei,
dass wir damit ein Ähnlichkeitsmaß definieren können, um neue Auftreten von
Gesichtern zu erkennen oder zu finden. Somit bekommen wir einen Unterraum
des Vektorraums aller Bilder. Die Hoffnung ist, dass der Raum der Gesichtsbilder
ein “kleiner” Unterraum des Raumes aller Bilder ist.
Als Ansatz zur Repräsentation des Unterraums wird hier der Schwerpunkt (=
PM
1
Durchschnittsvektor Ψ := M
i=1 Γi ) der Beispiele als zentrales Element und
für die Beschreibung der Abweichungen (Φi := Γi − Ψ) vom Schwerpunkt die
PM
1
t
Kovarianzmatrix (C := M
i=1 Φi Φi ) der Unterschiede verwendet. Die Kovarianzmatrix enthält Informationen über die Streuung und über die Zusammenhänge
der Vektoren. Ein Eintrag cij ist das Produkt der Abweichungen von Pixel i und
Pixel j zu dem Durchschnittsbild gemittelt über alle Beispielbilder. Ein Wert
nahe Null bedeutet, dass durchschnittlich keine gleichzeitige Abweichung der
Pixel i und j festzustellen ist. Ein hoher positiver Wert bedeutet, dass durchschnittlich die Pixel i und j in die gleiche Richtung (beide positiv oder beide
negativ) vom Durchschnittsbild abweichen. Ein hoher negativer Wert bedeutet,
dass durchschnittlich die Pixel i und j in entgegengesetzte Richtungen (einer
positiv und einer negativ) vom Durchschnittsbild abweichen.
Die Beschreibung der Kovarianzmatrix soll an dieser Stelle genügen. Die Kovarianzmatrix begegnet dem Informatikstudenten dann in Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker wieder.
Die Hauptkomponenten der Kovarianzmatrix (= ihre Eigenvektoren ui ) spannen
den gesuchten Unterraum auf. Allerdings können wir die Eigenvektoren nicht
direkt aus der Matrix C berechnen, da diese die Größe n × n hat und somit
für typische Bildgrößen viel zu groß ist, um effiziente Berechnungen damit
durchzuführen.
Eine andere Darstellungsmöglichkeit der Matrix C wird uns aber weiterhelfen.
Man erkennt aus der Formel für C, dass sich die Kovarianzmatrix als Produkt
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
117
von Matrizen darstellen lässt:
1
C = AAt mit A := √ [Φ1 , . . . , ΦM ]
M
Betrachten wir nun statt der Matrix C die Matrix L := At A und berechnen
deren Eigenvektoren ~vi . Diese Matrix hat nur noch Größe M × M statt n × n. Da
M n, also die Zahl der Beispielbilder meist wesentlich kleiner als die Pixelzahl
ist, kommen wir wieder in den Bereich des sinnvoll Berechenbaren.
Was bringt es uns, die Eigenwerte und Eigenvektoren von L statt von C zu
berechnen? Antwort: Aus den Eigenvektoren von L lassen sich die Eigenvektoren
von C ableiten:
Für einen Eigenvektor ~v von L zum Eigenwert λ gilt:
⇒
⇒
⇒
L~v
At A~v
AAt A~v
t
AA
|{z} A~v
=
=
=
=
λ~v
λ~v
Aλ~v
λA~v
C
Somit ist ~u := A~v ein Eigenvektor von C zum Eigenwert λ.
Wir können also die Eigenvektoren von C berechnen, indem wir den Umweg über
die wesentlich kleinere Matrix L machen. Die Eigenwert- und Eigenvektorberechnung liefert maximal M verschiedene Eigenwerte. Da C eine Kovarianzmatrix
ist, ist sie insbesondere positiv semi-definit und symmetrisch, d.h. ~xt A~x ≥ 0
für alle ~x ∈ Rn und A = At . Daraus folgt, dass alle Eigenwerte ≥ 0 sind. Die
zusammengehörenden Eigenvektoren und Eigenwerte werden dann nach Größe
der Eigenwerte absteigend sortiert. Das heißt, die Eigenvektoren zu den größten
Eigenwerten sind am wichtigsten. Jeder Trainingsvektor kann durch eine Linearkombination der Eigenvektoren wiederhergestellt werden. Andere Vektoren
(Bilder) können approximiert werden.
Die k größten Eigenwert/Eigenvektorpaare (λi , ~ui ) werden dann als Repräsentation des Gesichtsraumes angesehen. Die Wahl von k ist subjektiv. Ein
Anhaltspunkt ist allerdings die Größe der Eigenwerte: Ist ein Eigenwert um mehrere Zehnerpotenzen kleiner als der größte Eigenwert, so kann er ausgeschlossen
werden.
Um nun zu testen, ob ein gegebenes Bild Γneu ebenfalls ein Gesicht zeigt, wird
das neue Bild auf den Unterraum projiziert:
ωi = ~uti (Γneu − Ψ)
für i = 1, . . . , k
Dadurch hat man einen Vektor Ωneu = [ω1 , . . . , ωk ]t mit Gewichten für die
gewählten Eigenvektoren. Die Trainingsdaten Γ1 , . . . , ΓM werden ebenfalls auf
den Unterraum projiziert und ergeben die Gewichtsvektoren Ω1 , . . . , ΩM . Um
zu entscheiden, ob Γneu ein Gesicht ist, wird Ωneu P
dann mit dem über alle
M
1
Trainingsdaten gemittelten Gewichtsvektor Ω̂ := M
i=1 Ωi verglichen. Dies
geschieht im einfachsten Fall mit dem euklidischen Abstand:
ε := kΩneu − Ω̂k
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
118
Wenn nun ε unterhalb eines zu wählenden Grenzwertes liegt, dann wurde ein
Gesicht erkannt.
13.3.2
Beispiel
Gegeben sind zwölf schwarz/weiß-Bilder von Prominenten in einer Auflösung
von 192 × 256 = 49152 Pixel. Abbildung 13.1 zeigt diese mit der jeweiligen
Benennung Γ1 , . . . , Γ12 .
Γ1
Γ2
Γ3
Γ4
Γ5
Γ6
Γ7
Γ8
Γ9
Γ10
Γ11
Γ12
Lizenzen der Bilder: Alan Rickman von David Shankbone: CC BY-SA 3.0, Anthony Hopkins von Elena Torre: CC
BY-SA 2.0, Bettina Zimmermann von Siebbi: CC BY 3.0, Johnny Depp von Vanessa Lua: CC BY-SA 2.0, John
Travolta von Roland Godefroy: CC BY 3.0, Julia Roberts von David Shankbone: CC BY 3.0, Kate Winslet von
Andrea Raffin: CC BY-SA 3.0, Katharina Wackernagel von Siebbi: CC BY 3.0, Madonna von David Shankbone:
CC BY-SA 3.0, Mel Brooks von Towpilot: CC BY-SA 3.0, Patrick Stewart von urbantog: CC BY-SA 3.0, Paula
Schramm: gemeinfrei
Abbildung 13.1: Übersicht über die Trainingsdaten
Das Durchschnittsbild Ψ :=
1
12
P12
i=1
Γi ist in Abbildung 13.2 dargestellt.
Von diesem Durchschnittsbild ausgehend werden die Unterschiede Φi := Γi − Ψ
berechnet. Die Φi haben keine sinnvolle Darstellung als Bilder, da sie auch
negative Werte enthalten.
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
119
Abbildung 13.2: Durchschnittsbild Ψ
P12
1
t
t
√1 [Φ1 , . . . , Φ12 ] hat
Die Kovarianzmatrix C := 12
i=1 Φi Φi = AA mit A =
12
die Größe 49152 × 49152, also 2.415.919.104 Einträge. Diese Größenordnung
eignet sich nicht dazu, um effizient die Eigenvektoren zu berechnen. Daher wird
der oben beschriebene Umweg eingeschlagen und die Matrix C gar nicht explizit
berechnet.
Betrachte stattdessen die Matrix L := At A. Diese Matrix hat nur noch die Größe
12 × 12 = 144 und kann daher auch abgedruckt werden: L =
 25471160 8243220 −5279546 1615191 −10301389 4000387 −7884696 −10936269 2848142 −3758552 −5105178 1089477 
8243220
26581156 −6661251 −4167142
−6661251
 −5279546
1615191 −4167142
 −10301389
 4000387 −6458443
 −7884696 −2167504
 −10936269 −5444231
 2848142 −7746747
1370463
 −3758552 −1696807
−5105178
14076532
−679577
−679577
10920523
3971825
−417392
886947
−988341
2590808
2233087
4684250 −2835835
−5268544 −2899657
−3096664 −324792
680742 −5065344 −5422909
1089477 −2537719
1172077
1675261
−6458443 −2167504 −5444231
−417392
−988341
−7746747
1370463 −1696807
680742 −2537719
2590808
2233087
4684250 −5268544 −3096664 −5065344
−2835835 −2899657 −324792 −5422909
1172077
1675261
16021419 −3802672
7503862
−3802672 11359857 −4205066
7332839 −8170476 −1236163 −5422548
−522472
1009285 −2131143 −1709490
−295851
−422633
3971825
886947
7503862 −4205066
7332839
−8170476
16871650
2500799 −6527771 −3577920
−522472
2500799
1009285 −6527771
19590182 −4694165 −1904692
−4694165 16499005
1127192
−1236163 −2131143 −3577920
−5422548 −1709490 −5360555
−295851
−422633
1335457
−1904692
−248447
1127192
7622603
14948193
5066122




−5360555
1335457 
−248447 −5221543 
7622603 −2950717

5066122 −3434659
21286278 −6362391
−5221543 −2950717 −3434659 −6362391
15995500
Von der Matrix L werden dann die Eigenvektoren ~vi und Eigenwerte λi berechnet.
Die Berechnungen wurden von dem Programm Octave übernommen. Die Multiplikation mit der Matrix A ergibt dann die gesuchten Eigenvektoren ~ui = A · ~vi .
Wegen der Eigenschaften der Kovarianzmatrix C (symmetrisch, positiv semi–
definit) weiß man, dass alle Eigenwerte nicht–negative reelle Zahlen sind, für
genauere Information verweisen wir z.B. auf [2, Pareigis]. Die Abbildung 13.3
zeigt eine Übersicht über die Eigenvektoren, die jeweils zum Durchschnittsbild
addiert wurden. Zusätzlich sind dort die Eigenwerte angegeben.
Wir wählen hier die ersten elf Eigenvektoren als Repräsentation des Gesichtsraumes, da sich von dem elften auf den zwölften Eigenwert ein verhältnismäßig
großer Sprung in den Eigenwerten zeigt. Als Beispieltests gibt es zwei bereits
vorhandene Prominente in Abbildung 13.4.
Die ermittelten euklidischen Abstände εneu1 = 38198801 und εneu2 = 24550592
vermitteln in diesem Beispiel aber kaum Ähnlickeit. Um bessere Resultate zu
erzielen sind Vorverarbeitungen der Bilder oder biometrische Fotos nötig.
KAPITEL 13. DETERMINANTEN UND EIGENWERTE
u1 + Ψ,
λ1 = 59011394
u2 + Ψ,
λ2 = 38630083
u3 + Ψ,
λ3 = 23771841
u4 + Ψ,
λ4 = 19991369
u5 + Ψ,
λ5 = 15026005
u6 + Ψ,
λ6 = 13077571
u7 + Ψ,
λ7 = 9640689
u8 + Ψ,
λ8 = 8608336
u9 + Ψ,
λ9 = 8293889
u10 + Ψ,
λ10 = 7120273
u11 + Ψ,
λ11 = 6445879
u12 + Ψ,
λ12 = 4126
120
Abbildung 13.3: Eigenvektoren + Durchschnittsbild
Γneu1
Γneu2
Lizenzen der Bilder: Alan Rickman von Justin Hoch: CC BY 2.0 Patrick Stewart von David Shankbone: CC BY 3.0
Abbildung 13.4: Zwei Testfälle
Index
K-Algebra, 90
K-Modul, 5
Erzeugnis von einer Menge, 17–18
Faktorraum, 78–81
Austauschsatz von Steinitz, 32
Automorphismus, 90
Basis, 19–20, 25–31
Kardinalität, 33
Basisergänzungssatz, 29
Basiswechsel, 67
Basiswechselmatrix, 67–69
charakteristisches Polynom, 107–111
Cramersche Regel, 106
Gauß’scher Algorithmus, 40–41
Gauß’sches Eliminationsverfahren, siehe Gauß’scher Algorithmus
Gruppe
der regulären n × n Matrizen, 90–
95
volle lineare, 90–93
Hauptsatz über homogene lin. Gleichungssysteme, 85
Hauptsatz über inhomogene lin. Gleichungssysteme, 85
Homomorphiesatz für Vektorräume, 80
Determinante, 96–106
Multiplikation, 103
differenzierbare Funktionen, 55
Dimension, 33–36
Isomorphismus
Dimensionsformel für Teilräume, 34
zwischen Gruppen, 91
Dimensionssatz für Homomorphismen,
zwischen Ringen, 90
72
zwischen Vektorräumen, 58–61
Dreiecksmatrix, 102
Koeffizienten, 37
Eigenraum, 107
Koeffizientenmatrix, 37
Eigenvektor, 107–111
erweitert, 38
Eigenwert, 107–108
Komplementärmatrix, 104
Einheitsvektor, 19, 20
Länge eines Vektors, 12
elementare Spaltenumformungen, 82
elementare Zeilenumformungen, 42, 82, linear abhängig, 21–23, 25
linear unabhängig, 21, 24–25, 29–31
101
als Matrixmultiplikation, siehe auch lineare Abbildung, 53–57, 63, 86
Bild, 70–72, 81
Elementarmatrix, 44–46
einer Matrix, 55
Elementarmatrix, siehe auch elementaKern, 70–72
re Zeilenumformungen als MaKomposition, 55
trixmultiplikation
lineares
Gleichungssystem, 37–41, 106
Endomorphismus, 86
Äquivalenz,
41
Entwicklung nach Zeile/Spalte, 97
eindeutig
lösbares,
48, 92
Epimorphismus, 58
homogenes,
48,
74
Erzeugendensystem, siehe auch Erzeugnis von einer Menge, 19, 20, Linearkombination, 17
25, 28–31
121
INDEX
122
Matrix, 6, 57
Schnitt, 15
Addition, 6
Vektorraum, 4–7
diagonalisierbare, 111–113
der n × m Matrizen, 6, 34
einer linearen Abb., 57, 62–66, 68,
endlich dimensionaler, 34–36, 61
106
endlich erzeugter, 18, 27
invertierbare, siehe reguläre
unendlich dimensionaler, 33
Invertierung, 52
Vektorraumhomomorphismus, siehe liMultiplikation, 8, 67
neare Abbildung
Nullraum, 15
Vektorraumisomorphismus, siehe Isoreguläre, 11, 103
morphismus zwischen Vektorskalare Multiplikation, 6
räumen
transponierte, 11, 98
Zeilenraum, 82
Monomorphismus, 58
Multilinearform, 100
alternierende, 100
Nebenklasse, 75–77
Nullabbildung, 55
Nullvektor, 4, 14, 21
Quotientenraum, siehe Faktorraum
Rang
einer linearen Abb., 73–74, 81, 92
einer Matrix, 81–85, 92
rechte Seite, 37
Restklasse, siehe Nebenklasse
Restklassenraum, siehe Faktorraum
Ring
der n × n Matrizen, 8
der Endomorphismen, 89
Skalarprodukt, 11–12
Spaltenraum, 82
Spektrum, 107
Streichungsmatrix, 96
Stufenform, 42–43
Teilraum, 13–18
von einem Vektor erzeugter, 16
von einer Menge erzeugter, 18
Untervektorraum, siehe Teilraum
Vektor, 5
Vektoren
senkrechte, 12
Vektorräume
Addition, 15
isomorphe, siehe auch Isomorphismus zwischen Vektorräumen
Literaturverzeichnis
[1] G.M. Gramlich. Lineare Algebra. Carl Hanser Verlag, 2009.
[2] B. Pareigis. Lineare Algebra für Informatiker. Springer Verlag, 2000.
[3] M. Skutella. Mathematik für Informatiker I und II. Technical report, TU
Dortmund, 2006.
[4] M. Turk, A. Pentland. Eigenfaces for recognition. Journal of Cognitive
Neuroscience, Volume 3 Issue 1, Winter 1991, MIT Press Cambridge, MA,
USA.
123
Herunterladen