Übersicht Kapitel 9 Vektorräume

Werbung
Vektorräume
Definition und Geometrie von Vektoren
Übersicht Kapitel 9
Vektorräume
9.1 Definition und Geometrie von Vektoren
9.2 Teilräume
9.3 Linearkombinationen und Erzeugendensysteme
9.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten
9.5 Basis und Dimension
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
293 / 669
Vektorräume
Definition und Geometrie von Vektoren
Übersicht Kapitel 9
Vektorräume
9.1 Definition und Geometrie von Vektoren
9.2 Teilräume
9.3 Linearkombinationen und Erzeugendensysteme
9.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten
9.5 Basis und Dimension
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
294 / 669
Vektorräume
Definition und Geometrie von Vektoren
Kapitel 9 Vektorräume
9.1 Definition und Geometrie
von Vektoren
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
295 / 669
Vektorräume
Definition und Geometrie von Vektoren
K -Vektorräume
Definition 4.1.1 (K -Vektorraum)
Es sei (K , +, ·) ein Körper.
Ein K -Vektorraum ist eine Menge V zusammen mit Abbildungen
+ : V ×V → V
· : K ×V → V
~ ) 7→ ~v + w
~
(~v , w
(s, ~v ) 7→ s · ~v
(Addition)
(skalare Mult.)
für die die folgenden Regeln gelten:
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
296 / 669
Vektorräume
Definition und Geometrie von Vektoren
K -Vektorräume (Forts.)
Definition 4.1.1 (K -Vektorraum)
(i) (V , +) ist kommutative Gruppe; das neutrale Element der Addition ist
der Nullvektor ~0. Das inverse Element zu ~v wird mit −~v bezeichnet.
(ii) 1 · ~v = ~v für alle ~v ∈ V . (Dabei bezeichnet 1 das Einselement des
Körpers K .)
(iii) (s · s 0 ) · ~v = s · (s 0 · ~v ) für alle s, s 0 ∈ K , ~v ∈ V .
(iv) (s + s 0 ) · ~v = (s · ~v ) + (s 0 · ~v ) für alle s, s 0 ∈ K , ~v ∈ V .
~ ) = (s · ~v ) + (s · w
~ ) für alle s ∈ K , ~v , w
~ ∈ V.
(v) s · (~v + w
Die Elemente von V heißen Vektoren.
Achtung: Die Symbole “+” und “·” werden üblicherweise sowohl für
Addition und Multiplikation im Körper K als auch für Addition und
Skalarmultiplikation für den Vektorraum V verwendet !
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
297 / 669
Vektorräume
Definition und Geometrie von Vektoren
Vektorräume und Module
Bemerkung: Ist (K , +, ·) kein Körper, sondern nur ein Ring mit Eins, so
spricht man statt von einem K -Vektorraum von einem K -Modul.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
298 / 669
Vektorräume
Definition und Geometrie von Vektoren
Vektorräume – Beispiel K n
Eines der wichtigsten Beispiele ist der Vektorraum K n der n-dimensionalen
Spaltenvektoren
 
x1
x2 
 
~x =  . 
 .. 
xn
mit x1 , . . . , xn ∈ K . Addition und Skalarmultiplikation werden hier wie
folgt definiert:
 
 


 


x1
y1
x1 + y1
x1
s · x1
x2 
y2 
x2 + y2 
x2 
 s · x2 
 
 


 


s ·. =  . 
 ..  +  ..  =  ..  ,
.
.
 . 
 .. 
 .. 
xn
Prof. Dr. Bernhard Steffen
yn
xn + yn
Mathematik für Informatiker 1 - 2012
xn
s · xn
299 / 669
Vektorräume
Definition und Geometrie von Vektoren
Vektorräume – Beispiel K n
Beweis: z.z.: K n ist ein Vektorraum
Wiederholung Definition K -Vektorraum
Sei (K , +, ·) ein Körper. Ein K Vektorraum ist eine Menge V zusammen mit Abbildungen
~ ∈ V soll gelten:
Für s, s 0 ∈ K , ~
v, w
(i) (V , +) ist eine kommutative Gruppe.
(ii) 1 · ~
v =~
v
+:V ×V →V
~ ) 7→ ~
~
(~
v, w
v +w
(iii) (s · s 0 ) · ~
v = s · (s 0 · ~
v)
·:K ×V →V
(s, ~
v ) 7→ s · ~
v
(iv) (s + s 0 ) · ~
v = (s · ~
v ) + (s 0 · ~
v)
~ ) = (s · ~
~)
(v) s · (~
v +w
v ) + (s · w
z.z.: (K n , +) ist eine kommutative Gruppe:
~x + ~y = ~y + ~x
 


x1
−x1
 


~x =  ...  ⇒ −~x =  ... 
xn
−xn
(~x + ~y ) + ~z = ~x + (~y + ~z )
~0 = 0 . . . 0 t
Sei ~x ∈ K n .
  
  
x1
1 · x1 1 - 2012 x1
Prof. Dr. Bernhard Steffen
Mathematik
für Informatiker
300 / 669
Vektorräume
Definition und Geometrie von Vektoren
Vektorräume – Beispiele Ebene, Raum
Für K = R und n = 2 kann man sich den Vektorraum R2 als Ebene mit
üblicher Vektoraddition und skalarer Multiplikation vorstellen.
Entsprechend kann man sich den Vektorraum R3 als “normalen”
dreidimensionalen Raum vorstellen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
301 / 669
Vektorräume
Definition und Geometrie von Vektoren
Vektorräume – Beispiele Ebene, Raum (Forts.)
~x + ~y
x2 +y2
~y
y2
3
~
2x
x2
~x
y1
x1
x1 +y1
Figure : Addition und Streckung von Vektoren in der Ebene.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
302 / 669
Vektorräume
Definition und Geometrie von Vektoren
Vektorräume – Beispiel Matrizen
Seien m, n ∈N. Ein Schema der Form

a11 a12 · · ·
a21 a22 · · ·

A=
..

.
an1 an2 · · ·

a1m
a2m 



anm
mit aij ∈ K heißt Matrix, genauer n×m-Matrix über K . n ist dabei die
Anzahl der Zeilen und m die Anzahl der Spalten.
Die Menge aller n × m-Matrizen über K wird mit K n×m bezeichnet.
Eine n×1-Matrix ist nichts anderes als ein n-dimensionaler Spaltenvektor.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
303 / 669
Vektorräume
Definition und Geometrie von Vektoren
Vektorräume – Beispiel Matrizen (Forts.)
Seien A, B ∈ K n×m n×m-Matrizen, A = (aij ), B = (bij ).
Wir definieren eine Verknüpfung (Addition) “+” auf K n×m wie folgt:
A + B := (aij + bij ),
d.h. Matrixelemente auf derselben Position werden addiert.
Weiterhin definieren wir die skalare Multiplikation “·” wie folgt:
Für s ∈ K und A = (aij ) ∈ K n×m sei
s · A := (s · aij ),
d.h. alle Matrixelemente werden mit dem Skalar s multipliziert.
Die Menge K n×m der n × m Matrizen über K ist mit der Matrixaddition
und der Skalarmultiplikation ein K -Vektorraum.
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
304 / 669
Vektorräume
Definition und Geometrie von Vektoren
Vektorräume – Beispiel Funktionenraum
Es sei M eine beliebige Menge und K ein beliebiger Körper.
Dann wird die Menge K M der Abbildungen von M nach K mit der
folgenden Addition und Skalarmultiplikation zu einem Vektorraum:
Für f , g ∈ K M und s ∈ K definieren wir
(f + g )(x) := f (x) + g (x)
(s · f )(x) := s · f (x)
für alle x ∈ M,
für alle x ∈ M.
Der Nullvektor dieses Vektorraums ist die Nullabbildung, d.h. x 7→ 0 für
alle x ∈ M.
Das Inverse zu f ist die Abbildung −f mit −f (x) := −(f (x)).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
♣
305 / 669
Vektorräume
Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorräumen)
Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 für alle ~v ∈ V .
(ii) s · ~0 = ~0 für alle s ∈ K .
(iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
306 / 669
Vektorräume
Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorräumen)
Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 für alle ~v ∈ V .
(ii) s · ~0 = ~0 für alle s ∈ K .
(iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V .
Beweis: (i) Sei ~v ∈ V
0 · ~v = (0 + 0) · ~v
= 0 · ~v + 0 · ~v
⇒ 0 · ~v = ~0
Prof. Dr. Bernhard Steffen
| − 0 · ~v
Mathematik für Informatiker 1 - 2012
307 / 669
Vektorräume
Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorräumen)
Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 für alle ~v ∈ V .
(ii) s · ~0 = ~0 für alle s ∈ K .
(iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V .
Beweis: (ii) Sei s ∈ K .
s · ~0 = s · (~0 + ~0)
= s · ~0 + s · ~0
| − s · ~0
⇒ s · ~0 = ~0
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
308 / 669
Vektorräume
Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorräumen)
Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 für alle ~v ∈ V .
(ii) s · ~0 = ~0 für alle s ∈ K .
(iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V .
Beweis: (iii) Seien s ∈ K und ~v ∈ V .
”‘⇒”’ Sei s · ~v = ~0. z.z.: s = 0 oder ~v = ~0
s=0X
s 6= 0 ⇒ ∃s −1 ∈ K :
~0 = s · ~v
| · s −1
⇔ ~0 = s −1 · (s · ~v ) = (s −1 · s) · ~v
= 1 · ~v = ~v
.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
309 / 669
Vektorräume
Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorräumen)
Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 für alle ~v ∈ V .
(ii) s · ~0 = ~0 für alle s ∈ K .
(iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V .
Beweis: (iii) Seien s ∈ K und ~v ∈ V .
”’⇐”’ Klar wegen (i) und (ii).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
310 / 669
Vektorräume
Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorräumen)
Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 für alle ~v ∈ V .
(ii) s · ~0 = ~0 für alle s ∈ K .
(iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V .
Beweis: (iv) Seien s ∈ K , ~v ∈ V .
z.z.: (−s) · ~v ist das (additive) Inverse zu s · ~v in K .
(−s) · ~v + s · ~v = (−s + s) · ~v
= 0 · ~v
= ~0
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
311 / 669
Vektorräume
Definition und Geometrie von Vektoren
Multiplizieren von Matrizen
Definition 4.1.3 (Matrixmultiplikation)
Es seien l, m, n ∈ N und A = (aik ) ∈ K n×m , B = (bkj ) ∈ K m×l . Dann ist
das Produkt A · B ∈ K n×l wie folgt definiert:
(A · B)ij := ai1 · b1j + ai2 · b2j + · · · + ain · bnj =
m
X
aik · bkj
k=1
Es muss also gelten
Spaltenzahl der linken Matrix = Zeilenzahl der rechten Matrix.
Wenn l = m = n ist, dann lassen sich je zwei Matrizen derselben Art (also
aus K n×n ) miteinander multiplizieren.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
312 / 669
Vektorräume
Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge K n×n der n × n Matrizen über einem Körper K bilden
zusammen mit der oben definierten Addition und Multiplikation einen
nicht-kommutativen Ring mit Einselement


1 0 ··· 0
0 1 · · · 0


En = 
.
..


.
0 0 ···
Prof. Dr. Bernhard Steffen
1
Mathematik für Informatiker 1 - 2012
313 / 669
Vektorräume
Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge K n×n der n × n Matrizen über einem Körper K bilden
zusammen mit der oben definierten Addition und Multiplikation einen
nicht-kommutativen Ring mit Einselement E n .
Beweis:
(K n×n , +) ist eine kommutative Gruppe
die Eigenschaften der Addition von dem Körper K übertragen sich auf
die Addition von Matrizen
das neutrale Element ist die Nullmatrix
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
314 / 669
Vektorräume
Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge K n×n der n × n Matrizen über einem Körper K bilden
zusammen mit der oben definierten Addition und Multiplikation einen
nicht-kommutativen Ring mit Einselement E n .
Beweis:
(K n×n , +) ist eine kommutative Gruppe
Die Matrixmultiplikation ist assoziativ.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
315 / 669
Vektorräume
Definition und Geometrie von Vektoren
Matrizenring
Die Matrixmultiplikation ist assoziativ:
Sei A = (aij ), B = (bij ), C = (cij ) ∈ K n×n .
((A · B) · C )ij =
=
=
n
X
(A · B)ik · ckj
n X
n
X
(
ail · blk ) · ckj
k=1
k=1 l=1
n X
n
X
n X
n
X
ail · blk · ckj =
k=1 l=1
n
X
ail · blk · ckj
l=1 k=1
n
X
ail · (
blk · ckj )=(A · (B · C ))ij
l=1
|k=1 {z
(B·C )lj
Prof. Dr. Bernhard Steffen
=
}
Mathematik für Informatiker 1 - 2012
316 / 669
Vektorräume
Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge K n×n der n × n Matrizen über einem Körper K bilden
zusammen mit der oben definierten Addition und Multiplikation einen
nicht-kommutativen Ring mit Einselement E n .
Beweis:
(K n×n , +) ist eine kommutative Gruppe
Die Matrixmultiplikation ist assoziativ.
Die Matrixmultiplikation ist nicht kommutativ.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
317 / 669
Vektorräume
Definition und Geometrie von Vektoren
Matrizenring
Die Matrixmultiplikation ist nicht kommutativ.
Gegenbeispiel:
2 3
1 2
2·1+3·3
=
4 1
3 4
4·1+1·3
11 16
=
7 12
1 2
2 3
1·2+2·4
=
3·2+4·4
3 4
4 1
10 5
=
22 13
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
2·2+3·4
4·2+1·4
1·3+2·1
3·3+4·1
318 / 669
Vektorräume
Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge K n×n der n × n Matrizen über einem Körper K bilden
zusammen mit der oben definierten Addition und Multiplikation einen
nicht-kommutativen Ring mit Einselement E n .
Beweis:
(K n×n , +) ist eine kommutative Gruppe
Die Matrixmultiplikation ist assoziativ.
Die Matrixmultiplikation ist nicht kommutativ
E n ist das neutrale Element bzgl. der Matrixmultiplikation
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
319 / 669
Vektorräume
Definition und Geometrie von Vektoren
Matrizenring
E n ist das neutrale Element bzgl. der Matrixmultiplikation
Sei A = (aij ) ∈ K n×n .
n
X
A · E = (aik )(ekj ) = (
aik ekj )
n
k=1
= (aij ejj )
= (aij ).
Ebenso zeigt man, dass E n · A = (eik )(akj ) = (aij ) ist.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
320 / 669
Vektorräume
Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge K n×n der n × n Matrizen über einem Körper K bilden
zusammen mit der oben definierten Addition und Multiplikation einen
nicht-kommutativen Ring mit Einselement E n .
Beweis:
(K n×n , +) ist eine kommutative Gruppe
Die Matrixmultiplikation ist assoziativ.
Die Matrixmultiplikation ist nicht kommutativ
E n ist das neutrale Element bzgl. der Matrixmultiplikation
Matrizen sind im Allgemeinen nicht invertierbar (bezgl. der
Matrixmultiplikation). Invertierbare Matrizen in K n×n heißen auch regulär.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
321 / 669
Vektorräume
Definition und Geometrie von Vektoren
Transponierte Matrizen
Manchmal benötigt man Matrizen in einer “umgedrehten” Form, d.h. mit
vertauschten Zeilen und Spalten:




a11 a21 · · · an1
a11 a12 · · · a1m


a21 a22 · · · a2m 
 Transponierung t  a12 a22 · · · an2 

−→
A =
A=


..
..




.
.
a1m a2m · · · anm
an1 an2 · · · anm
At heißt transponierte Matrix von A. Ist A ∈ K n×m , so ist At ∈ K m×n .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
322 / 669
Vektorräume
Definition und Geometrie von Vektoren
Skalarprodukt
(Spalten)Vektoren aus K n sind n × 1-Matrizen:
K n ≡ K n×1 .
Kann man Vektoren miteinander multiplizieren?
Im Prinzip ja, wenn man einen von ihnen transponiert.
 
 
x1
y1
x2 
y2 
 
 
~x =  .  , ~y =  .  .
 .. 
 .. 
Sei
xn
yn
Dann ist
~x • ~y := ~x t · ~y = x1 y1 + . . . + xn yn ∈ K
das Skalarprodukt auf K n .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
323 / 669
Vektorräume
Definition und Geometrie von Vektoren
Skalarprodukt – Beispiele
Beispiele: Betrachte die Vektoren
2
1
u~ =
, ~v =
,
0
1
2
~x =
,
2
0
~y =
.
2
Es ist
u~
~x
u~
~v
Prof. Dr. Bernhard Steffen
•
•
•
•
~v
~y
~y
~x
=
=
=
=
2
4
0
4
Mathematik für Informatiker 1 - 2012
324 / 669
Vektorräume
Definition und Geometrie von Vektoren
Geometrie von Vektoren im Rn
Definition 4.1.5 (Länge von Vektoren)
 
v1
 v2 
 
Die Länge eines Vektors ~v =  .  ∈ Rn ist definiert als
 .. 
vn
| ~v |=
q
v12 + v22 + . . . + vn2 .
Es ist also
| ~v |=
Prof. Dr. Bernhard Steffen
√
~v • ~v .
Mathematik für Informatiker 1 - 2012
325 / 669
Vektorräume
Definition und Geometrie von Vektoren
Geometrie von Vektoren (Forts.)
Seien ~x , ~y ∈ Rn , sei ∠(~x , ~y ) der Winkel zwischen diesen Vektoren.
Man kann zeigen:
Cosinus und Skalarprodukt
~x • ~y =| ~x || ~y | cos ∠(~x , ~y ).
1
| ~a || ~b |
Θ
cos Θ 1
| ~a || ~b | cos Θ
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
326 / 669
Vektorräume
Definition und Geometrie von Vektoren
Skalarprodukt, Cosinus und Ähnlichkeiten
Folgendes Lemma lässt sich leicht beweisen:
Lemma 4.1.6
Seien ~x , ~y ∈ Rn Vektoren.
Stehen ~x , ~y aufeinander senkrecht, so gilt ~x • ~y = 0.
~x • ~y
cos ∠(~x , ~y ) =
.
| ~x || ~y |
Wegen der Beziehung zum Cosinus wird das Skalarprodukt in
Anwendungen (z.B. Information Retrieval, Suchmaschinen) oft als
Ähnlichkeitsmaß verwendet.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
327 / 669
Vektorräume
Definition und Geometrie von Vektoren
Cosinus und Ähnlichkeit – Beispiel
Betrachte die Vektoren
2
u~ =
,
0
Es ist | u~ |= 2, | ~v |=
√
1
~v =
,
1
2
~x =
,
2
0
~y =
.
2
√
2, | ~x |= 2 2, | ~y |= 2.
√1
2
√1
2
u~ • ~v = 2
cos∠(~
u , ~v ) =
~x • ~y = 4
cos∠(~x , ~y ) =
u~ • ~y = 0
~v • ~x = 4
cos∠(~
u , ~y ) = 0
cos∠(~v , ~x ) = 1
orthogonal
vollkommen ähnlich!
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
328 / 669
Vektorräume
Teilräume
Übersicht Kapitel 9 Vektorräume
9.1 Definition und Geometrie von Vektoren
9.2 Teilräume
9.3 Linearkombinationen und Erzeugendensysteme
9.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten
9.5 Basis und Dimension
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
329 / 669
Vektorräume
Teilräume
Kapitel 9 Vektorräume
9.2 Teilräume
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
330 / 669
Vektorräume
Teilräume
Untervektorräume
Definition 4.2.1 (Teilräume, Untervektorräume)
Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum.
Sei U ⊆ V eine Teilmenge von V . U heißt Teilraum oder Untervektorraum
von V , wenn es die folgenden Bedingungen erfüllt:
(i) U 6= ∅,
~ ∈ U =⇒ (~v + w
~ ) ∈ U,
(ii) ~v , w
(iii) s ∈ K , ~v ∈ U =⇒ (s · ~v ) ∈ U.
Satz 4.2.2
Ein Teilraum U eines K -Vektorraumes (V , +, ·) zusammen mit der
Einschränkung der Addition +|U×U und Skalarmultiplikation ·|K ×U auf U
ist selbst wieder ein K -Vektorraum.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
331 / 669
Vektorräume
Teilräume
Untervektorräume
Definition 4.2.1 (Teilräume, Untervektorräume)
Es sei (K , +, ·) ein Körper und (V , +, ·) ein
K -Vektorraum. Sei U ⊆ V , U heißt Teilraum von V , wenn gilt:
(i) U 6= ∅,
~ ∈ U ⇒ (~
~ ) ∈ U,
(ii) ~
v, w
v +w
(iii) s ∈ K , ~
v ∈ U ⇒ (s · ~
v ) ∈ U.
Beweis: Sei U Teilraum eines K -Vektorraumes (V , +, ·).
z.z.: (U, +|U×U , ·|K ×U ) ist ein K -Vektorraum
Wohldefiniertheit:
+|U×U : U × U → U
~ ) 7→ ~v + w
~
(~v , w
·|K ×U : K × U → U
(s, ~v ) 7→ s · ~v
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
X(ii)
X(iii)
332 / 669
Vektorräume
Teilräume
Untervektorräume
Definition 4.2.1 (Teilräume, Untervektorräume)
Es sei (K , +, ·) ein Körper und (V , +, ·) ein
K -Vektorraum. Sei U ⊆ V , U heißt Teilraum von V , wenn gilt:
(i) U 6= ∅,
~ ∈ U ⇒ (~
~ ) ∈ U,
(ii) ~
v, w
v +w
(iii) s ∈ K , ~
v ∈ U ⇒ (s · ~
v ) ∈ U.
Beweis: Sei U Teilraum eines K -Vektorraumes (V , +, ·).
z.z.: (U, +|U×U , ·|K ×U ) ist ein K -Vektorraum
Wohldefiniertheit
(U, +) ist eine kommutative Gruppe
Kommutativität überträgt sich aus V
Assoziativität überträgt sich aus V
neutrales Element:
U 6= ∅ ⇒ ∃~v ∈ U
⇒ 0 · ~v ∈ U
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
333 / 669
Vektorräume
Teilräume
Untervektorräume
Definition 4.2.1 (Teilräume, Untervektorräume)
Es sei (K , +, ·) ein Körper und (V , +, ·) ein
K -Vektorraum. Sei U ⊆ V , U heißt Teilraum von V , wenn gilt:
(i) U 6= ∅,
~ ∈ U ⇒ (~
~ ) ∈ U,
(ii) ~
v, w
v +w
(iii) s ∈ K , ~
v ∈ U ⇒ (s · ~
v ) ∈ U.
Beweis: Sei U Teilraum eines K -Vektorraumes (V , +, ·).
z.z.: (U, +|U×U , ·|K ×U ) ist ein K -Vektorraum
Wohldefiniertheit
(U, +) ist eine kommutative Gruppe
Kommutativität überträgt sich aus V
Assoziativität überträgt sich aus V
neutrales Element ~0 ∈ U
inverse Elemente : Sei ~v ∈ U. Dann gilt:
−~v = −(1 · ~v ) = (−1) · ~v ∈ U
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
334 / 669
Vektorräume
Teilräume
Untervektorräume
Definition 4.2.1 (Teilräume, Untervektorräume)
Es sei (K , +, ·) ein Körper und (V , +, ·) ein
K -Vektorraum. Sei U ⊆ V , U heißt Teilraum von V , wenn gilt:
(i) U 6= ∅,
~ ∈ U ⇒ (~
~ ) ∈ U,
(ii) ~
v, w
v +w
(iii) s ∈ K , ~
v ∈ U ⇒ (s · ~
v ) ∈ U.
Beweis: Sei U Teilraum eines K -Vektorraumes (V , +, ·).
z.z.: (U, +|U×U , ·|K ×U ) ist ein K -Vektorraum
Wohldefiniertheit
(U, +) ist eine kommutative Gruppe
1 · ~v = ~v
(s ·
s 0)
∀~v ∈ V überträgt sich aus V
· ~v = s · (s 0 · ~v ) ∀s, s 0 ∈ K , ~v ∈ V überträgt sich aus V
(s + s 0 ) · ~v = (s · ~v ) + (s 0 · ~v ) ∀s, s 0 ∈ K , ~v ∈ V überträgt sich aus V
~ ) = (s · ~v ) + (s · w
~ ) ∀s ∈ K , ~v , w
~ ∈ V überträgt sich aus V
s · (~v + w
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
335 / 669
Vektorräume
Teilräume
Charakterisierung von Teilräumen
Korollar 4.2.3 (Teilräume und Nullvektor)
Zu jedem Teilraum gehört der Nullvektor ~0.
Beweis: Sei U ein Teilraum.
⇒ U 6= ∅
⇒ ∃~v ∈ U
⇒ 0 · ~v = ~0 ∈ U
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
336 / 669
Vektorräume
Teilräume
Charakterisierung von Teilräumen
Lemma 4.2.4 (Charakterisierung von Teilräumen)
Es sei (V , +, ·) ein K -Vektorraum. Eine nichtleere Teilmenge U ⊆ V ist
genau dann ein Teilraum von V , wenn die folgende Bedingung erfüllt ist:
~ ∈ U ⇒ ((s · ~v ) + w
~ ) ∈ U.
s ∈ K , ~v , w
Beweis: Seien (V , +, ·) ein K -Vektorraum, U ∈ V und U ⊆ ∅.
~ ∈ U.
”‘⇒”’ Sei U ein Teilraum, s ∈ K und ~v , w
⇒ ((s · ~v ) +~
w) ∈ U
| {z }
∈U
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
337 / 669
Vektorräume
Teilräume
Charakterisierung von Teilräumen
Lemma 4.2.4 (Charakterisierung von Teilräumen)
Es sei (V , +, ·) ein K -Vektorraum. Eine nichtleere Teilmenge U ⊆ V ist
genau dann ein Teilraum von V , wenn die folgende Bedingung erfüllt ist:
~ ∈ U ⇒ ((s · ~v ) + w
~ ) ∈ U.
s ∈ K , ~v , w
Beweis: Seien (V , +, ·) ein K -Vektorraum, U ⊆ V und U =
6 ∅.
~ ) ∈ U ∀s ∈ K , ~v , w
~ ∈ U.
”‘⇐”’ Sei U ∈ V , U 6= ∅ mit ((s · ~v ) + w
z.z.: U ist ein Teilraum von V
U 6= ∅ X
~ ∈ U ⇒ (~v + w
~ ) = ((1 · ~v ) + w
~) ∈ U
Sei ~v , w
Sei s ∈ K , ~v ∈ U ⇒ (s · ~v ) = (s · ~v ) + ~0 ∈ U
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
338 / 669
Vektorräume
Teilräume
Untervektorräume - Beispiele Geraden/Ebenen
Beispiel (Geraden im R2 /R3 ): Jede durch den Ursprung verlaufende
Gerade im R2 /R3 ist ein Untervektorraum des (R2 /R3 , +, ·).
♣
Beispiel (Ebenen im R3 ): Alle Ebenen des R3 , die durch den Ursprung
verlaufen, sind Untervektorräume des (R3 , +, ·).
♣
Beispiel (Ebene im R3 ): Es sei M ⊆ R3 die Menge
M = { (x, y , z) ∈ R3 | z = x + y }
M ist ein Untervektorraum des (R3 , +, ·).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
♣
339 / 669
Vektorräume
Teilräume
Untervektorräume - Beispiel
Sei A ∈ K n×m eine n × m-Matrix.
Sei N(A) ⊆ K m die Menge
N(A) = { ~x ∈ K m | A~x = ~0 }.
N(A) ist ein Teilvektorraum von (K m , +, ·).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
340 / 669
Vektorräume
Teilräume
Triviale Untervektorräume
Satz 4.2.5
Jeder Vektorraum V enthält auf jeden Fall die trivialen Untervektorräume
V (also sich selbst) und den Nullvektorraum {~0}.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
341 / 669
Vektorräume
Teilräume
Weitere wichtige Teilräume
Wir diskutieren als nächstes Teilräume, die aus anderen Teilräumen durch
Schnittbildung und Addition entstehen.
Lemma 4.2.6
Es sei (V , +, ·) ein K -Vektorraum und U1 , U2 zwei Teilräume von V . Dann
sind auch
U1 ∩ U2 und
U1 + U2 := {~
u1 + u~2 | u~1 ∈ U1 und u~2 ∈ U2 }
Teilräume von V .
Bemerkung: Ist I eine beliebige Indexmenge
T und ist für alle i ∈ I die
Menge Ui ein Teilraum von V , so ist auch i∈I Ui ein Teilraum von V .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
342 / 669
Vektorräume
Teilräume
Weitere wichtige Teilräume
Beweis: Seien U1 , U2 Teilräume von V .
z.z.: U1 ∩ U2 ist ein Teilraum von V
~0 ∈ U1 ∩ U2 6= ∅
~ ∈ U1 ∩ U2 .
Sei s ∈ K , ~v , w
~ ∈ U1 ∧ ~v , w
~ ∈ U2
⇒ ~v , w
~ ) ∈ U1 ∧ ((s · ~v ) + w
~ ) ∈ U2
⇒ ((s · ~v ) + w
~ ) ∈ U1 ∩ U2
⇒ ((s · ~v ) + w
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
343 / 669
Vektorräume
Teilräume
Weitere wichtige Teilräume
Beweis: Seien U1 , U2 Teilräume von V .
z.z.: U1 ∩ U2 ist ein Teilraum von V X
z.z.: U1 + U2 ist ein Teilraum von V
~0 = ~0 + ~0 ∈ U1 + U2 6= ∅
~ ∈ U1 + U2 .
Sei s ∈ K , ~v , w
~ =w
~1 + w
~ 2 mit ~v1 , w
~ 1 ∈ U1 , ~v2 , w
~ 2 ∈ U2
⇒ ~v = ~v1 + ~v2 , w
~ ) = (s · (v~1 + v~2 )) + (w~1 + w~2 )
⇒ ((s · ~v ) + w
= ((s · v~1 ) + (s · v~2 )) + (w~1 + w~2 )
= ((s · v~1 ) + w~1 ) + ((s · v~2 ) + w~2 )
|
{z
} |
{z
}
∈U1
∈U2
∈ U1 + U2
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
344 / 669
Vektorräume
Teilräume
Erzeugte Teilräume
Es sei V ein K -Vektorraum. Für ~v ∈ V definieren wir
h~v i := {s · ~v | s ∈ K }.
Dann ist h~v i ein Teilraum von V . Man nennt ihn den von ~v erzeugten
Teilraum.
2
2
Beispiel (Geraden
im R ): Im R-Vektorraum R kann man sich den von
x
einem Vektor y 6= ~0 erzeugten Teilraum als die Punkte auf der
eindeutigen Geraden durch den Nullpunkt und den Punkt yx vorstellen.
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
345 / 669
Vektorräume
Teilräume
Erzeugte Teilräume (Forts.)
Sind v~1 und v~2 zwei Vektoren in V , so ist (nach Lemma 4.2.6)
hv~1 i + hv~2 i = {s1 v~1 + s2 v~2 | s1 , s2 ∈ K }
auch ein Teilraum.
Solche Teilräume wollen wir uns im Folgenden näher anschauen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
346 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Übersicht Kapitel 9 Vektorräume
9.1 Definition und Geometrie von Vektoren
9.2 Teilräume
9.3 Linearkombinationen und Erzeugendensysteme
9.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten
9.5 Basis und Dimension
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
347 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Kapitel 9 Vektorräume
9.3 Linearkombinationen und
Erzeugendensysteme
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
348 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Erzeugung von Vektorräumen durch Linearkombinationen
Eine wichtige Rolle im Zusammenhang mit Vektor- und Teilräumen spielen
Linearkombinationen von Vektoren. Das sind neue Vektoren, die durch
Skalarmultiplikation und Vektoraddition aus gegebenen Vektoren
entstehen.
Wir hatten gerade gesehen, dass solche Linearkombinationen bei der
Erzeugung von Teilräumen auftreten. Mit Hilfe von Linearkombinationen
kann man einen Teilraum also “von innen heraus” erzeugen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
349 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Linearkombinationen und Erzeugnisse
Definition 4.3.1 (Linearkombinationen , Erzeugnisse)
Es sei (V , +, ·) ein K -Vektorraum mit Vektoren ~v1 , . . . , ~vn ∈ V .
Dann heißt der Vektor ~v ∈ V eine Linearkombinationen der Vektoren
{~v1 , . . . , ~vn }, wenn es s1 , . . . , sn ∈ K gibt mit
~v = s1 · ~v1 + · · · + sn · ~vn .
Ist M ⊆ V eine Teilmenge von V , so definieren wir das Erzeugnis von M
als
( n
)
X
hMi :=
si · ~vi n ∈ N, si ∈ K und ~vi ∈ M für i = 1, . . . , n ,
i=1
wobei der leeren Summe der Nullvektor entspricht:
X
= ~0
∅
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
350 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Erzeugte Teilräume
Lemma 4.3.2
Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V eine beliebige Teilmenge
von V . Dann ist das Erzeugnis hMi von M ein Teilraum von V .
Beweis: Sei (V , +, ·) ein K -Vektorraum und sei M ⊆ V .
P
~0 =
6 ∅.
∅ ∈ hMi ⇒ hMi =
~ ∈ hMi ⇒ ∃~v1 , . . . ~vn , w
~1 . . . w
~ n ∈ M, n, m ∈ N:
Seien s ∈ K , ~v , w
~v = s1 · ~v1 + · · · + sn · ~vn ,
~ = t1 · w
~ 1 + · · · + tn · w
~ n,
w
Daraus folgt:
~ = s · (s1 · ~v1 + · · · + sn · ~vn ) + t1 · w
~ 1 + · · · + tn · w
~n
s · ~v + w
~ 1 + · · · + tn · w
~n
= (s · s1 )~v1 + · · · + (s · sn )~vn + t1 · w
∈< M >
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
351 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Erzeugte Teilräume
hMi heißt auch der von M erzeugte Teilraum von V . Die Menge M heißt
Erzeugendensystem von hMi.
Lemma 4.3.3
hMi ist der kleinste Teilraum (bezüglich Mengeninklusion) von V , der M
enthält.
Beweis: Sei M ⊆ V , U ein Teilraum von V mit M ⊆ U.
z.z.: hMi ⊆ U
Sei ~v ∈ hMi ⇒ ~v = s1 · ~v1 + · · · + sn · ~vn
für einige ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K
⇒ ~v1 , . . . , ~vn ∈ U, da M ⊆ U
⇒ ~v ∈ U
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
352 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Erzeugte Teilräume
hMi heißt auch der von M erzeugte Teilraum von V . Die Menge M heißt
Erzeugendensystem von hMi.
Lemma 4.3.3
hMi ist der kleinste Teilraum (bezüglich Mengeninklusion) von V , der M
enthält.
Demnach macht es Sinn, als Erzeugnis der leeren Menge den trivialen
Teilraum von V , der nur aus dem Nullvektor besteht, zu definieren, also
h∅i := {~0}.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
353 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Endliche Erzeugendensysteme
Definition 4.3.4 (Endlich erzeugten (Unter)Vektorraum)
Es sei (V , +, ·) ein K -Vektorraum und U ⊆ V ein Untervektorraum.
Gibt es eine endliche Menge M ⊆ V , also M = {~v1 , . . . ~vn } mit n ∈ N, so
dass U = hMi, so sagen wir, dass U endlich erzeugt ist. Wir schreiben
auch
hMi = h{~v1 , . . . , ~vn }i = h~v1 , . . . , ~vn i
( n
)
X
=
si · ~vi si ∈ K für i = 1, . . . , n
i=1
Die Schreibweise
h~v i = {s · ~v | s ∈ K }
für ~v ∈ V haben wir schon am Ende des letzten Unterabschnittes
verwendet.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
354 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Beispiel – erzeugter Teilraum in R2
Es sei V = R2 und
1
−1
1
M=
,
,
.
1
1
0
Dann ist
hMi = R2 ,
denn ein beliebiger Vektor yx ∈ R2 kann wie folgt als Linearkombination
der Elemente von M geschrieben werden:
x
1
−1
1
=x·
+ (y − x) ·
+ (y − x) ·
.
y
1
1
0
n 1o
Damit ist 11 , −1
also ein Erzeugendensystem des Vektorraums
1 , 0
R2 und R2 ist folglich endlich erzeugt.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
355 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Beispiel – erzeugter Teilraum in R2 (Forts.)
Bereits die Teilmenge
R2 ,
n 1
1
,
da ein beliebiger Vektor
o
1
0
x
y
von M ist ein Erzeugendensystem von
∈ R2 geschrieben werden kann als
x
1
1
=y·
+ (x − y ) ·
y
1
0
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
356 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Beispiel – K n und Einheitsvektoren
Wir betrachten den K -Vektorraum K n . Für i = 1, . . . , n sei e~i der Vektor,
dessen i-ter Eintrag 1 ist und alle anderen Einträge 0, d.h.
 
0
 .. 
.
 
0
 

e~i = 
1 ← i
0
 
 .. 
.
0
Prof. Dr. Bernhard Steffen
(
1
(~
ei )j =
0
Mathematik für Informatiker 1 - 2012
falls j = i,
sonst.
357 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Beispiel – K n und Einheitsvektoren (Forts.)
Der Vektor e~i heißt i-ter Einheitsvektor. Dann ist {~
e1 , . . . , e~n } ein
Erzeugendensystem von K n , also K n = h~
e1 , . . . , e~n i, denn
 
x1
 .. 
für alle x1 , . . . , xn ∈ K .
 .  = x1 · e~1 + · · · + xn · e~n
xn
Folglich ist der Vektorraum K n endlich erzeugt.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
♣
358 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Idee der Vektorraumbasis
Idee der Basis: Mit Hilfe von Erzeugendensysteme lassen sich
(Unter)Vektorräume leicht kompakt repräsentieren, sie enthalten offenbar
alle wichtigen Informationen über den Vektorraum.
Wie kann man diese Art der Repräsentation von Vektorräumen optimieren?
Minimalität: Kein Vektor in dem optimalen Erzeugendensystem ist
überflüssig.
Unabhängigkeit: Die Vektoren im optimalen Erzeugendensystem sind
(irgendwie) unabhängig voneinander.
Eindeutigkeit: Jeder Vektor des erzeugten Vektorraumes hat genau
eine Darstellung als Linearkombination der Vektoren des
Erzeugendensystems.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
359 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Vektorraumbasis
Definition 4.3.5 (Basis)
Es sei (V , +, ·) ein K -Vektorraum.
Eine Teilmenge M ⊆ V heißt Basis von V , wenn sich jedes ~v ∈ V
eindeutig als Linearkombination von paarweise verschiedenen Vektoren aus
M schreiben lässt.
Außerdem definieren wir, dass die leere Menge ∅ eine Basis des trivialen
K -Vektorraums {~0} ist.
Insbesondere ist jede Basis von V auch ein Erzeugendensystem von V .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
360 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Endliche Basen
Zunächst einmal charakterisieren wir endliche Basen, die für viele Beispiele
und Anwendungen wichtig sind:
Satz 4.3.6
Es sei (V , +, ·) ein K -Vektorraum. Die endliche Teilmenge
{~v1 , . . . , ~vn } ⊆ V
ist Basis von V genau dann, wenn ~v1 , . . . , ~vn paarweise verschieden sind
und es zu jedem u~ ∈ V genau ein n-Tupel (x1 , . . . , xn ) ∈ K n gibt mit
u~ = x1 · ~v1 + · + xn · ~vn
Beispiel (Einheitsvektoren im K n ): Die Menge der Einheitsvektoren
{~
e1 , . . . , e~n } ist eine Basis des K -Vektorraums K n .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
♣
361 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Endliche Basen
Definition 4.3.5 (Basis)
Sei (V , +, ·) ein K -Vektorraum. M ⊆ V heißt Basis von V
:⇔ jedes ~
v ∈ V sich eindeutig als Linearkombination von paarw. verschiedenen Vektoren
aus M schreiben lässt.
Beweis: Sei (V , +, ·) ein K -Vektorraum.
z.z.: {~v1 , . . . , ~vn } ⊆ V ist Basis von V ⇔
(i) ~v1 , . . . , ~vn sind paarweise verschieden
(ii) zu jedem u~ ∈ V existiert genau ein (x1 , . . . , xn ) ∈ K n mit
u~ = x1 · ~v1 + · + xn · ~vn
”‘⇒”’ Sei {~v1 , . . . , ~vn } eine Basis von V.
(i) Ann.: ~vi = ~vj , für 1 ≤ i 6= j ≤ n ⇒ ~vi = 1 · ~vi = 1 · ~vj
(ii) Sei u~ ∈ V . ⇒ u~ lässt sich eindeutig als Linearkombination von
{~v1 , . . . , ~vn } schreiben X
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
362 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Endliche Basen
Definition 4.3.5 (Basis)
Sei (V , +, ·) ein K -Vektorraum. M ⊆ V heißt Basis von V
:⇔ jedes ~
v ∈ V sich eindeutig als Linearkombination von paarw. verschiedenen Vektoren
aus M schreiben lässt.
Beweis: Sei (V , +, ·) ein K -Vektorraum.
z.z.: {~v1 , . . . , ~vn } ⊆ V ist Basis von V ⇔
(i) ~v1 , . . . , ~vn sind paarweise verschieden
(ii) zu jedem u~ ∈ V existiert genau ein (x1 , . . . , xn ) ∈ K n mit
u~ = x1 · ~v1 + · + xn · ~vn
”‘⇐”’ Folgt aus der Definition.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
363 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Vektorraumbasis – Beispiele
Negatives
Beispiel 1: Wie wir weitern oben beobachtet
haben, gilt
D 1E
−1 1o
1
−1
1
2
= R . Die Menge 1 , 1 , 0 ist jedoch keine Basis
1 , 1 , 0
von R2 , denn
−1
1
−1
1
= 0·
+ 1·
+ 0·
1
1
1
0
und andererseits
1
−1
1
−1
= 1·
+ 0·
− 2·
1
1
1
0
♣
Negatives Beispiel 2: Der Nullvektor ~0 kann nie Element einer Basis sein,
denn
0 · ~0 = 1 · ~0 = ~0 ,
so dass also die Koeffizienten der Darstellung nicht eindeutig sind.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
♣
364 / 669
Vektorräume
Linearkombinationen und Erzeugendensysteme
Vektorraumbasis – Beispiele
Beispiel: Die Menge
n 1
1
,
o
1
0
ist Basis von R2 , denn für
x
y
∈ R2 gilt
x
1
1
= y·
+ (x − y ) ·
.
y
1
0
Gilt auch
x
1
1
= a·
+ b·
y
1
0
für a, b ∈ R, so muss x = a + b und y = a gelten. Daraus folgt aber a = y
und b = x − y , so dass die Koeffizienten also eindeutig sind.
♣
Beispiel (Rn ): Der R-Vektorraum R2 hat unendlich viele Basen: Zum
Beispiel ist die Menge {~
e1 , c · e~2 } für alle c ∈ R\{0} eine Basis von R2 . ♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
365 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Übersicht Kapitel 9 Vektorräume
9.1 Definition und Geometrie von Vektoren
9.2 Teilräume
9.3 Linearkombinationen und Erzeugendensysteme
9.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten
9.5 Basis und Dimension
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
366 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Kapitel 9 Vektorräume
9.4 Lineare Abhängigkeiten und lineare
Unabhängigkeiten
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
367 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Lineare Unabhängigkeit
Bei der Idee eines optimalen Erzeugendensystems (also einer Basis) sollte
auch die Idee der Unabhängigkeit umgesetzt werden. Das wollen wir nun
konkretisieren.
Definition 4.4.1 (Lineare Unabhängigkeit)
Es sei (V , +, ·) ein K -Vektorraum.
Eine Teilmenge
M⊆
D
E V heißt linear unabhängig, wenn für jedes ~v ∈ M
~
gilt, dass M \ {v } 6= hMi.
Die Teilmenge M heißt linear abhängig, wenn M nicht linear unabhängig
ist, das heißt
M ist linear abhängig
Prof. Dr. Bernhard Steffen
⇐⇒
∃~v ∈ M : hM \ {~v }i = hMi.
Mathematik für Informatiker 1 - 2012
368 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Lineare Unabhängigkeit – Beispiele
Beispiel: Die leere Menge ∅ ist linear unabhängig.
♣
Beispiel: Ist ~0 ∈ M, so ist M linear abhängig, da hM \ {~0}i = hMi.
♣
n o
1
Beispiel: Die Menge 11 , −1
ist linear abhängig, weil hMi = R2
1 , 0
D
n oE
aber auch schon M \ −1
= R2 .
♣
1
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
369 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein einfaches Lemma
Lemma 4.4.2
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind
äquivalent:
(i) M ist linear abhängig.
(ii) Es gibt ein ~v ∈ M mit ~v ∈ hM \ {~v }i.
Das Lemma sagt also aus, dass es in einer linear abhängigen Teilmenge M
ein Element gibt, das als Linearkombination der anderen Elemente aus M
geschrieben werden kann.
In einer linear abhängigen Menge gibt es also “überflüssige” Elemente.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
370 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein einfaches Lemma
Lemma 4.4.2
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind
äquivalent:
(i) M ist linear abhängig.
(ii) Es gibt ein ~v ∈ M mit ~v ∈ hM \ {~v }i.
Beweis: (i) ⇒ (ii) Sei M ⊆ V eine linear abhängige Teilmenge von V .
⇒ ∃~v ∈ M mit hM \ {~v }i = hMi
⇒ ~v ∈ M ⊆ hMi = hM \ {~v }i.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
371 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein einfaches Lemma
Lemma 4.4.3
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind
äquivalent:
(i) M ist linear abhängig.
(ii) Es gibt ein ~v ∈ M mit ~v ∈ hM \ {~v }i.
Beweis: (ii) ⇒ (i) Sei ~v ∈ M mit ~v ∈ hM \ {~v }i. Dann ist
~v =
n
X
si · ~vi
für si ∈ K , ~vi ∈ M \ {~v }
i=1
z.z.: hM \ {~v }i = hMi
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
372 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein einfaches Lemma
Beweis: (ii) ⇒ (i) Sei ~
v ∈ M mit ~
v ∈ hM \ {~
v }i. Dann ist
~
v=
n
X
si · ~
vi
für si ∈ K , ~
vi ∈ M \ {~
v}
i=1
z.z.: hM \ {~
v }i = hMi
”‘⊆”’ M \ {~v } ⊆ M ⇒ hM \ {~v }i ⊆ hMi
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
373 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein einfaches Lemma
Beweis: (ii) ⇒ (i) Sei ~
v ∈ M mit ~
v ∈ hM \ {~
v }i. Dann ist
~
v=
n
X
si · ~
vi
für si ∈ K , ~
vi ∈ M \ {~
v}
i=1
z.z.: hM \ {~
v }i = hMi
~ ∈ hMi. z.z.: w
~ ∈ hM \ {~v }i
”‘⊇”’ Sei w
~ =
w
m
X
~j
tj · w
~j ∈ M
für tj ∈ K , w
j=1
~ j ∀1 ≤ j ≤ m ⇒ w
~ ∈ hM \ {~v }i
1. Fall: ~v 6= w
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
374 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein einfaches Lemma
Beweis: (ii) ⇒ (i) Sei ~
v ∈ M mit ~
v ∈ hM \ {~
v }i. Dann ist
~
v=
n
X
si · ~
vi
für si ∈ K , ~
vi ∈ M \ {~
v}
i=1
z.z.: hM \ {~
v }i = hMi
~ ∈ hMi. z.z.: w
~ ∈ hM \ {~v }i
”‘⊇”’ Sei w
~ =
w
m
X
~ j für tj ∈ K , w
~j ∈ M
tj · w
j=1
~ j für ein j, o.B.d.A. ~v = w
~ 1 . Dann gilt:
2. Fall: ~v = w
~ = t1 · ~v +
w
m
X
n
m
X
X
~j
~ j = t1 (
si · ~vi ) +
tj · w
tj · w
i=1
j=2
=
n
X
i=1
Prof. Dr. Bernhard Steffen
(t1 · si ) · ~vi +
m
X
j=2
~ j ∈ hM \ {~v }i
tj · w
j=2
Mathematik für Informatiker 1 - 2012
375 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Lineare Abhängigkeit – Beispiel
Es sei V = R3 und
       
1
0
0 
 1







1 , 0 , 1 , 0 .
M :=


0
0
0
1
Dann ist M linear abhängig, da
  *     +
1
0
0
1
1 ∈ 0 , 1 , 0 .
0
0
0
1
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
376 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Lineare Abhängigkeit – Beispiel (Forts.)
Es gilt auch
  *     +
1
1
0
0
0 ∈ 1 , 1 , 0
0
0
0
1
und
  *     +
0
1
1
0
1 ∈ 1 , 0 , 0 .
0
0
0
1
Man beachte jedoch, dass
  *     +
0
1
1
0
0 ∈





1 , 0 , 1 .
/
1
0
0
0
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
377 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Folgerung Lineare Abhängigkeit
Welche Folgerung können wir aus dem letzten Beispiel ziehen?
Bemerkung: Bei einer linear abhängigen Menge M muss nicht jedes
Element ~v ∈ M in dem von den übrigen erzeugten Teilraum liegen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
378 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein wichtiges Lemma
Lemma 4.4.4
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind
äquivalent:
(i) M ist linear abhängig.
(ii) Es gibt paarweise verschiedene Vektoren ~v1 , . . . , ~vn ∈ M mit
zugehörigen Skalaren s1 , . . . , sn ∈ K , die nicht alle Null sind, mit
s1 · ~v1 + · · · + sn · ~vn = ~0.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
379 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein wichtiges Lemma
Lemma 4.4.4
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent:
(i) M ist linear abhängig.
(ii) Es gibt paarweise verschiedene Vektoren ~
v1 , . . . , ~
vn ∈ M mit zugehörigen Skalaren
s1 , . . . , sn ∈ K , die nicht alle Null sind, mit
s1 · ~
v1 + · · · + sn · ~
vn = ~0.
Beweis: (i) ⇒ (ii) Sei M linear abhängig. ⇒ ∃~v1 ∈ M : ~v1 ∈ hM \ {~v1 }i
1. Fall: M \ {~v1 } = ∅.
n o
⇒ ~v1 ∈ h∅i = ~0
⇒ ~v1 = ~0, s1 := 1 ∈ K
⇒ s1 · ~v1 = 1 · ~0 = ~0
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
380 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein wichtiges Lemma
Lemma 4.4.4
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent:
(i) M ist linear abhängig.
(ii) Es gibt paarweise verschiedene Vektoren ~
v1 , . . . , ~
vn ∈ M mit zugehörigen Skalaren
s1 , . . . , sn ∈ K , die nicht alle Null sind, mit
s1 · ~
v1 + · · · + sn · ~
vn = ~0.
Beweis: (i) ⇒ (ii) Sei M linear abhängig. ⇒ ∃~v1 ∈ M : ~v1 ∈ hM \ {~v1 }i
6 ∅.
2. Fall: M \ {~v1 } =
⇒ ∃ paarw. verschiedene ~v2 , . . . , ~vn ∈ hM \ {~v1 }i und s2 , . . . , sn ∈ K :
~v1 = s2 · ~v2 + · · · + sn · ~vn
⇔ ~0 = −~v1 + s2 · ~v2 + · · · + sn · ~vn
mit s1 = −1 6= 0.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
381 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein wichtiges Lemma
Lemma 4.4.4
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent:
(i) M ist linear abhängig.
(ii) Es gibt paarweise verschiedene Vektoren ~
v1 , . . . , ~
vn ∈ M mit zugehörigen Skalaren
s1 , . . . , sn ∈ K , die nicht alle Null sind, mit
s1 · ~
v1 + · · · + sn · ~
vn = ~0.
Beweis: (ii) ⇒ (i) Seien ~v1 , . . . , ~vn ∈ M paarweise verschieden und
s1 , . . . , sn ∈ K , mit s1 · ~v1 + · · · + sn · ~vn = ~0. Mindestens ein si ist 6= 0, sei
dies o.B.d.A. s1 . Dann ist
| · s −1
s1 · ~v1 = −s2 · ~v2 − · · · − sn · ~vn
⇔
~v1 = −s1−1 (s2 · ~v2 ) − · · · − s1−1 (sn · ~vn )
= −(s1−1 s2 ) · ~v2 − · · · − (s1−1 sn ) · ~vn
⇒
~v1 ∈ h~v2 , . . . , ~vn i ⊆ hM \ {~v1 }i
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
.
382 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein wichtiges Korollar
Als unmittelbare Folgerung aus Lemma 9.4.4 erhalten wir das nächste
Korollar.
Korollar 4.4.5
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind
äquivalent:
(i) M ist linear unabhängig.
(ii) Für beliebige paarweise verschiedene Vektoren ~v1 , . . . , ~vn ∈ M und
beliebige Skalare s1 , . . . , sn ∈ K , gilt:
s1 · ~v1 + · · · + sn · ~vn = ~0
=⇒
s1 = · · · = sn = 0.
Bemerkung: Die Implikation in Teil (ii) des obigen Korollars ist eigentlich
eine Äquivalenz.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
383 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein wichtiges Korollar
Lemma 4.4.4
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent:
(i) M ist linear abhängig. =: A
(ii) ∃ paarweise verschiedene Vektoren ~
v1 , . . . , ~
vn ∈ M mit s1 , . . . , sn ∈ K :
s1 · ~
v1 + · · · + sn · ~
vn = ~0 ∧ ¬(s1 = · · · = sn = 0).=: B
Korollar 4.4.5
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent:
(i) M ist linear unabhängig. z.z.: = ¬A
(ii) ∀ paarweise verschiedene Vektoren ~
v1 , . . . , ~
vn ∈ M und s1 , . . . , sn ∈ K , gilt:
s1 · ~
v1 + · · · + sn · ~
vn = ~0
=⇒
s1 = · · · = sn = 0. z.z.: = ¬B
Beweis: Es gilt: (A ⇔ B) ⇔ (¬A ⇔ ¬B).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
384 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein wichtiges Korollar
Korollar 4.4.5
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent:
(i) M ist linear unabhängig. z.z.: = ¬A X
(ii) ∀ paarweise verschiedene Vektoren ~
v1 , . . . , ~
vn ∈ M und s1 , . . . , sn ∈ K , gilt:
s1 · ~
v1 + · · · + sn · ~
vn = ~0
=⇒
s1 = · · · = sn = 0. z.z.: = ¬B
Beweis: Sei V ein K -Vektorraum und M ⊆ V .
A := M ist linear abhängig
B := ∃ paarw. verschiedene ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K
s1 · ~v1 + · · · + sn · ~vn = ~0 ∧ ¬(s1 = · · · = sn = 0)
¬B ≡ ∀ paarw. verschiedene ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K
¬(s1 · ~v1 + · · · + sn · ~vn = ~0 ∧ ¬(s1 = · · · = sn = 0))
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
385 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Ein wichtiges Korollar
Korollar 4.4.5
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent:
(i) M ist linear unabhängig. z.z.: = ¬A X
(ii) ∀ paarweise verschiedene Vektoren ~
v1 , . . . , ~
vn ∈ M und s1 , . . . , sn ∈ K , gilt:
s1 · ~
v1 + · · · + sn · ~
vn = ~0
=⇒
s1 = · · · = sn = 0. z.z.: = ¬BX
Beweis:
¬B ≡∀ paarw. verschiedene ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K :
¬(s1 · ~v1 + · · · + sn · ~vn = ~0 ∧ ¬(s1 = · · · = sn = 0))
≡∀ paarw. verschiedene ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K :
¬(s1 · ~v1 + · · · + sn · ~vn = ~0) ∨ s1 = · · · = sn = 0
≡∀ paarw. verschiedene ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K :
s1 · ~v1 + · · · + sn · ~vn = ~0 ⇒ s1 = · · · = sn = 0
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
386 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Teilmengen linear unabhängiger Mengen
Ein Korollar zum Korollar . . .
Korollar 4.4.6
Teilmengen linear unabhängiger Mengen sind selbst wieder linear
unabhängig sind.
Gilt dieses Korollar auch für linear abhängige Mengen ?
Nein! Gegenbeispiel?
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
387 / 669
Vektorräume
Lineare Abhängigkeiten und lineare Unabhängigkeiten
Lineare Abhängigkeit - Beispiel
Es sei V = R3 und
     
1
1 
 1
M = 1 , 2 , 3


1
3
5
Um festzustellen, ob M linear abhängig ist, müssen wir nach Lemma 9.4.4
überprüfen, ob es Skalare x1 , x2 , x3 ∈ R gibt mit (x1 , x2 , x3 ) 6= (0, 0, 0), so
dass
 
 
 
 
1
1
1
0
x1 · 1 + x2 · 2 + x3 · 3 = 0
1
3
5
0
gilt.
Dies ist z.B. für (x1 , x2 , x3 ) = (1, −2, 1) der Fall.
Also ist M linear abhängig.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
388 / 669
Vektorräume
Basen
Übersicht Kapitel 10 Vektorräume
10.1 Definition und Geometrie von Vektoren
10.2 Teilräume
10.3 Linearkombinationen und Erzeugendensysteme
10.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten
10.5 Basis und Dimension
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
389 / 669
Vektorräume
Basen
Kapitel 10 Vektorräume
10.5 Basis und Dimension
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
390 / 669
Vektorräume
Basen
Charakterisierung von Basen - Vorüberlegungen
Wir bringen nun die Begriffe “Vektorraumbasis” und “lineare
Unabhängigkeit” zusammen und verbinden diese außerdem mit dem
Begriff der “Minimalität”.
Wir werden auch sehen, dass eine Vektorraumbasis optimal ist in Bezug
auf “maximale Ausschöpfung”.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
391 / 669
Vektorräume
Basen
Charakterisierung von Basen
Satz 4.5.1 (Charakterisierung von Basen)
Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden
Aussagen äquivalent:
(i) M ist Basis von V .
(ii) M ist linear unabhängiges Erzeugendensystem von V .
(iii) M ist inklusionsminimales Erzeugendensystem von V , d.h.
hMi = V
und
hM \ {~
u }i =
6 V für alle u~ ∈ M.
(iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V ,
d.h. M ist linear unabhängig, aber M ∪ {~v } ist für jedes ~v ∈ V \ M
linear abhängig.
Beweis: Mittels Ringschluss: (i) ⇒ (ii) ⇒ (iii) ⇒ (iv ) ⇒ (i)
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
392 / 669
Vektorräume
Basen
Charakterisierung von Basen
Satz 4.5.1 (Charakterisierung von Basen)
Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagen
äquivalent:
(i) M ist Basis von V .
(ii) M ist linear unabhängiges Erzeugendensystem von V .
(iii) M ist inklusionsminimales Erzeugendensystem von V , d.h.
hMi = V
und
hM \ {~
u }i 6= V für alle u~ ∈ M.
(iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V , d.h. M ist
linear unabhängig, aber M ∪ {~
v } ist für jedes ~
v ∈ V \ M linear abhängig.
Beweis: (i) ⇒ (ii) Sei M eine Basis von V .
z.z.: M ist linear unabhängiges Erzeugendensystem von V
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
393 / 669
Vektorräume
Basen
Charakterisierung von Basen
Beweis: (i) ⇒ (ii) Sei M eine Basis von V .
z.z.: M ist linear unabhängiges Erzeugendensystem von V
Jedes ~v ∈ V lässt sich eindeutig als Linearkombination von paarw.
verschiedenen Vektoren aus M schreiben. (Defn Basis)
⇒ M ist Erzeugendensystem von V
z.z.: M ist linear unabhängig
Seien ~v1 , . . . , ~vn ∈ M, paarweise verschieden, mit s1 , . . . , sn ∈ K , so dass
s1 · ~v1 + · · · + sn · ~vn = ~0 = 0 · ~v1 + · · · + 0 · ~vn .
Wegen der Eindeutigkeit der Darstellung ist dann s1 = · · · = sn = 0.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
394 / 669
Vektorräume
Basen
Charakterisierung von Basen
Satz 4.5.1 (Charakterisierung von Basen)
Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagen
äquivalent:
(i) M ist Basis von V .
(ii) M ist linear unabhängiges Erzeugendensystem von V .
(iii) M ist inklusionsminimales Erzeugendensystem von V , d.h.
hMi = V
und
hM \ {~
u }i 6= V für alle u~ ∈ M.
(iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V , d.h. M ist
linear unabhängig, aber M ∪ {~
v } ist für jedes ~
v ∈ V \ M linear abhängig.
Beweis: (ii) ⇒ (iii) Sei M ein linear unabhängiges Erzeugendensystem
von V .
z.z.: hMi = V und hM \ {~
u }i =
6 V für alle u~ ∈ M.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
395 / 669
Vektorräume
Basen
Charakterisierung von Basen
Beweis: (ii) ⇒ (iii) Sei M ein linear unabhängiges Erzeugendensystem
von V .
z.z.: hMi = V und hM \ {~
u }i =
6 V für alle u~ ∈ M.
M ist Erzeugendensystem ⇒ hMi = V
M ist linear unabhängig ⇒ ∀~
u ∈ M : hM \ u~i =
6 hMi= V
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
396 / 669
Vektorräume
Basen
Charakterisierung von Basen
Satz 4.5.1 (Charakterisierung von Basen)
Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagen
äquivalent:
(i) M ist Basis von V .
(ii) M ist linear unabhängiges Erzeugendensystem von V .
(iii) M ist inklusionsminimales Erzeugendensystem von V , d.h.
hMi = V
und
hM \ {~
u }i 6= V für alle u~ ∈ M.
(iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V , d.h. M ist
linear unabhängig, aber M ∪ {~
v } ist für jedes ~
v ∈ V \ M linear abhängig.
Beweis: (iii) ⇒ (iv ) Sei hMi = V und hM \ {~
u }i =
6 V für alle u~ ∈ M
⇒ M ist linear unabhängig
z.z.: M ∪ {~v } ist für alle ~v ∈ V \ M linear abhängig.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
397 / 669
Vektorräume
Basen
Charakterisierung von Basen
Beweis: (iii) ⇒ (iv ) Sei hMi = V und hM \ {~
u }i =
6 V für alle u~ ∈ M
⇒ M ist linear unabhängig
z.z.: M ∪ {~v } ist für alle ~v ∈ V \ M linear abhängig.
Sei ~v ∈ V \ M. Dann ist
V = hMi ⊆ hM ∪ {~v }i ⊆ V
Damit gilt
hM ∪ {~v }i = V und h(M ∪ {~v }) \ ~v i = hMi = V
und damit ist M ∪ {~v } linear abhängig.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
398 / 669
Vektorräume
Basen
Charakterisierung von Basen
Satz 4.5.1 (Charakterisierung von Basen)
Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagen
äquivalent:
(i) M ist Basis von V .
(ii) M ist linear unabhängiges Erzeugendensystem von V .
(iii) M ist inklusionsminimales Erzeugendensystem von V , d.h.
hMi = V
und
hM \ {~
u }i 6= V für alle u~ ∈ M.
(iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V , d.h. M ist
linear unabhängig, aber M ∪ {~
v } ist für jedes ~
v ∈ V \ M linear abhängig.
Beweis: (iv ) ⇒ (i) Sei M inklusionsmaximale linear unabhängige
Teilmenge von V.
z.z.: Jedes ~v ∈ V lässt sich eindeutig als Linearkombination von Vektoren
aus M schreiben
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
399 / 669
Vektorräume
Basen
Charakterisierung von Basen
Beweis: (iv ) ⇒ (i) Sei M inklusionsmaximale linear unabhängige
Teilmenge von V.
z.z.: Jedes ~v ∈ V lässt sich eindeutig als Linearkombination von Vektoren
aus M schreiben
hMi = V
~v ∈ M X
~v ∈
/ M ⇒ M ∪ {v } ist linear abhängig
Also gibt es ~v1 , . . . , ~vn ∈ M und s, s1 , . . . , sn ∈ K , nicht alle gleich 0:
s · ~v + s1 · ~v1 + · · · + sn ~vn = ~0.
Da M linear unabhängig ist, muss s 6= 0 sein. Also gilt
−s · ~v = s1 · ~v1 + · · · + sn · ~vn
⇒
Prof. Dr. Bernhard Steffen
~v = (−s)−1 s1 · ~v1 + · · · + (−s)−1 sn · ~vn
Mathematik für Informatiker 1 - 2012
400 / 669
Vektorräume
Basen
Charakterisierung von Basen
Beweis: (iv ) ⇒ (i) Sei M inklusionsmaximale linear unabhängige
Teilmenge von V.
z.z.: Jedes ~v ∈ V lässt sich eindeutig als Linearkombination von Vektoren
aus M schreiben
hMi = V
Eindeutigkeit: Sei ~v ∈ V .
~ 1, . . . , w
~m ∈ M
Ann.: ∃s1 , . . . , sn , t1 , . . . , tm ∈ K , ~v1 , . . . , ~vn , w
~v = s1 ~v1 + · · · + sn ~vn
~ 1 + · · · + tm w
~m
= t1 w
Dann ist für ein q ≤ n + m
~ 1, . . . , w
~ m } = {~
{~v1 , . . . , ~vn , w
u1 , . . . , u~q } ⊆ M
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
401 / 669
Vektorräume
Basen
Charakterisierung von Basen
Eindeutigkeit: Sei ~v ∈ V .
~ 1, . . . , w
~m ∈ M
Ann.: ∃s1 , . . . , sn , t1 , . . . , tm ∈ K , ~v1 , . . . , ~vn , w
~v = s1 ~v1 + · · · + sn ~vn
~m
~ 1 + · · · + tm w
= t1 w
Dann ist für ein q ≤ n + m
~ 1, . . . , w
~ m } = {~
{~v1 , . . . , ~vn , w
u1 , . . . , u~q } ⊆ M
0 ∈ K gilt dann:
Für bestimmte s10 , . . . , sn0 , t10 , . . . , tm
~v = s10 u~1 + · · · + sq0 u~q
~v = t10 u~1 + · · · + tq0 u~q
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
402 / 669
Vektorräume
Basen
Charakterisierung von Basen
Eindeutigkeit: Sei ~v ∈ V .
~ 1, . . . , w
~m ∈ M
Ann.: ∃s1 , . . . , sn , t1 , . . . , tm ∈ K , ~v1 , . . . , ~vn , w
~v = s1 ~v1 + · · · + sn ~vn
~ 1 + · · · + tm w
~m
= t1 w
Dann ist für ein q ≤ n + m
~ 1, . . . , w
~ m } = {~
{~v1 , . . . , ~vn , w
u1 , . . . , u~q } ⊆ M
0 ∈ K gilt dann:
Für bestimmte s10 , . . . , sn0 , t10 , . . . , tm
~v = s10 u~1 + · · · + sq0 u~q
− ~v = t10 u~1 + · · · + tq0 u~q
~0 = (s10 − t10 )~
u1 + · · · + (sq0 − tq0 )~
uq
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
403 / 669
Vektorräume
Basen
Charakterisierung von Basen
Beweis: (iv ) ⇒ (i) Sei M inklusionsmaximale linear unabhängige
Teilmenge von V.
z.z.: Jedes ~v ∈ V lässt sich eindeutig als Linearkombination von Vektoren
aus M schreiben
hMi = V
Eindeutigkeit: Sei ~v ∈ V .
0 ∈ K gilt dann:
Für bestimmte s10 , . . . , sn0 , t10 , . . . , tm
~0 = (s10 − t10 )~
u1 + · · · + (sq0 − tq0 )~
uq
Da {~
u1 , . . . , u~q } ⊆ M und M linear unabhängig ist, gilt si0 = ti0 für alle
i, 1 ≤ i ≤ q.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
404 / 669
Vektorräume
Basen
Endliche Erzeugendensysteme und Basen
Wir haben bislang nur an speziellen Beispielen gesehen, dass Basen von
Vektorräumen tatsächlich existieren können. Der folgende Satz belegt,
dass das kein Zufall ist.
Satz 4.5.2 (Existenz von Basen)
Jeder endlich erzeugte K -Vektorraum besitzt eine Basis.
Beweis: Sei M ein endliches Erzeugendensystem von V . Solange es
(rekursiv) einen Vektor ~v ∈ M gibt, so dass hM \ ~v i = hV i ist, entferne
diesen. Da M endlich ist, sind wir in endlich vielen Schritten fertig und
erhalten ein inklusionsminimales Erzeugendensystem von V , also eine
Basis.
Korollar 4.5.3
Jedes endliche Erzeugendensystem eines Vektorraums enthält eine Basis.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
405 / 669
Vektorräume
Basen
Konstruktion von Basen
Wir wenden uns jetzt dem Problem zu, für einen endlich erzeugten
Vektorraum aus einem Erzeugendensystem eine Basis zu konstruieren. Das
Verfahren beruht auf dem folgenden Lemma.
Lemma 4.5.4
Es sei V ein K -Vektorraum und ~v1 , . . . , ~vn ∈ V .
(i) Für i 6= j und s ∈ K gilt
h~v1 , . . . , ~vj , . . . , ~vn i = h~v1 , . . . , ~vj + s~vi , . . . , ~vn i.
(ii) Für i ∈ {1, . . . , n} und t ∈ K \{0} gilt
h~v1 , . . . , ~vi , . . . , ~vn i = h~v1 , . . . , t~vi , . . . , ~vn i
(iii) h~v1 , . . . , ~vn i = h~v1 , . . . , ~vn , ~0i.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
406 / 669
Vektorräume
Basen
Konstruktion von Basen
Lemma 4.5.4
Es sei V ein K -Vektorraum und ~
v1 , . . . , ~
vn ∈ V .
(i) Für i 6= j und s ∈ K gilt
h~
v1 , . . . , ~
vj , . . . , ~
vn i = h~
v1 , . . . , ~
vj + s~
vi , . . . , ~
vn i.
(ii) Für i ∈ {1, . . . , n} und t ∈ K \{0} gilt
h~
v1 , . . . , ~
vi , . . . , ~
vn i = h~
v1 , . . . , t~
vi , . . . , ~
vn i
(iii) h~
v1 , . . . , ~
vn i = h~
v1 , . . . , ~
vn , ~0i.
Beweis: (i) Sei s ∈ K .
”‘⊆”’
~vj = (~vj + s~vi ) − s~vi ∈ h~v1 , . . . , ~vj + s~vi , . . . , ~vn i
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
407 / 669
Vektorräume
Basen
Konstruktion von Basen
Lemma 4.5.4
Es sei V ein K -Vektorraum und ~
v1 , . . . , ~
vn ∈ V .
(i) Für i 6= j und s ∈ K gilt
h~
v1 , . . . , ~
vj , . . . , ~
vn i = h~
v1 , . . . , ~
vj + s~
vi , . . . , ~
vn i.
(ii) Für i ∈ {1, . . . , n} und t ∈ K \{0} gilt
h~
v1 , . . . , ~
vi , . . . , ~
vn i = h~
v1 , . . . , t~
vi , . . . , ~
vn i
(iii) h~
v1 , . . . , ~
vn i = h~
v1 , . . . , ~
vn , ~0i.
Beweis: (i) Sei s ∈ K .
”‘⊇”’
~vj + s~vi ∈ h~v1 , . . . , ~vj , . . . , ~vn i
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
408 / 669
Vektorräume
Basen
Konstruktion von Basen
Lemma 4.5.4
Es sei V ein K -Vektorraum und ~
v1 , . . . , ~
vn ∈ V .
(i) Für i 6= j und s ∈ K gilt
h~
v1 , . . . , ~
vj , . . . , ~
vn i = h~
v1 , . . . , ~
vj + s~
vi , . . . , ~
vn i.
(ii) Für i ∈ {1, . . . , n} und t ∈ K \{0} gilt
h~
v1 , . . . , ~
vi , . . . , ~
vn i = h~
v1 , . . . , t~
vi , . . . , ~
vn i
(iii) h~
v1 , . . . , ~
vn i = h~
v1 , . . . , ~
vn , ~0i.
Beweis: (ii) Sei t ∈ K \ {0}.
”‘⊆”’
~vi = t −1 · t~vi
”‘⊇”’ X
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
409 / 669
Vektorräume
Basen
Konstruktion von Basen
Lemma 4.5.4
Es sei V ein K -Vektorraum und ~
v1 , . . . , ~
vn ∈ V .
(i) Für i 6= j und s ∈ K gilt
h~
v1 , . . . , ~
vj , . . . , ~
vn i = h~
v1 , . . . , ~
vj + s~
vi , . . . , ~
vn i.
(ii) Für i ∈ {1, . . . , n} und t ∈ K \{0} gilt
h~
v1 , . . . , ~
vi , . . . , ~
vn i = h~
v1 , . . . , t~
vi , . . . , ~
vn i
(iii) h~
v1 , . . . , ~
vn i = h~
v1 , . . . , ~
vn , ~0i.
Beweis: (iii)
”‘⊆”’ X
”‘⊇”’
~0 = 0 · ~v1 ∈ h~v1 , . . . , ~vn i
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
410 / 669
Vektorräume
Basen
Konstruktion von Basen – Vorgehensweise
Wir wenden Lemma 4.5.4 an, um Erzeugendensysteme so zu modifizieren,
dass linear abhängige Teile auf Nullvektoren reduziert werden, so dass die
Basisvektoren (als Nicht-Nullvektoren) direkt abgelesen werden können.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
411 / 669
Vektorräume
Basen
Konstruktionen von Basen - Beispiel
Es sei K = R und
*
V :=
 
 
 +
1
1
1
v~1 = 1 , v~2 = 3 , v~3 =  6  .
1
5
11
Wegen Lemma 4.5.4 ist dann
V
= h~v1 , ~v2 − ~v1 , ~v3 i
= h~v1 , ~v2 − ~v1 , ~v3 − ~v1 i
 
 
* 1
+
0
0
0
0
0
~
~
~
1 =: v , 2 =: v ,  5  =: v
=
1
2
3
1
4
10
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
412 / 669
Vektorräume
Basen
Konstruktionen von Basen - Beispiel
Wir halten jetzt v~10 fest und machen mit v~20 , v~30 nach Lemma 4.5.4 weiter:
1 ~0 ~0 5 ~0
0
~
V = v1 , v2 , v3 − v2
2
2
* 1 0 0 +
= 1 , 1 , 0
1
2
0
* 1 0 +
=
1 , 1
1
2
(wegen Lemma 4.5.4 (iii))
Da die letzten beiden Vektoren linear unabhängig sind, bilden sie also eine
Basis von V .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
413 / 669
Vektorräume
Basen
Basisergänzung – Vorüberlegungen
Vektorraumbasen haben zwei charakteristische Eigenschaften:
sie sind linear unabhängig, und
sie bilden ein Erzeugendensystem.
Wir haben oben gezeigt, dass man mit Hilfe von Lemma 4.5.4 aus jedem
endlichen Erzeugendensystem eines Vektorraums V eine Basis von V
erhalten kann.
Der folgende Satz stellt die umgekehrte Vorgehensweise zur Findung einer
Basis dar – linear unabhängige Teilmengen lassen sich zur Basis ergänzen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
414 / 669
Vektorräume
Basen
Basisergänzung
Satz 4.5.5 (Basisergänzungssatz)
Es sei V ein endlich erzeugter K -Vektorraum mit endlichem
Erzeugendensystem E ⊆ V , also V = hE i. Weiterhin sei M ⊆ V linear
unabhängig. Dann gibt es eine Teilmenge E 0 ⊆ E , so dass M ∪ E 0 eine
Basis von V ist.
Beweis: Seien V = hE i, E endlich und M ⊆ V linear unabhängig.
Sei E 0 ⊆ E eine inklusionsminimale Menge mit hE 0 ∪ Mi = V , also
h(E 0 \ {~v }) ∪ Mi =
6 V für alle ~v ∈ E 0
z.z.: E 0 ∪ M ist eine Basis von V
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
415 / 669
Vektorräume
Basen
Basisergänzung
Beweis: Seien V = hE i, E endlich und M ⊆ V linear unabhängig.
Sei E 0 ⊆ E eine inklusionsminimale Menge mit hE 0 ∪ Mi = V , also
h(E 0 \ {~v }) ∪ Mi =
6 V für alle ~v ∈ E 0
z.z.: E 0 ∪ M ist eine Basis von V
Erzeugendensystem X
~ 1, . . . , w
~n ∈ M :
Lineare Unabhängigkeit: Seien ~v1 , . . . , ~vm ∈ E 0 , w
~ 1 + · · · + tn w
~ n = ~0.
s1 ~v1 + · · · + sm ~vm + t1 w
z.z.: s1 = · · · = sm = t1 = · · · = tn = 0
Ann.: si 6= 0 für ein i, o.B.d.A s1 6= 0
⇒
~v1 = − (s1−1 s2 )~v2 − · · · − (s1−1 sm )~vm
w1 − · · · − (s1−1 tn )~
wn
− (s1−1 t1 )~
∈hE 0 \ {~v1 } ∪ Mi
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
416 / 669
Vektorräume
Basen
Basisergänzung
Beweis: Seien V = hE i, E endlich und M ⊆ V linear unabhängig.
Sei E 0 ⊆ E eine inklusionsminimale Menge mit hE 0 ∪ Mi = V , also
h(E 0 \ {~v }) ∪ Mi =
6 V für alle ~v ∈ E 0
z.z.: E 0 ∪ M ist eine Basis von V
Erzeugendensystem X
~ 1, . . . , w
~n ∈ M :
Lineare Unabhängigkeit: Seien ~v1 , . . . , ~vm ∈ E 0 , w
~ 1 + · · · + tn w
~ n = ~0.
s1 ~v1 + · · · + sm ~vm + t1 w
z.z.: t1 = · · · = tn = 0
~ 1 + · · · + tn w
~ n = ~0
⇒ t1 w
⇒ t1 = . . . tn = 0
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
417 / 669
Vektorräume
Basen
Beispiel zu Satz 4.5.5
Wir betrachten das Erzeugendensystem
1 0
0 1
0 0
0 0
E :=
,
,
,
0 0
0 0
1 0
0 1
des R-Vektorraums R2×2 (Raum der reellen 2 × 2-Matrizen). Die Menge
1 0
0 1
M :=
,
0 1
1 0
ist linear unabhängig. Wir kombinieren nun





1 0
0 1
1
,
,
B :=
0 1
1 0
0



{z
}
|
M
M mit E und bilden die Menge





0
0 1
,
,
0
0 0 



die M und Teile von E enthält. B ist eine Basis von R2×2 .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
418 / 669
Vektorräume
Basen
Beispiel zu Satz 4.5.5 (Forts.)
Man beachte jedoch, dass die Menge
1 0
0 1
1 0
0 0
0
B :=
,
,
,
0 1
1 0
0 0
0 1
zwar M enthält, aber keine Basis von R2×2 ist, da diese Menge linear
abhängig ist (der erste Vektor ist die Summe der beiden letzten Vektoren).
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
419 / 669
Vektorräume
Basen
Basen als Schlüsselinformation für Vektorräume
Wir fassen noch einmal die Ergebnisse bisher zusammen:
Korollar 4.5.6
1 Jeder Vektorraum besitzt eine Basis.
2
In jedem Erzeugendensystem eines Vektorraumes ist eine Basis
enthalten.
3
Jede linear unabhängige Menge lässt sich zu einer Basis ergänzen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
420 / 669
Vektorräume
Basen
Basen als Schlüsselinformation für Vektorräume (Forts.)
Das folgende Korollar verdeutlicht noch einmal die Optimalität von Basen:
Korollar 4.5.7
Die folgenden Aussagen für eine Teilmenge B eines Vektorraumes V sind
äquivalent:
1
B ist eine Basis von V .
2
B ist eine minimale Erzeugendenmenge.
3
B ist eine maximal linear unabhängige Menge.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
421 / 669
Vektorräume
Basen
Was ist die Dimension eines Vektorraumes?
Wir haben gesehen, dass
Basen als minimale Erzeugendensysteme optimale (und platzsparende)
Darstellungen der Information in einem Vektorraum sind.
Wir wollen nun diese Minimalität zahlenmäßig erfassen:
Wie “groß” ist eine Basis?
Ziel des Folgenden ist es zu zeigen, dass
alle Basen eines Vektorraums dieselbe Kardinalität besitzen, die dann
die Dimension des Vektorraums genannt wird.
Dazu müssen wir unsere vorherigen Überlegungen noch stärker präzisieren.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
422 / 669
Vektorräume
Basen
Der Austauschsatz von Steinitz
Satz 4.5.8 (Austauschsatz von Steinitz)
Es sei V ein K -Vektorraum und {~v1 , . . . , ~vn } Basis von V . Ferner sei I
eine beliebige Indexmenge und {~
ui | i ∈ I } eine weitere Basis von V . Dann
gibt es zu jedem i ∈ {1, . . . , n} ein ji ∈ I , so dass
{~v1 , . . . , ~vi−1 , u~ji , ~vi+1 , . . . , ~vn }
eine Basis von V ist.
D.h., jedes Element einer Basis lässt sich durch ein geeignetes Element
einer anderen Basis ersetzen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
423 / 669
Vektorräume
Basen
Der Austauschsatz von Steinitz
Satz 4.5.8 (Austauschsatz von Steinitz)
Es sei V ein K -Vektorraum und {~
v1 , . . . , ~
vn } Basis von V . Ferner sei I eine beliebige
Indexmenge und {~
ui | i ∈ I } eine weitere Basis von V . Dann gibt es zu jedem
i ∈ {1, . . . , n} ein ji ∈ I , so dass
{~
v1 , . . . , ~
vi−1 , u~ji , ~
vi+1 , . . . , ~
vn }
eine Basis von V ist.
Beweis: Seien B = {~v1 , . . . , ~vn } und {~
ui |i ∈ I } Basen von V .
Sei i ∈ {1, . . . , n} und Ḃ = B \ {~
vi }. Dann gilt
hḂi = h{~v1 , . . . .~vi−1 , ~vi+1 . . . . , ~vn }i ( V = h{~
ui |i ∈ I }i
⇒ es gibt ein ji ∈ I mit u~ji ∈
/ hḂi
z.z.: B 0 = (B \ {~
vi }) ∪ u~ji = {~v1 , . . . , ~vi−1 , u~ji , ~vi+1 , . . . , ~vn }
ist eine Basis von V
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
424 / 669
Vektorräume
Basen
Der Austauschsatz von Steinitz
Beweis: Seien B = {~v1 , . . . , ~vn } und {~
ui |i ∈ I } Basen von V .
Sei i ∈ {1, . . . , n} und Ḃ = B \ {~
vi }. Dann gilt
hḂi = h{~v1 , . . . .~vi−1 , ~vi+1 . . . . , ~vn }i ( V = h{~
ui |i ∈ I }i
⇒ es gibt ein ji ∈ I mit u~ji ∈
/ hḂi
z.z.: B 0 = (B \ {~
vi }) ∪ u~ji = {~v1 , . . . , ~vi−1 , u~ji , ~vi+1 , . . . , ~vn }
ist eine Basis von V
Lineare Unabhängigkeit: Seien s1 , . . . , si−1 , si+1 , . . . , sn , t ∈ K mit
s1 ~v1 + · · · + si−1 ~vi−1 + t u~ji + si+1 ~vi+1 + · · · + sn ~vn = ~0
u~ji ∈
/ h~v1 , . . . , ~vi−1 , ~vi+1 , . . . , ~vn i ⇒ t = 0
{~v1 , . . . , ~vi−1 , ~vi+1 , . . . , ~vn } sind linear unabhängig
⇒ s1 = · · · = si−1 = si+1 = sn = 0
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
425 / 669
Vektorräume
Basen
Der Austauschsatz von Steinitz
Beweis: Seien B = {~v1 , . . . , ~vn } und {~
ui |i ∈ I } Basen von V .
Sei i ∈ {1, . . . , n} und Ḃ = B \ {~
vi }. Dann gilt
hḂi = h{~v1 , . . . .~vi−1 , ~vi+1 . . . . , ~vn }i ( V = h{~
ui |i ∈ I }i
⇒ es gibt ein ji ∈ I mit u~ji ∈
/ hḂi
z.z.: B 0 = (B \ {~
vi }) ∪ u~ji = {~v1 , . . . , ~vi−1 , u~ji , ~vi+1 , . . . , ~vn }
ist eine Basis von V
Lineare Unabhängigkeit X
Erzeugendensystem: Basisergänzungssatz ⇒ ∃E 0 ⊆ B, so dass
B 0 ∪ E 0 eine Basis von V ist.
1. Fall: ~vi ∈
/ E 0 : ⇒ B 0 ∪ E 0 = B 0 ist eine Basis von V .
2. Fall: ~vi ∈ E 0 : ⇒ B 0 ∪ E 0 = B ∪ {~
uji } ist eine Basis von V .
B ist inklusionsmaximal linear unabhängig ⇒ u~ji ∈ {~v1 , . . . , ~vn }
(insbesondere u~ji = ~vi ), d.h. B 0 = B.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
426 / 669
Vektorräume
Basen
“Größe” einer Vektorraumbasis
Der folgende Satz enthält das wichtigste Resultat zum Begriff der
Dimension:
Satz 4.5.9
Es sei V ein K -Vektorraum und B = {~v1 , . . . , ~vn } eine Basis von V mit n
paarweise verschiedenen Elementen, d.h. |B| = n. Dann gilt:
(i) Ist B 0 eine beliebige Basis von V , so ist |B 0 | = n.
(ii) Ist M ⊆ V linear unabhängig, so ist |M| ≤ n.
(iii) Ist M ⊆ V linear unabhängig und |M| = n, so ist M Basis von V .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
427 / 669
Vektorräume
Basen
“Größe” einer Vektorraumbasis
Satz 4.5.9
Es sei V ein K -Vektorraum und B = {~v1 , . . . , ~vn } eine Basis von V mit n
paarweise verschiedenen Elementen, d.h. |B| = n. Dann gilt:
(i) Ist B 0 eine beliebige Basis von V , so ist |B 0 | = n.
(ii) Ist M ⊆ V linear unabhängig, so ist |M| ≤ n.
(iii) Ist M ⊆ V linear unabhängig und |M| = n, so ist M Basis von V .
Beweis: Sei B = {~vj1 , . . . , ~vn } eine Basis von V , |B| = n.
(i) Sei B 0 eine beliebige Basis von V . z.z.: |B 0 | = n
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
428 / 669
Vektorräume
Basen
“Größe” einer Vektorraumbasis
Beweis: Sei B = {~vj1 , . . . , ~vn } eine Basis von V , |B| = n.
(i) Sei B 0 eine beliebige Basis von V . z.z.: |B 0 | = n
Nach dem Austauschsatz von Steinitz folgt:
zu ~v1 ∈ B ∃~
uj1 ∈ B 0 : {~
uj , ~v2 , . . . , ~vn } ist eine Basis von V .
| 1 {z
}
=:B1
0
zu ~v2 ∈ B1 ∃~
uj2 ∈ B : {~
uj , u~j , ~v3 , . . . , ~vn } ist eine Basis von V .
| 1 2 {z
}
=:B2
..
.
zu ~vn ∈ Bn−1 ∃~
ujn ∈ B 0 : {~
uj , . . . , u~j } ist eine Basis von V .
| 1 {z n }
=:Bn
Bn ⊆ B 0 und B 0 ist inklusionsminimal (bzgl. Erzeugendensystem)
⇒ Bn = B 0 und damit |B 0 | = n.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
429 / 669
Vektorräume
Basen
“Größe” einer Vektorraumbasis
Satz 4.5.9
Es sei V ein K -Vektorraum und B = {~v1 , . . . , ~vn } eine Basis von V mit n
paarweise verschiedenen Elementen, d.h. |B| = n. Dann gilt:
(i) Ist B 0 eine beliebige Basis von V , so ist |B 0 | = n.
(ii) Ist M ⊆ V linear unabhängig, so ist |M| ≤ n.
(iii) Ist M ⊆ V linear unabhängig und |M| = n, so ist M Basis von V .
Beweis: Sei B = {~vj1 , . . . , ~vn } eine Basis von V , |B| = n.
(ii) Sei M ⊆ V linear unabhängig. Nach dem Basisergänzungssatz kann
man M zu einer Basis B 0 ergänzen. Damit folgt
(i)
|M| ≤ B 0 = n.
(iii) Argumentation wie im Beweis zu (ii).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
430 / 669
Vektorräume
Basen
Der Begriff der Dimension
Definition 4.5.10 (Dimension eines Vektorraums)
Wenn der Vektorraum V eine endliche Basis besitzt, so wird die Anzahl n
der Vektoren der Basis die Dimension von V genannt: dimV = n.
Besitzt ein Vektorraum V keine endliche Basis, so ist seine Dimension
unendlich, also dimV = ∞. Man sagt auch, dass V unendlich dimensional
ist.
Bemerkung: Es folgt aus Korollar 4.5.3, dass jeder endlich erzeugte
Vektorraum auch endlich dimensional ist.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
431 / 669
Vektorräume
Basen
Beispiele zur Dimension
Beispiel (K n ): Die Dimension des K -Vektorraums K n ist n, da
beispielsweise die Menge der Einheitsvektoren {~
e1 , . . . , e~n } eine Basis von
K n bildet.
♣
Beispiel (im R3 ): Es sei K = R und
*1 1  1 +
V := 1 , 3 ,  6  .
1
5
11
Wie weiter oben
1
1
schon gezeigt wurde, ist
* 1 0 +
V = 1 , 1
mit dim V = 2.
1
2
♣
s. Beispiel zur Konstruktion von Basen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
432 / 669
Vektorräume
Basen
Beispiele zur Dimension (Forts.)
Beispiel (Matrizen): Die Dimension des K -Vektorraums aller m × n
Matrizen K m×n ist m · n. Eine Basis von K m×n ist die Menge
{Eij | 1 ≤ i ≤ m und 1 ≤ j ≤ n},
wobei Eij die m × n Matrix bezeichnet, deren Eintrag in der i-ten Zeile und
j-ten Spalte eine Eins ist und die sonst nur Null-Einträge hat.
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
433 / 669
Vektorräume
Basen
Dimension von Teilräumen
Korollar 4.5.11
Ist V ein endlich dimensionaler K -Vektorraum und U ein Teilraum von V ,
dann ist auch U endlich dimensional, und es gilt
dim U ≤ dim V .
Ist dim U = dim V , so ist U = V .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
434 / 669
Vektorräume
Basen
Dimensionsformel für Teilräume
Satz 4.5.12 (Dimensionsformel für Teilräume)
Es sei V ein endlich dimensionaler K -Vektorraum und U1 , U2 seien
Teilräume von V . Dann ist
dim U1 + dim U2 = dim (U1 + U2 ) + dim (U1 ∩ U2 ).
Beweis: Sei V ein endlich dimensionaler K -Vektorraum, und seien U1 , U2
Teilräume von V . ⇒ U1 und U2 sind endlich dimensional.
z.z.: dim U1 + dim U2 = dim (U1 + U2 ) + dim (U1 ∩ U2 ).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
435 / 669
Vektorräume
Basen
Dimensionsformel für Teilräume
Beweis: Sei V ein endlich dimensionaler K -Vektorraum, und seien U1 , U2
Teilräume von V . ⇒ U1 und U2 sind endlich dimensional.
z.z.: dim U1 + dim U2 = dim (U1 + U2 ) + dim (U1 ∩ U2 ).
Sei B = {~
u1 , . . . , u~d } eine Basis von U1 ∩ U2 . (dim U1 ∩ U2 = d)
B lässt sich zu Basen B1 von U1 bzw. B2 von U2 erweitern:
B1 = {~
u1 , . . . , u~d , ~v1 , . . . , ~vm } ⇒ dim U1 = d + m
~ 1, . . . , w
~ n } ⇒ dim U2 = d + n
B2 = {~
u1 , . . . , u~d , w
⇒ dim U1 + dim U2 = d + m + d + n
= dim(U1 ∩ U2 ) + m + n + d.
z.z.: dim(U1 + U2 ) = m + n + d
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
436 / 669
Vektorräume
Basen
Dimensionsformel für Teilräume
Beweis: Für zwei Teilräume U1 , U2 eines K -Vektorraums V gelte
B = {~
u1 , . . . , u~d } eine Basis von U1 ∩ U2 ,
B1 = {~
u1 , . . . , u~d , ~v1 , . . . , ~vm } eine Basis von U1 ,
~ 1, . . . , w
~ n } eine Basis von U2 .
B2 = {~
u1 , . . . , u~d , w
z.z.: dim(U1 + U2 ) = m + n + d
Wir zeigen:
~ 1, . . . , w
~ n}
C = {~
u1 , . . . , u~d , ~v1 , . . . , ~vm , w
ist eine Basis von U1 + U2 . Da die Elemente von C paarweise verschieden
sind, folgt dann
dim U1 + U2 = |C | = d + m + n.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
437 / 669
Vektorräume
Basen
Dimensionsformel für Teilräume
Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V .
B1 Basis von U1
z
}|
{
~ 1, . . . , w
~ n } ist Basis von U1 + U2 .
z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w
| {z }
B Basis von U1 ∩U2
|
{z
B2 Basis von U2
}
hC i = U1 + U2 , d.h. C erzeugt U1 + U2 :
⊆ X, da da jedes Element aus C in U1 oder U2 liegt.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
438 / 669
Vektorräume
Basen
Dimensionsformel für Teilräume
Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V .
B1 Basis von U1
z
}|
{
~ 1, . . . , w
~ n } ist Basis von U1 + U2 .
z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w
| {z }
B Basis von U1 ∩U2
|
{z
}
B2 Basis von U2
hC i = U1 + U2 , d.h. C erzeugt U1 + U2 :
⊇ Sei ~x ∈ U1 + U2 ⇒ ~x = ~x1 + ~x2 , mit ~x1 ∈ U1 , ~x2 ∈ U2 .
⇒ ~x1 =
d
X
si u~i +
i=1
⇒ ~x1 + ~x2 =
d
X
i=1
m
X
rj ~vj ,
~x2 =
j=1
(si +
si0 )~
ui
d
X
si0 u~i
i=1
+
m
X
rj ~vj +
j=1
n
X
+
m
X
tk ~vj
k=1
~k
tk w
k=1
∈ hC i
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
439 / 669
Vektorräume
Basen
Dimensionsformel für Teilräume
Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V .
B1 Basis von U1
z
}|
{
~ 1, . . . , w
~ n } ist Basis von U1 + U2 .
z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w
| {z }
B Basis von U1 ∩U2
|
{z
}
B2 Basis von U2
hC i = U1 + U2 , d.h. C erzeugt U1 + U2
C ist linear unabhängig. Seien si , rj , tk ∈ K mit
d
X
si u~i +
~k = −
tk w
|k=1{z }
∈U2
Prof. Dr. Bernhard Steffen
rj ~vj +
j=1
i=1
n
X
m
X
d
X
n
X
si u~i −
i=1
|
~ k = ~0
tk w
k=1
m
X
rj ~vj ∈ U1 ∩ U2
j=1
{z
∈U1
Mathematik für Informatiker 1 - 2012
}
440 / 669
Vektorräume
Basen
Dimensionsformel für Teilräume
Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V .
B1 Basis von U1
z
}|
{
~ 1, . . . , w
~ n } ist Basis von U1 + U2 .
z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w
| {z }
B Basis von U1 ∩U2
|
{z
}
B2 Basis von U2
hC i = U1 + U2 , d.h. C erzeugt U1 + U2
C ist linear unabhängig. Seien si , rj , tk ∈ K mit
n
X
~k = −
tk w
| {z }
|
n
X
d
X
∈U2
k=1
Prof. Dr. Bernhard Steffen
si u~i −
i=1
k=1
⇒ ∃si0 ∈ K :
d
X
~k =
tk w
i=1
m
X
rj ~vj ∈ U1 ∩ U2
j=1
{z
}
∈U1
si0 u~i ⇔
n
X
k=1
Mathematik für Informatiker 1 - 2012
~k −
tk w
d
X
si0 u~i = ~0
i=1
441 / 669
Vektorräume
Basen
Dimensionsformel für Teilräume
Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V .
B1 Basis von U1
z
}|
{
~ 1, . . . , w
~ n } ist Basis von U1 + U2 .
z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w
| {z }
B Basis von U1 ∩U2
|
{z
}
B2 Basis von U2
hC i = U1 + U2 , d.h. C erzeugt U1 + U2 :
C ist linear unabhängig. Seien si , rj , tk ∈ K mit
n
X
~k = −
tk w
| {z }
|
n
X
d
X
∈U2
k=1
Prof. Dr. Bernhard Steffen
si u~i −
i=1
k=1
⇒ ∃si0 ∈ K :
d
X
~k −
tk w
m
X
rj ~vj ∈ U1 ∩ U2
j=1
{z
∈U1
}
si0 u~i = ~0 ⇒ si0 = tk = 0
i=1
Mathematik für Informatiker 1 - 2012
442 / 669
Vektorräume
Basen
Dimensionsformel für Teilräume
Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V .
B1 Basis von U1
z
}|
{
~ 1, . . . , w
~ n } ist Basis von U1 + U2 .
z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w
| {z }
B Basis von U1 ∩U2
|
{z
}
B2 Basis von U2
hC i = U1 + U2 , d.h. C erzeugt U1 + U2 :
C ist linear unabhängig. Seien si , rj , tk ∈ K mit
n
X
~k = −
tk w
| {z }
|
n
X
d
X
=~0
k=1
Prof. Dr. Bernhard Steffen
si u~i −
i=1
k=1
⇒ ∃si0 ∈ K :
d
X
~k −
tk w
m
X
rj ~vj ∈ U1 ∩ U2
j=1
{z
∈U1
}
si0 u~i = ~0 ⇒ si0 = tk = 0 = rj = si
i=1
Mathematik für Informatiker 1 - 2012
443 / 669
Vektorräume
Basen
Beispiel – Dimensionsformel für Teilräume
Es sei V ein dreidimensionaler K -Vektorraum, und U1 6= U2 seien zwei
verschiedene Teilräume von V mit dim U1 = dim U2 = 2.
Dann muss
dim (U1 ∩ U2 ) = 1
gelten, denn:
Für dim (U1 + U2 ) kommen nur 2 oder 3 in Betracht.
Wäre dim (U1 + U2 ) = 2 = dim Ui , i = 1, 2, dann wäre
U1 = U1 + U2 = U2 . im Widerspruch zur Voraussetzung U1 6= U2 . Also
muss dim (U1 + U2 ) = 3 sein. Mit der Dimensionsformel folgt die
Behauptung.
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
444 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Definitionen und Beispiele
Übersicht Kapitel 10
Lineare Gleichungssysteme und Invertieren von Matrizen
10.1 Definitionen und Beispiele
10.2 Das Gauß’sche Eliminationsverfahren
10.3 Invertieren von Matrizen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
445 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Definitionen und Beispiele
Übersicht Kapitel 10
Lineare Gleichungssysteme und Invertieren von Matrizen
10.1 Definitionen und Beispiele
10.2 Das Gauß’sche Eliminationsverfahren
10.3 Invertieren von Matrizen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
446 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Definitionen und Beispiele
Kapitel 10
Lineare Gleichungssysteme und Invertieren von Matrizen
10.1 Definitionen und Beispiele
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
447 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Definitionen und Beispiele
Lineare Gleichungssysteme
Es sei im Folgenden immer (K , +, ·) ein Körper (z.B. Q, R, C, Z2 , Z3 . . . ),
d.h., man kann “normal rechnen”.
Definition 5.1.1 (Lineares Gleichungssystem)
Ein lineares Gleichungssystem mit n Gleichungen und m Variablen hat die
Form:
a1,1 x1 + a1,2 x2 + · · ·
a2,1 x1 + a2,2 x2 + · · ·
..
.
+ a1,m xm = b1
+ a2,m xm = b2
an,1 x1 + an,2 x2 + · · ·
+ an,m xm = bn
(5.1)
Die aij heißen Koeffizienten und die bi heißen rechte Seiten, mit
aij , bi ∈ K .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
448 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Definitionen und Beispiele
Lineare Gleichungssysteme – Lösungsmenge
Gesucht sind dann Werte x1 , x2 , . . . , xm ∈ K , die (5.1) erfüllen.
Die Lösungsmenge des linearen Gleichungssystems (5.1) ist die Menge
L := (x1 , x2 , . . . , xm )t ∈ K m | x1 , x2 , . . . , xm erfüllen 5.1
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
449 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Definitionen und Beispiele
Koeffizientenmatrix
Definition 5.1.2 (Koeffizientenmatrix)
Die Koeffizientenmatrix des linearen Gleichungssystems (5.1) über K ist
die Matrix


a11 a12 · · · a1m
a21 a22 · · · a2m 


A=
 ∈ K n×m .
..


.
an1 an2 · · ·
anm
Mit ~x = (x1 , x2 , . . . , xm )t ∈ K m und ~b = (b1 , . . . , bn )t ∈ K n können wir
dann (5.1) auch in der Form
A~x = ~b
schreiben, mit Lösungsmenge
n
o
L = (x1 , x2 , . . . , xm )t ∈ K m | A~x = ~b .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
450 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Definitionen und Beispiele
Erweiterte Koeffizientenmatrix
Definition 5.1.3 (Erweiterte Koeffizientenmatrix)
Die erweiterte Matrix des linearen Gleichungssystems (5.1) ist die Matrix


a11 a12 · · · a1m b1
a21 a22 · · · a2m b2 


(A, ~b) := 
 ∈ K n×(m+1) .
..


.
an1 an2 · · ·
Prof. Dr. Bernhard Steffen
amm bn
Mathematik für Informatiker 1 - 2012
451 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Definitionen und Beispiele
Beispiele
Beispiel (mit genau einer Lösung): Das lineare Gleichungssystem
2x
+ 2y
y
+ z
+ z
x
= −2
=
4
=
1
über Q hat genau eine Lösung, nämlich x = −2, y = 1, z = 3.
In Matrix-Schreibweise hat dieses Gleichungssystem die Form

 
  
x
−2
2 2 0
0 1 1 y  =  4 ,
z
1
1 0 1
{z
} | {z }
| {z }
|
A
~
x
~
b
und es ist
L = {(−2, 1, 3)t } ⊂ Q3 .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
452 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Definitionen und Beispiele
Beispiele (Forts.)
Beispiel (mit keiner Lösung): Das lineare Gleichungssystem über Q
x1 + x2 + x3 = 0
x1 + x2 + x3 = 1
besitzt offensichtlich keine Lösung: L = ∅.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
♣
453 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Definitionen und Beispiele
Beispiele (Forts.)
Beispiel (mit mehreren Lösungen): Das lineare Gleichungssystem über R
x1 + 2x2
x1 + 2x2 + 2x3
2x1 + 4x2
3x3
+ x4
+ 3x4
+ 3x4
+ 2x4
=
=
=
=
1
5
5
3
besitzt mehrere Lösungen, z.B.:
x1 = −2, x2 = 0,
x1 = 0,
x3 = −1, x4 = 3 oder
x2 = −1, x3 = −1, x4 = 3.
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
454 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Definitionen und Beispiele
Anwendungen
Lineare Gleichungssysteme gehören zu den einfachsten Formen, um
Zusammenhänge in Systemen zu beschreiben. Man findet sie z.B. in der
linearen Optimierung (→ wirtschaftswissenschaftliche Anwendungen).
Beispiel aus Informatikvorlesung Eingebettete Systeme (Prof. Marwedel):
Sog. Petri-Netze zur Modellierung der Bewegungen von Thalys-Zügen
zwischen Köln, Amsterdam, Brüssel und Paris.
Matrix zur Abbildung der Transitionen zwischen den Stationen
(Knoten).
Belegung der Stationen mit Zügen liefert für jede Transition eine
lineare Gleichung mit konstantem Ergebnis (0) (Invariante!).
Insgesamt entsteht ein lineares Gleichungssystem, wobei Lösungen in
{0, 1}(!) gesucht werden.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
455 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Übersicht Kapitel 10
Lineare Gleichungssysteme und Invertieren von Matrizen
10.1 Definitionen und Beispiele
10.2 Das Gauß’sche Eliminationsverfahren
10.3 Invertieren von Matrizen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
456 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Kapitel 10
Lineare Gleichungssysteme und Invertieren von Matrizen
10.2 Das Gauß’sche Eliminationsverfahren
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
457 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen von Gleichungssystemen
Grundlegend für die systematische Lösung linearer Gleichungssysteme ist
das folgende einfache Lemma.
Lemma 5.2.1
Die Lösungsmenge eines linearen Gleichungssystems über K ändert sich
nicht, wenn man
(i) zwei Gleichungen vertauscht,
(ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K )
(iii) eine Gleichung mit c ∈ K \ {0} multipliziert.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
458 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen von Gleichungssystemen
Lemma 5.2.1
Die Lösungsmenge eines linearen Gleichungssystems über K ändert sich nicht, wenn man
(i) zwei Gleichungen vertauscht,
(ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K )
(iii) eine Gleichung mit c ∈ K \ {0} multipliziert.
Beweis: (i) Sei A~x = ~b ein lineares Gleichungssystem:
 
 t
~a1t ~x = b1
~a1
b1
.
 .. 
..
 .  ~x =  ..  ⇔
.
t
~
~
~ant
an x = bn
bn
Das Vertauschen zweier Gleichungen ändert die Bedingung also nicht.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
459 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen von Gleichungssystemen
Lemma 5.2.1
Die Lösungsmenge eines linearen Gleichungssystems über K ändert sich nicht, wenn man
(i) zwei Gleichungen vertauscht,
(ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K )
(iii) eine Gleichung mit c ∈ K \ {0} multipliziert.
Beweis: (ii) Sei A~x = ~b ein lineares Gleichungssystem:
~a1t ~x = b1
..
.
t
~ai ~x = bi
..
.
~ajt ~x = bj
..
.
t
~an ~x = bn
Prof. Dr. Bernhard Steffen
·c
⇒⇔
~a1t ~x = b1
..
.
t
t
~ai ~x + c~aj ~x = bi + cbj
..
.
~ajt ~x = bj
..
einsetzen
.
t
~an ~x = bn
Mathematik für Informatiker 1 - 2012
460 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen von Gleichungssystemen
Lemma 5.2.1
Die Lösungsmenge eines linearen Gleichungssystems über K ändert sich nicht, wenn man
(i) zwei Gleichungen vertauscht,
(ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K )
(iii) eine Gleichung mit c ∈ K \ {0} multipliziert.
Beweis: (iii) Sei A~x = ~b ein lineares Gleichungssystem, c ∈ K \ {0}:
~ait ~x = bi | · c ⇒
Prof. Dr. Bernhard Steffen
⇔ c~ait ~x = cbi | · c −1
Mathematik für Informatiker 1 - 2012
461 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Wir wollen uns diese Umformungen an einem Beispiel veranschaulichen:
Beispiel:
3x3 +2x4 = 3
x1 +2x2 +2x3 +3x4 = 5
2x1 +4x2
+3x4 = 5
x1 +2x2
+ x4 = 1
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
462 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
3x3 +2x4 = 3
x1 +2x2 +2x3 +3x4 = 5
2x1 +4x2
+3x4 = 5
x1 +2x2
+ x4 = 1
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
463 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x1 +2x2 +2x3 +3x4 = 5
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
464 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
(−1)
(−2)
x1 +2x2 +2x3 +3x4 = 5
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
465 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
−x1 −2x2
− x4 =−1
(−2)
x1 +2x2 +2x3 +3x4 = 5
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
466 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
−x1 −2x2
− x4 =−1
(−2)
x1 +2x2 +2x3 +3x4 = 5
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
467 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 −2x2
− x4 =−1
(−2)
0+2x2 +2x3 +3x4 = 5
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
468 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
− x4 =−1
(−2)
0+ 0+2x3 +3x4 = 5
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
469 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
− x4 =−1
(−2)
0+ 0+2x3 +3x4 = 5
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
470 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 =−1
(−2)
0+ 0+2x3 +2x4 = 5
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
471 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
(−2)
0+ 0+2x3 +2x4 = 4
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
472 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
(−2)
2x3 +2x4 = 4
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
473 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
−2x1 −4x2
−2x4 =−2
2x3 +2x4 = 4
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
474 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
−2x1 −4x2
−2x4 =−2
2x3 +2x4 = 4
2x1 +4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
475 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 −4x2
−2x4 =−2
2x3 +2x4 = 4
0+4x2
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
476 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
−2x4 =−2
2x3 +2x4 = 4
0+ 0
+3x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
477 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 =−2
2x3 +2x4 = 4
0+ 0
+ x4 = 5
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
478 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
2x3 +2x4 = 4
0+ 0
+ x4 = 3
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
479 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
2x3 +2x4 = 4
| · 1/2
x4 = 3
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
480 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3 + x4 = 2
| · 1/2
x4 = 3
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
481 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3 + x4 = 2
| · 1/2
(−3)
x4 = 3
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
482 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
−3x3 −3x4 =−6
x4 = 3
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
483 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
−3x3 −3x4 =−6
x4 = 3
3x3 +2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
484 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3 −3x4 =−6
x4 = 3
0+2x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
485 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3 + x4 =−6
x4 = 3
0− x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
486 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3 + x4 = 2
x4 = 3
0− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
487 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3 + x4 = 2
x4 = 3
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
488 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3 + x4 = 2
x4 = 3
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
489 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3 + x4 = 2
0= 0
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
490 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3 + x4 = 2
0= 0
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
491 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3 + x4 = 2
0= 0
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
492 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3 + 0 =−1
0= 0
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
493 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3
=−1
0= 0
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
494 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ x4 = 1
x3
=−1
0= 0
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
495 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
+ 0 =−2
x3
=−1
0= 0
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
496 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
=−2
x3
=−1
0= 0
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
497 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1 +2x2
=−2
x3
=−1
0= 0
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
498 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
=−2 ⇒ x1 = −2 − 2x2
x1 +2x2
x3
=−1
0= 0
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
499 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
=−2 ⇒ x1 = −2 − 2x2
x1 +2x2
x3
=−1 ⇒ x3 = −1
0= 0
− x4 =−3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
500 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
=−2 ⇒ x1 = −2 − 2x2
x1 +2x2
x3
=−1 ⇒ x3 = −1
0= 0
− x4 =−3 ⇒ x4 = 3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
501 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
=−2 ⇒ x1 = −2 − 2x2
x1 +2x2
x3
=−1 ⇒ x3 = −1
0= 0
− x4 =−3 ⇒ x4 = 3
Somit ergibt sich als Lösungsmenge des linearen Gleichungssystems:
L = {(−2 − 2x2 , x2 , −1, 3)|x2 ∈ R}
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
502 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Gauß’scher Algorithmus
Der Gauß’sche Algorithmus (auch Gauß’sches Eliminationsverfahren
genannt) benutzt die Operationen aus Lemma 5.2.1 sukzessive, um ein
gegebenes lineares Gleichungssystem in ein anderes mit derselben
Lösungsmenge(!) zu überführen, bei dem man die Lösung direkt ablesen
kann.
Definition 5.2.2 (Äquivalenz von lin. Gleichungssystemen)
Zwei lineare Gleichungssysteme heißen äquivalent, wenn ihre
Lösungsmengen identisch sind.
Man nutzt also wieder eine Invarianten-Eigenschaft aus, um ein Problem
zu vereinfachen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
503 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Elementare Zeilenumformungen bei Matrizen
Die in Lemma 5.2.1 genannten System-Umformungen wirken sich auch auf
die Matrizen A bzw. (A, ~b) des Gleichungssystems aus bzw. lassen sich
durch Matrix-Umformungen realisieren:
Definition 5.2.3 (Elementare Zeilenumformungen)
Elementare Zeilenumformungen auf Matrizen aus K n×m sind Abbildungen
der folgenden Form (für 1 ≤ k, l ≤ n):
(i) Vk,l : K n×m → K n×m : “Vertausche k-te und l-te Zeile einer Matrix.”
(ii) Ak,l (c) : K n×m → K n×m für c ∈ K :
“Addiere das c-fache der k-ten Zeile zur l-ten Zeile einer Matrix.”
(iii) Mk (c) : K n×m → K n×m für c ∈ K \ {0}:
“Multipliziere die k-te Zeile einer Matrix mit c.”
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
504 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Wir wollen auch diese Umformungen an dem Beispiel von oben
veranschaulichen.
Beispiel:

0
 1

 2
1
Prof. Dr. Bernhard Steffen
0
2
4
2
3
2
0
0
2
3
3
1

3
5 

5 
1
Mathematik für Informatiker 1 - 2012
505 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):

0
 1

 2
1
Prof. Dr. Bernhard Steffen
0
2
4
2
3
2
0
0
2
3
3
1

3
5 

5 
1
Mathematik für Informatiker 1 - 2012
506 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):

1
 1

 2
0
Prof. Dr. Bernhard Steffen
2
2
4
0
0
2
0
3
1
3
3
2

1
5 

5 
3
Mathematik für Informatiker 1 - 2012
507 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):

1
 1

 2
0
Prof. Dr. Bernhard Steffen
2
2
4
0
0
2
0
3
1
3
3
2

1
5 

5 
3
Mathematik für Informatiker 1 - 2012
(−1)
(−2)
508 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):

1 2 0
 1 2 2

 2 4 0
0 0 3
1
3
3
2
Prof. Dr. Bernhard Steffen

1
5 

5 
3
(−1)
(−2)

1
 0
⇔
 0
0
Mathematik für Informatiker 1 - 2012
2
0
0
0
0
2
0
3
1
2
1
2

1
4 

3 
3
509 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):

1 2 0 1
 0 0 2 2

 0 0 0 1
0 0 3 2

1
4 
 | · 1/2
3 
3
Prof. Dr. Bernhard Steffen

(−3)
1
 0
⇔
 0
0
Mathematik für Informatiker 1 - 2012
2
0
0
0
0
1
0
0
1
1
1
−1

1
2 

3 
−3
510 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):

1 2 0 1
1
 0 0 1 1
2

 0 0 0 1
3
0 0 0 −1 −3
Prof. Dr. Bernhard Steffen





1
 0
⇔
 0
0
Mathematik für Informatiker 1 - 2012
2
0
0
0
0 0
1 0
0 0
0 −1

−2
−1 

0 
−3
511 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):


1 2 0 0 −2
 0 0 1 0 −1 


 0 0 0 0
0 
| · (−1)
0 0 0 −1 −3
Prof. Dr. Bernhard Steffen

1
 0
⇔
 0
0
Mathematik für Informatiker 1 - 2012
2
0
0
0
0
1
0
0

0 −2
0 −1 

1 3 
0 0
512 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):
Die entstandene Matrix ist in Stufenform:

1 2 0 0 −2
 0 0 1 0 −1

 0 0 0 1 3
0 0 0 0 0




♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
513 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen durch Matrixmultiplikation
Satz 5.2.4
Jede elementare Zeilenumformung (und damit jede Folge von elementaren
Zeilenumformungen) an einer Matrix A ∈ K n×m ist Ergebnis einer
Multiplikation von links mit einer regulären Matrix U ∈ K n×n .
Beweis: Für jeden Typ der elementaren Zeilenumformungen wollen wir
die entsprechende reguläre Matrix U ∈ K n×n angeben.
Definition 5.2.3 (Elementare Zeilenumformungen)
Elementare Zeilenumformungen auf Matrizen aus K n×m sind Abbildungen der folgenden
Form (für 1 ≤ k, l ≤ n):
(i) Vk,l : K n×m → K n×m : “Vertausche k-te und l-te Zeile einer Matrix.”
(ii) Ak,l (c) : K n×m → K n×m für c ∈ K :
“Addiere das c-fache der k-ten Zeile zur l-ten Zeile einer Matrix.”
(iii) Mk (c) : K n×m → K n×m für c ∈ K \ {0}:
“Multipliziere die k-te Zeile einer Matrix mit c.”
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
514 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen durch Matrixmultiplikation (Forts.)
Beweis: Sei Eij diejenige Matrix aus K n×n , die überall mit Nullen besetzt
ist bis auf die Position (i, j), an der sie eine 1 hat:


0
...
0
 ..



.



.. 
Eij =  ...
1
.




..
. 

0
...
0
Die elementaren Zeilenumformungen entsprechen dann einer Multiplikation
von links mit den folgenden Matrizen U:
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
515 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen durch Matrixmultiplikation (Forts.)
Beweis: (i) Vk,l : K n×m → K n×m :
”‘Vertausche k-te und l-te Zeile einer Matrix.”’
U ist regulär, da U · U = En .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
516 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen durch Matrixmultiplikation (Forts.)
Beweis: (ii) Ak,l (c) : K n×m → K n×m für c ∈ K :
”‘Addiere das c-fache der k-ten Zeile zur l-ten Zeile einer Matrix.”’
U 0 ist regulär, da
U 0 = En + c · Elk und
(U 0 )−1 = En − c · Elk
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
517 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Umformungen durch Matrixmultiplikation (Forts.)
Beweis: (iii) Mk (c) : K n×m → K n×m für c ∈ K \ {0}:
”‘Multipliziere die k-te Zeile einer Matrix mit c.”’
U 00 ist regulär, da
U 00 = En + (c − 1) · Ekk und
(U 00 )−1 = En + (c −1 − 1) · Ekk
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
518 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Definition der Stufenform
Durch elementare Zeilenumformungen kann man eine beliebige n × m
Matrix auf sogenannte Stufenform bringen.
Definition 5.2.5 (Stufenform)
Eine Matrix A ∈ K n×m hat Stufenform, wenn sie wie folgt aussieht:
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
519 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Satz 5.2.6 (Stufenform)
Jede Matrix A ∈ K n×m kann man durch elementare Zeilenumformungen
auf Stufenform bringen.
Beweis: Induktion über die Zahl n der Zeilen.
n = 1 : A = (a11 , a12 , . . . , a1m ).
1. Fall: alle a1j = 0 ⇒ A ist in Stufenform
2. Fall: es gibt ein j1 = min{j | a1j 6= 0}.
⇒ A = (0, . . . , 0, a1j1 , ∗ · · · ∗)
−1
M1 (a1j
)
→ 1 (0, . . . , 0, 1, ∗ · · · ∗)
ist in Stufenform.
I. V.: Alle Matrizen des K n×m lassen sich auf Stufenform bringen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
520 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion über die Zahl n der Zeilen.
I. V.: Alle Matrizen des K n×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall: alle aij = 0 ⇒ A ist in Stufenform
2. Fall: es gibt ein j1 = min{j | ∃i : aij 6= 0} und ein i1 = min{i | aij1 6= 0},

0



0

A=
0
0



0
Prof. Dr. Bernhard Steffen
...
..
.
...
...
...
..
.
...
0
0
0
0
0
0
..
.
0
ai1 j1
∗
..
.
∗
∗
∗
∗
∗
∗
Mathematik für Informatiker 1 - 2012
...
..
.
...
...
...
..
.
...

∗



∗

∗

∗



∗
521 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion über die Zahl n der Zeilen.
I. V.: Alle Matrizen aus K n×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall alle aij = 0 ⇒ A ist in Stufenform
2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}.

0



0

0

0



0
...
..
.
...
...
...
..
.
...
Prof. Dr. Bernhard Steffen
0
0
0
0
0
0
..
.
0
ai1 j1
∗
..
.
∗
∗
∗
∗
∗
∗
...
..
.
...
...
...
..
.
...

∗



∗

∗

∗




0



−1 0
Mi1 (ai j ) 
→1 1 
0
0



∗
Mathematik für Informatiker 1 - 2012
0
...
..
.
...
...
...
..
.
...
0
0
0
0
0
0
..
.
0
1
∗
..
.
∗
∗
∗
∗
∗
∗
...
..
.
...
...
...
..
.
...

∗



∗

∗

∗



∗
522 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion über die Zahl n der Zeilen.
I. V.: Alle Matrizen aus K n×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall alle aij = 0 ⇒ A ist in Stufenform
2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}.

0



0

0

0



0
...
..
.
...
...
...
..
.
...
Prof. Dr. Bernhard Steffen
0
0
0
0
0
0
..
.
0
1
∗
..
.
∗
∗
∗
∗
∗
∗
...
..
.
...
...
...
..
.
...

∗



∗

∗

∗



Ai1 ,k (−akj1 ),k6=i1
→
∗
Mathematik für Informatiker 1 - 2012

0



0

0

0



0
...
..
.
...
...
...
..
.
...
0
0
0
0
0
0
..
.
0
1
0
..
.
0
∗
∗
∗
∗
∗
...
..
.
...
...
...
..
.
...
∗




∗

∗

∗



∗
523 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion über die Zahl n der Zeilen.
I. V.: Alle Matrizen aus K n×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall alle aij = 0 ⇒ A ist in Stufenform
2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}.

0



0

0

0



0
...
..
.
...
...
...
..
.
...
Prof. Dr. Bernhard Steffen
0
0
0
0
0
0
..
.
0
1
0
..
.
0
∗
∗
∗
∗
∗
...
..
.
...
...
...
..
.
...
∗




0

∗
 Vi1 ,1 
0
∗
 → 

∗


0

...
...
..
.
...
0
0
0
1
0
..
.
0
∗
∗
∗
...
...
..
.
...

∗
∗



∗
∗
Mathematik für Informatiker 1 - 2012
524 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion über die Zahl n der Zeilen.
I. V.: Alle Matrizen aus K n×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall alle aij = 0 ⇒ A ist in Stufenform
2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}.

0
0



0
Prof. Dr. Bernhard Steffen
...
...
..
.
...
0
0
0
1
0
..
.
0
∗
∗
∗
...
...
..
.
...
Mathematik für Informatiker 1 - 2012

∗
∗



∗
525 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion über die Zahl n der Zeilen.
I. V.: Alle Matrizen aus K n×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall alle aij = 0 ⇒ A ist in Stufenform
2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}.

0
0



0
...
...
..
.
...
0
0
0
1
0
..
.
0
∗
∗
∗
...
...
..
.
...

∗
∗



∗
Sei B ∈ K n×m die Matrix, die aus den Zeilen 2 bis n + 1 besteht.
I.V.: B lässt sich auf Stufenform bringen.
Die Einträge in der ersten Zeile oberhalb der Stufen können schließlich
mithilfe von Ak,1 (c)- Operationen auf 0 gebracht werden.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
526 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Satz 5.2.6 (Stufenform)
Jede Matrix A ∈ K n×m kann man durch elementare Zeilenumformungen
auf Stufenform bringen.
Wir wenden den Satz auf die erweiterte Matrix (A, ~b) eines linearen
Gleichungssystems an und nehmen an, dass die Stufen in den Spalten
j1 ≤ j2 ≤ · · · ≤ jr ≤ m + 1 auftreten.
Die Spalte ji , i = 1, . . . , r , ist also die Spalte, in der die i-te Zeile den
ersten Eintrag ungleich Null (bzw. gleich 1) enthält.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
527 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Behandlung der Stufenform
Wir unterscheiden nun zwei Fälle.
1. Fall: jr = m + 1, d.h., die r -te Gleichung des umgeformten linearen
Gleichungssystems lautet
0x1 + 0x2 + · · · + 0xn = 1,
so dass das Gleichungssystem offenbar keine Lösung besitzt. In
diesem Fall ist also L = ∅.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
528 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Behandlung der Stufenform (Forts.)
2. Fall: jr ≤ m Das umgeformte Gleichungssystem lautet also:
n
X
xj 1 +
xj 2 +
j=j1 +1
j6=j2 ,...,jr
n
X
j=j2 +1
j6=j3 ,...,jr
xjr +
n
X
0
a10 j xj = a1,n+1
0
a20 j xj = a2,n+1
..
.
ar0j xj = ar0 ,n+1
j=jr +1
0=0
..
.
0=0
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
529 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Behandlung der Stufenform (Forts.)
Alle xi außer den xj1 , . . . , xjr sind frei wählbar; aus der Wahl dieser anderen
xi ergeben sich dann die restlichen xj1 , . . . , xjr wie folgt:
0
xj1 := a1,n+1
−
0
xj2 := a2,n+1
−
n
X
a10 j xj
j=j1 +1
j6=j2 ,...,jr
n
X
a20 j xj
j=j2 +1
j6=j3 ,...,jr
..
.
xjr := ar0 ,n+1 −
n
X
ar0 j xj
j=jr +1
Damit haben wir also eine vollständige Beschreibung der Lösungsmenge
des linearen Gleichungssystems.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
530 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Eindeutige Lösbarkeit
Aus der konstruktiven Beschreibung der Lösungsmenge sehen wir sofort,
dass das Gleichungssystem genau dann eindeutig lösbar ist, wenn keine xi
mehr frei wählbar sind, sondern die Lösungen durch die (umgeformten)
rechten Seiten eindeutig bestimmt werden.
Das ist genau dann der Fall, wenn {j1 , . . . , jr } = {1, . . . , m} ist.
Insbesondere ist dann r = m.
Da es höchstens so viele Stufen wie Zeilen gibt, erhalten wir also das
folgende Korollar:
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
531 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Eindeutige Lösbarkeit
Wdh. Definition 5.1.1
Ein lineares Gleichungssystem mit n Gleichungen und m Variablen hat die Form:
a1,1 x1
a2,1 x1
+
+
a1,2 x2
a2,2 x2
+
+
an,1 x1
+
an,2 x2
+
···
···
..
.
···
+
+
a1,m xm
a2,m xm
=
=
b1
b2
+
an,m xm
=
bn
Die aij heißen Koeffizienten und die bi heißen rechte Seiten, mit aij , bi ∈ K .
Korollar 5.2.7
Falls das lineare Gleichungssystem (s.o.) eine eindeutige Lösung besitzt, so
gilt m ≤ n.
Beweis: Falls das lineare Gleichungssystem eine eindeutige Lösung besitzt,
gilt {j1 , . . . , jr } = {1, . . . , m}.
⇒ r = m, r ≤ n ⇒ m ≤ n
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
532 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Homogene lineare Gleichungssysteme
Wdh. Definition 5.1.1
Ein lineares Gleichungssystem mit n Gleichungen und m Variablen hat die Form:
a1,1 x1
a2,1 x1
+
+
a1,2 x2
a2,2 x2
+
+
an,1 x1
+
an,2 x2
+
···
···
..
.
···
+
+
a1,m xm
a2,m xm
=
=
b1
b2
+
an,m xm
=
bn
Die aij heißen Koeffizienten und die bi heißen rechte Seiten, mit aij , bi ∈ K .
Definition 5.2.8 (Homogene lineare Gleichungssysteme)
Das lineare Gleichungssystem (5.1) heißt homogen, wenn
b1 = b2 = . . . = bm = 0.
Ein homogen lineares Gleichungssystem hat immer eine Lösung, nämlich
x1 = x2 = . . . = xn = 0.
Diese Lösung (x1 , . . . , xn )t = ~0 heißt triviale Lösung.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
533 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Homogene Systeme und eindeutige Lösbarkeit
Satz 5.2.9
Ist n = m und hat das homogene lineare Gleichungssystem
a11 x1
a21 x1
+
+
a12 x2
a22 x2
+ ···
+ ···
..
.
am1 x1 + am2 x2 + · · ·
+
+
a1n xn = 0
a2n xn = 0
+ amn xn = 0
nur die triviale Lösung, so hat (5.1) für jede rechte Seite b1 , . . . , bm eine
eindeutig bestimmte Lösung.
Beweis: Wir betrachten die erweiterte Matrix (A, ~0) des homogenen
Gleichungssystems. Da dieses eindeutig lösbar ist, muss sich (A, ~0) durch
elementare Zeilenumformungen in die folgende Stufenform bringen lassen:
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
534 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Homogene Systeme und eindeutige Lösbarkeit
Beweis: Wir betrachten die erweiterte Matrix (A, ~0) des homogenen
Gleichungssystems. Da dieses eindeutig lösbar ist, muss sich (A, ~0) durch
elementare Zeilenumformungen in die folgende Stufenform bringen lassen:


1 0 ... 0 0
 0 1 ... 0 0 


 .. .. . .
.. .. 
 . .
. . . 
0 0 ... 1 0
(⇒ n = m). Wendet man dieselben Zeilenumformungen auf die Matrix
(A, ~b) für ein beliebiges ~b ∈ K n an, so erhält man die Matrix


1 0 . . . 0 b10
 0 1 . . . 0 b0 
2 

 .. .. . .
. . 
 . .
. .. .. 
0 0 ...
Prof. Dr. Bernhard Steffen
1 bn0
Mathematik für Informatiker 1 - 2012
535 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Das Gauß’sche Eliminationsverfahren
Homogene Systeme und eindeutige Lösbarkeit
Beweis:Wendet man dieselben Zeilenumformungen auf die Matrix (A, ~b)
für ein beliebiges ~b ∈ K n an, so erhält man die Matrix


1 0 . . . 0 b10
 0 1 . . . 0 b0 
2 

 .. .. . .
.. .. 
 . .
. . . 
0 0 . . . 1 bn0
Die eindeutige Lösung des zugehörigen Gleichungssystems lässt sich daraus
ablesen.
x1 = b10 , x2 = b20 , . . . , xn = bn0
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
536 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Invertierung von Matrizen
Übersicht Kapitel 10
Lineare Gleichungssysteme und Invertieren von Matrizen
10.1 Definitionen und Beispiele
10.2 Das Gauß’sche Eliminationsverfahren
10.3 Invertieren von Matrizen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
537 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Invertierung von Matrizen
Kapitel 10
Lineare Gleichungssysteme und Invertieren von Matrizen
10.3 Invertieren von Matrizen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
538 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Invertierung von Matrizen
Erweiterung des Gauß-Algorithmus
Im letzten Abschnitt haben wir gesehen, wie man lineare
Gleichungssysteme A~x = ~b algorithmisch löst und dabei gleichzeitig
Aussagen über die allgemeine Lösbarkeit solcher Gleichungssysteme erhält.
Von zentraler Bedeutung waren dabei elementare Zeilenumformungen, die
man auch durch Multiplikation (von links) mit regulären, d.h.
invertierbaren Matrizen realisieren kann.
Die Lösbarkeit homogener Gleichungssysteme ist fundamental für die
Lösbarkeit ganzer Klassen von Gleichungssystemen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
539 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Invertierung von Matrizen
Erweiterung des Gauß-Algorithmus (Forts.)
In diesem Abschnitt wollen wir zeigen, wie man durch eine Erweiterung der
Anwendung des Gauß-Algorithmus
gleichzeitig Lösungen für beliebige rechte Seiten erhalten (bzw.
vorbereiten) und
das Inverse einer regulären Matrix berechnen kann.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
540 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Invertierung von Matrizen
Eine allgemeine Gleichungssystem-Matrix
Um ein Gleichungssystem A~x = ~b, A ∈ K n×m zu lösen, haben wir den
Gauß-Algorithmus auf die Matrix (A, ~b) angewendet.
Wollen wir danach ein System A~x = ~c lösen, müssen wir den Algorithmus
mit der Matrix (A, ~c ) wiederholen.
Um diesen Aufwand zu reduzieren, lösen wir nun Gleichungssysteme mit
einer generischen rechten Seite –
wir wenden den Gauß-Algorithmus auf die Matrix (A, En ) ∈ K n×(m+n) an.
Die Matrix En nimmt bei der Modifizierung die Informationen der
Zeilenumformungen auf.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
541 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Invertierung von Matrizen
Identifikation der Umformungsinformationen
Konkret passiert bei den Zeilenumformungen der Matrix (A, En ) folgendes:
Wir formen A und damit (A, En ) auf Stufenform um und erhalten eine
Matrix (B, C );
dies entspricht einer Multiplikation von links mit einer (regulären)
Umformungsmatrix U, also
B = U · A und C = U · En = U.
B hat Stufenform und C ist die Umformungsmatrix.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
542 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Invertierung von Matrizen
Lösung beliebiger Gleichungssysteme A~x = ∗
Für beliebige rechte Seiten ~b des Gleichungssystems A~x = ~b kann man
nun die Informationen zur Stufenform wie folgt ausnutzen:
Stufenform wird erreicht durch B~x = U · A~x = U · ~b;
Wegen U · A~x = U · ~b genau dann, wenn A~x = ~b (U invertierbar!) ist
jede Lösung von U · A~x = U · ~b (die sich in der Regel leicht berechnen
lässt) auch eine Lösung von A~x = ~b.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
543 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Invertierung von Matrizen
Invertieren von Matrizen
Dieselbe Idee – nämlich die Betrachtung der Matrix (A, En ) anstelle von A
– kann man auch benutzen, um das Inverse von (regulären) Matrizen
auszurechnen.
Sei A~x = ~b ein Gleichungssystem mit regulärer Matrix A ∈ K n×n . Dann
ist A~x = ~b genau dann, wenn ~x = A−1 ~b, das Gleichungssystem ist also
eindeutig lösbar. Durch Anwendung des Gauß-Algorithmus erhalten wir
aus der Matrix (A, En ) die Matrix (En , U) mit En = B = U · A, also ist
U = A−1 . Wir können daher mit Hilfe des Gauß-Algorithmus zu regulären
Matrizen das (multiplikative) Inverse bestimmen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
544 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen
Invertierung von Matrizen
Invertieren von Matrizen (Forts.)
Satz 5.3.1
Sei A ∈ K n×n eine reguläre quadratische Matrix. Dann ist A~x = ~b
eindeutig lösbar, und man erhält das Inverse A−1 , indem man dieselben
Zeilenumformungen auf die Einheitsmatrix in derselben Reihenfolge
anwendet.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
545 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Übersicht Kapitel 11
Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildungen
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz über lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
546 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Übersicht Kapitel 11
Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildungen
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz über lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
547 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Kapitel 11
Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und
Isomorphismen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
548 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Lineare Abbildungen
Homomorphismen sind strukturerhaltende Abbildungen, d.h. Abbildungen,
die mit den Verknüpfungen auf Mengen verträglich sind.
Vektorraumhomomorphismen werden auch lineare Abbildungen genannt;
sie sind mit der Addition von Vektoren und mit der Skalarmultiplikation
verträglich.
Definition 6.1.1 (Lineare Abbildungen, Vektorraumhomomorphismus)
Es seien V und W zwei K -Vektorräume und ϕ : V → W eine Abbildung.
Dann heißt ϕ linear oder Vektorraumhomomorphismus, falls
ϕ(~v + ~v 0 ) = ϕ(~v ) + ϕ(~v 0 )
für alle ~v , ~v 0 ∈ V
und
ϕ(s · ~v ) = s · ϕ(~v )
Prof. Dr. Bernhard Steffen
für alle s ∈ K und ~v ∈ V .
Mathematik für Informatiker 1 - 2012
549 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Eigenschaften linearer Abbildungen
Nullvektoren werden unter Vektorraumhomomorphismen wieder auf
Nullvektoren abgebildet:
Satz 6.1.2
Sind V und W zwei K -Vektorräume und ist ϕ : V → W eine lineare
Abbildung, so ist ϕ(~0) = ~0.
Beweis:
ϕ(~0) = ϕ(0 · ~0) = 0 · ϕ(~0) = ~0.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
550 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Eigenschaften linearer Abbildungen (Forts.)
Vektorraumhomomorphismen/Lineare Abbildungen lassen sich auch durch
eine Bedingung charaktierisieren:
Satz 6.1.3 (Charakterisierung linearer Abbildungen)
Es seien V und W zwei K -Vektorräume und ϕ : V → W eine Abbildung.
Die Abbildung ϕ ist genau dann linear, wenn
ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 )
für alle s ∈ K und ~v , ~v 0 ∈ V . (6.1)
Beweis: Seien ~v , ~v 0 ∈ V , s ∈ K .
”‘⇒”’ Sei ϕ linear. Dann ist
ϕ(s · ~v + ~v 0 ) = ϕ(s · ~v ) + ϕ(~v 0 )
(Additivität)
0
= s · ϕ(~v ) + ϕ(~v ).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
(Homogenität)
551 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Eigenschaften linearer Abbildungen (Forts.)
Satz 6.1.3 (Charakterisierung linearer Abbildungen)
Es seien V und W zwei K -Vektorräume und ϕ : V → W eine Abbildung.
Die Abbildung ϕ ist genau dann linear, wenn
ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 )
für alle s ∈ K und ~v , ~v 0 ∈ V .
Beweis: Seien ~v , ~v 0 ∈ V , s ∈ K .
”‘⇐”’ Sei ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 ) für alle s ∈ K und ~v , ~v 0 ∈ V .
Additivität:
ϕ(~v + ~v 0 ) = ϕ(1 · ~v + ~v 0 )
= 1 · ϕ(~v ) + ϕ(~v 0 )
= ϕ(~v ) + ϕ(~v 0 )
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
552 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Eigenschaften linearer Abbildungen (Forts.)
Satz 6.1.3 (Charakterisierung linearer Abbildungen)
Es seien V und W zwei K -Vektorräume und ϕ : V → W eine Abbildung.
Die Abbildung ϕ ist genau dann linear, wenn
ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 )
für alle s ∈ K und ~v , ~v 0 ∈ V .
Beweis: Seien ~v , ~v 0 ∈ V , s ∈ K .
”‘⇐”’ Sei ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 ) für alle s ∈ K und ~v , ~v 0 ∈ V .
Additivität
Homogenität:
ϕ(s · ~v ) = ϕ(s · ~v + ~0)
= s · ϕ(~v ) + ϕ(~0)
= s · ϕ(~v )
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
553 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Lineare Abbildungen – Beispiele
Beispiel: Es sei V ein K -Vektorraum und c ∈ K ein Skalar. Dann ist die
Abbildung
ϕc : V → V
~v 7→ c · ~v
linear. Denn
ϕc (s · ~v + ~v 0 ) = c · (s · ~v + ~v 0 )
= s · (c · ~v ) + c · ~v 0
= s · ϕc (~v ) + ϕc (~v 0 )
für alle s ∈ K und ~v , ~v 0 ∈ V .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
♣
554 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Lineare Abbildungen – Beispiele (Forts.)
Beispiel (Nullabbildung): Sind V und W zwei K -Vektorräume, dann ist
die Abbildung
ϕ:V →W
~v 7→ ~0
für alle ~v ∈ V linear, also ein Vektorraumhomomorphismus.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
♣
555 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Lineare Abbildungen – Beispiele (Forts.)
Beispiel (Differenzierbare Funktionen): Es sei V der R-Vektorraum aller
differenzierbarer Funktionen von R nach R, also
V := { f : R → R | f ist differenzierbar } ⊂ RR ,
und f 0 bezeichne die Ableitung der Funktion f ∈ V .
Dann ist die durch
f 7→ f 0
definierte Abbildung von V nach RR linear.
Dies folgt sofort aus den bekannten Ableitungsregeln für Funktionen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
♣
556 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Lineare Abbildung einer Matrix
Ein besonders wichtiges Beispiel für eine lineare Abbildung wird durch den
folgenden Satz gegeben:
Satz 6.1.4
Sei A ∈ K m×n eine Matrix. Definiere ϕA durch
ϕA : K n → K m ,
~x 7→ A · ~x .
Jede solche Abbildung ϕA ist linear.
Beweis: Folgt sofort aus den Rechenregeln für Matrizen.
Wir werden später sehen, dass alle linearen Abbildungen zwischen
Vektorräumen K m und K n diese Form haben, also durch Matrizen
darstellbar sind.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
557 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Hintereinanderschaltung linearer Abbildungen
Schaltet man zwei lineare Abbildungen (geeignet) hintereinander, so erhält
man wieder eine lineare Abbildung:
Lemma 6.1.5
Es seien U, V und W drei K -Vektorräume. Sind ϕ : U → V und
ψ : V → W lineare Abbildungen, so ist die Hintereinanderausführung
ψ◦ϕ : U →W
~v 7→ ψ(ϕ(~v ))
ebenfalls eine lineare Abbildung.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
558 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Hintereinanderschaltung linearer Abbildungen
Lemma 6.1.5
Es seien U, V und W drei K -Vektorräume. Sind ϕ : U → V und ψ : V → W lineare
Abbildungen, so ist die Hintereinanderausführung
ψ◦ϕ : U →W
~
v 7→ ψ(ϕ(~
v ))
ebenfalls eine lineare Abbildung.
~ ∈ V und s ∈ K .
Beweis: Seien ~v , w
~ ) = s · ψ ◦ ϕ(~v ) + ψ ◦ ϕ(~
z.z.: ψ ◦ ϕ (s · ~v + w
w)
~ ) = ψ(ϕ(s · ~v + w
~ ))
ψ ◦ ϕ (s · ~v + w
= ψ(s · ϕ(~v ) + ϕ(~
w ))
= s · ψ(ϕ(~v )) + ψ(ϕ(~
w ))
= s · ψ ◦ ϕ(~v ) + ψ ◦ ϕ(~
w)
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
559 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Basen und lineare Abbildungen
Satz 6.1.6
Es seien V und W zwei K -Vektorräume, {~v1 , . . . , ~vn } ⊂ V sei eine Basis
~ 1, . . . , w
~ n ∈ W seien n Vektoren in W .
von V , und w
Dann gibt es genau eine lineare Abbildung
ϕ:V →W
mit
~i
ϕ(~vi ) = w
für i = 1, · · · , n.
(6.2)
Lineare Abbildungen auf V sind also durch die Bilder auf einer Basis von
V eindeutig bestimmt.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
560 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Basen und lineare Abbildungen
Satz 6.1.6
Es seien V und W zwei K -Vektorräume, {~
v1 , . . . , ~
vn } ⊂ V sei eine Basis von V , und
~ 1, . . . , w
~ n ∈ W seien n Vektoren in W . Dann gibt es genau eine lineare Abbildung
w
ϕ:V →W
mit
~i
ϕ(~
vi ) = w
für i = 1, · · · , n.
(6.3)
~ i für i = 1, · · · , n.
Beweis: Sei ~v ∈ V , ϕ : V → W linear mit ϕ(~vi ) = w
⇒ ϕ(~v ) = ϕ(s1 · ~v1 + · · · + sn · ~vn )
= s1 ϕ(~v1 ) + · · · + sn ϕ(~vn )
~ 1 + · · · + sn · w
~n
= s1 · w
Eindeutigkeit der Darstellung als Linearkombination von Basisvektoren
⇒ ϕ ist unter den Annahmen eindeutig bestimmt
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
561 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Basen und lineare Abbildungen
~ i für i = 1, · · · , n.
Beweis: Sei ~v ∈ V , ϕ : V → W linear mit ϕ(~vi ) = w
⇒ ϕ(~v ) = ϕ(s1 · ~v1 + · · · + sn · ~vn )
~ 1 + · · · + sn · w
~n
= s1 · w
⇒ ϕ ist unter den Annahmen eindeutig bestimmt
z.z.: Die Annahmen treffen auf ϕ zu
Linearität: Seien u~, ~v ∈ V .
⇒ ϕ(r · u~ + ~v ) = ϕ(r · (s1 · ~v1 + · · · + sn · ~vn ) + t1 · ~v1 + · · · + tn · ~vn )
= ϕ((rs1 + t1 ) · ~v1 + · · · + (rsn + tn ) · ~vn )
~ 1 + · · · + (rsn + tn ) · w
~n
= (rs1 + t1 ) · w
~ 1 + · · · + sn · w
~ n ) + t1 · w
~ 1 + · · · + tn · w
~n
= r (s1 · w
= r ϕ(~
u ) + ϕ(~v ).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
562 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Basen und lineare Abbildungen
~ i für i = 1, · · · , n.
Beweis: Sei ~v ∈ V , ϕ : V → W linear mit ϕ(~vi ) = w
⇒ ϕ(~v ) = ϕ(s1 · ~v1 + · · · + sn · ~vn )
~ 1 + · · · + sn · w
~n
= s1 · w
⇒ ϕ ist unter den Annahmen eindeutig bestimmt
z.z.: Die Annahmen treffen auf ϕ zu
Linearität
~ i für i = 1, · · · , n : Sei i ∈ {1, · · · , n}
ϕ(~vi ) = w
⇒ ϕ(~
vi ) = ϕ(1 · ~vi ) = 1~
wi
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
563 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Basen und lineare Abbildungen
Beispiel (im R2 ): Wir betrachten den R-Vektorraum R2 mit der Basis
{~
e1 , e~2 }.
Eine lineare Abbildung ϕ : R2 → R2 ist dann eindeutig
durch die Bilder
1
~
~
~
~ 2 = 02 ).
w1 := ϕ(~
e1 ) und w2 := ϕ(~
e2 ) gegeben (z.B. w1 = 1 und w
Für einen beliebigen Vektor ~v = ss12 ∈ R2 gilt dann
~ 1 + s2 · w
~ 2.
ϕ(~v ) = s1 · w
s1
~ 1 = 11 und w
~ 2 = 02 ist dann ϕ(~v ) = s1 +2s
Für w
.
2
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
♣
564 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Darstellende Matrix einer linearen Abbildung
Korollar 6.1.7
Jede lineare Abbildung ϕ : K n → K m ist von der Form ϕ = ϕA für eine
Matrix A ∈ K m×n , wobei
ϕA : K n → K m ,
~x 7→ A · ~x .
Die Matrix A heißt auch darstellende Matrix von ϕ.
Beweis: Sei ϕ : K n → K m eine lineare Abbildung
z.z.: Es gibt ein A ∈ K m×n mit ϕ(~x ) = A · ~x ∀~x ∈ K n
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
565 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Darstellende Matrix einer linearen Abbildung
Beweis: Sei ϕ : K n → K m eine lineare Abbildung.
z.z.: Es gibt ein A ∈ K m×n mit ϕ(~x ) = A · ~x ∀~x ∈ K n
Sei {~
e1 , . . . , e~n } die Standardbasis des K n und
 
a1i
 .. 
ϕ(~
ei ) =  .  ∈ K m , 1 ≤ i ≤ n.
ami
Definiere

a11
 ..
A= .
...
am1 . . .
Prof. Dr. Bernhard Steffen

a1n
..  ∈ K m×n .
. 
amn
Mathematik für Informatiker 1 - 2012
566 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Darstellende Matrix einer linearen Abbildung
Beweis: Sei ϕ : K n → K m eine lineare Abbildung.
z.z.: Es gibt ein A ∈ K m×n mit ϕ(~x ) = A · ~x ∀~x ∈ K n
Sei {~
e1 , . . . , e~n } die Standardbasis des K n und


 
a1i
a11 . . . a1n

 
..  ∈ K m×n .
ϕ(~
ei ) =  ...  , A =  ...
. 
ami
am1 . . . amn

a1i
 
⇒ ϕ(~
ei ) =  ...  = A · e~i
ami

⇒ ϕ(~x ) = A · ~x ∀~x ∈ K n
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
567 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Charakterisierung linearer Abbildungen – Idee
Damit kennen wir alle linearen Abbildungen zwischen K n und K m . Wir
wollen diese Erkenntnis im nächsten Unterkapitel auch für lineare
Abbildungen zwischen beliebigen Vektorräumen V und W nutzen.
Idee: Wir “zerlegen” eine lineare Abbildung ϕ : V → W durch
Hintereinanderschaltung linearer Abbildungen
ϕ1
ϕ2
ϕ3
ϕ : V −→ K n −→ K m −→W
(n, m geeignet).
ϕ2 muss dann ein Homomorphismus ϕA sein, ϕ1 und ϕ3 “klassifizieren” V
bzw. W .
Zu diesem Zweck sind die Eigenschaften der Injektivität und Surjektivität
nützlich.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
568 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Isomorphismen & Co.
Lineare Abbildungen können injektiv, surjektiv und auch bijektiv sein:
Definition 6.1.8 (Monomorphismus, Epimorphismus, Isomorphismus)
(i) Ein injektiver Vektorraumhomomorphismus heißt (Vektorraum-)
Monomorphismus.
(ii) Ein surjektiver Vektorraumhomomorphismus heißt (Vektorraum-)
Epimorphismus.
(iii) Ein bijektiver Vektorraumhomomorphismus heißt (Vektorraum-)
Isomorphismus.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
569 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Isomorphe Vektorräume
Definition 6.1.9 (Isomorphie)
Zwei K -Vektorräume V und W heißen isomorph (in Zeichen V ∼
= W ),
falls es einen Vektorraumisomorphismus ϕ : V → W gibt.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
570 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Eigenschaften von Isomorphismen
Satz 6.1.10 (Eigenschaften von Isomorphismen)
Es seien U, V und W drei K -Vektorräume.
(i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung
ϕ−1 : V → U ein Isomorphismus.
(ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die
Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus.
(iii) Die Isomorphie “ ∼
= “ ist eine Äquivalenzrelation auf der Menge der
K -Vektorräume.
Beweis: (i) Sei ϕ : U → V ein Isomorphismus (linear und bijektiv).
⇒ ϕ−1 : V → U ist definiert und bijektiv.
z.z.: ϕ−1 ist linear
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
571 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Eigenschaften von Isomorphismen
Beweis: (i) Sei ϕ : U → V ein Isomorphismus (linear und bijektiv).
⇒ ϕ−1 : V → U ist definiert und bijektiv.
z.z.: ϕ−1 ist linear
ϕ−1 (s · ~v1 + ~v2 ) = ϕ−1 (s · ϕ(~
u1 ) + ϕ(~
u2 ))
= ϕ−1 (ϕ(s · u~1 ) + ϕ(~
u2 ))
= ϕ−1 (ϕ(s · u~1 + u~2 ))
= s · u~1 + u~2
= s · ϕ−1 (~v1 ) + ϕ−1 (~v2 )
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
572 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Eigenschaften von Isomorphismen
Satz 6.1.10 (Eigenschaften von Isomorphismen)
Es seien U, V und W drei K -Vektorräume.
(i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung
ϕ−1 : V → U ein Isomorphismus.
(ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die
Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus.
(iii) Die Isomorphie “ ∼
= “ ist eine Äquivalenzrelation auf der Menge der
K -Vektorräume.
Beweis: (ii) Folgt aus der Bijektivität von Hintereinanderausführungen
bijektiver Abbildungen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
573 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Eigenschaften von Isomorphismen
Satz 6.1.10 (Eigenschaften von Isomorphismen)
Es seien U, V und W drei K -Vektorräume.
(i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung
ϕ−1 : V → U ein Isomorphismus.
(ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die
Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus.
(iii) Die Isomorphie “ ∼
= “ ist eine Äquivalenzrelation auf der Menge der
K -Vektorräume.
Beweis: (iii) V ∼
= W ⇔ ∃ Isomorphismus ϕ : V → W
Reflexivität: idV : V → V , ~v 7→ ~v ist ein Isomorphismus
⇒V ∼
=V
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
574 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Eigenschaften von Isomorphismen
Satz 6.1.10 (Eigenschaften von Isomorphismen)
Es seien U, V und W drei K -Vektorräume.
(i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung
ϕ−1 : V → U ein Isomorphismus.
(ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die
Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus.
(iii) Die Isomorphie “ ∼
= “ ist eine Äquivalenzrelation auf der Menge der
K -Vektorräume.
Beweis: (iii) V ∼
= W ⇔ ∃ Isomorphismus ϕ : V → W
Reflexivität
Symmetrie: (i) ⇒ aus V ∼
= W folgt W ∼
=V
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
575 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Eigenschaften von Isomorphismen
Satz 6.1.10 (Eigenschaften von Isomorphismen)
Es seien U, V und W drei K -Vektorräume.
(i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung
ϕ−1 : V → U ein Isomorphismus.
(ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die
Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus.
(iii) Die Isomorphie “ ∼
= “ ist eine Äquivalenzrelation auf der Menge der
K -Vektorräume.
Beweis: (iii) V ∼
= W ⇔ ∃ Isomorphismus ϕ : V → W
Reflexivität
Symmetrie
Transitivität: (ii) ⇒ aus U ∼
= V und V ∼
= W folgt U ∼
=W
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
576 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Die Abbildung cB
Sei V ein K -Vektorraum der Dimension n, sei B = {~v1 , . . . , ~vn } ⊂ V eine
Basis von V . Wir wollen im Folgenden immer voraussetzen, dass durch die
Nummerierung i = 1, . . . , n eine Reihenfolge der Basiselemente ~v1 , . . . , ~vn
von B festgelegt ist.
Aus der Definition von Basen folgt, dass es zu jedem Vektor ~v ∈ V
eindeutige Koeffizienten s1 , . . . , sn ∈ K gibt mit
~v = s1 · ~v1 + · · · + sn · ~vn .
Wegen der Festlegung der Reihenfolge können wir dem Vektor ~v ∈ V diese
Koeffizienten eindeutig zuordnen und erhalten eine Abbildung
 
s1
 .. 
n
~v = s1 · ~v1 + · · · + sn · ~vn 7→  .  .
cB : V → K ,
(6.4)
sn
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
577 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit
Umkehrabbildung
 
s1
 .. 
−1
n
cB : K → V ,
 .  7→ ~v = s1 · ~v1 + · · · + sn · ~vn .
sn
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
578 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit
Umkehrabbildung
 
s1
 .. 
−1
n
cB : K → V ,
v = s1 · ~
v1 + · · · + sn · ~
vn .
 .  7→ ~
sn
~ ∈ V , s ∈ K , und
Beweis: Seien ~v , w
~v = s1 · ~v1 + · · · + sn · ~vn
~ = t1 · ~v1 + · · · + tn · w
~ n.
w
cB ist linear:
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
579 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Die Abbildung cB (Forts.)
~ ∈ V , s ∈ K , und
Beweis: Seien ~v , w
~v = s1 · ~v1 + · · · + sn · ~vn
~ = t1 · ~v1 + · · · + tn · w
~ n.
w
cB ist linear:
~ = (ss1 + t1 ) · ~v1 + · · · + (ssn + tn ) · ~vn
s · ~v + w


ss1 + t1


~ ) =  ... 
⇒ cB (s · ~v + w
ssn + tn
   
s1
t1
 ..   .. 
=s.+.
sn
tn
= s · cB (~v ) + cB (~
w)
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
580 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit
Umkehrabbildung
 
s1
 .. 
−1
n
cB : K → V ,
v = s1 · ~
v1 + · · · + sn · ~
vn .
 .  7→ ~
sn
~ ∈ V , s ∈ K , und
Beweis: Seien ~v , w
~v = s1 · ~v1 + · · · + sn · ~vn
~ = t1 · ~v1 + · · · + tn · w
~ n.
w
cB ist linear
cB ist injektiv:
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
581 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Die Abbildung cB (Forts.)
~ ∈ V , s ∈ K , und
Beweis: Seien ~v , w
~v = s1 · ~v1 + · · · + sn · ~vn
~ = t1 · ~v1 + · · · + tn · w
~ n.
w
cB ist linear
cB ist injektiv: Sei cB (~v ) = cB (~
w ), d.h.
   
t1
s1
 ..   .. 
~
 .  =  .  ⇒ s1 = t1 , . . . , sn = tn ⇒ ~v = w
tn
sn
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
582 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit
Umkehrabbildung
 
s1
 .. 
cB−1 : K n → V ,
v = s1 · ~
v1 + · · · + sn · ~
vn .
 .  7→ ~
sn
~ ∈ V , s ∈ K , und
Beweis: Seien ~v , w
~v = s1 · ~v1 + · · · + sn · ~vn
~ = t1 · ~v1 + · · · + tn · w
~ n.
w
cB ist linear
cB ist injektiv
cB ist surjektiv:
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
583 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Die Abbildung cB (Forts.)
~ ∈ V , s ∈ K , und
Beweis: Seien ~v , w
~v = s1 · ~v1 + · · · + sn · ~vn
~ = t1 · ~v1 + · · · + tn · w
~ n.
w
cB ist linear
cB ist injektiv
 
s1
 .. 
cB ist surjektiv: Sei  .  ∈ K n
sn
 
s1
 .. 
⇒ ∃~v = s1 · ~v1 + · · · + sn · ~vn ∈ V , cB (~v ) =  .  ∈ K n
sn
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
584 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit
Umkehrabbildung
 
s1
 .. 
−1
n
v = s1 · ~
v1 + · · · + sn · ~
vn .
cB : K → V ,
 .  7→ ~
sn
~ ∈ V , s ∈ K , und
Beweis: Seien ~v , w
~v = s1 · ~v1 + · · · + sn · ~vn
~ = t1 · ~v1 + · · · + tn · w
~ n.
w
cB ist linear
cB ist injektiv
cB ist surjektiv
Die Umkehrabbildung ist wie angegeben X
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
585 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit
Umkehrabbildung
 
s1
 .. 
cB−1 : K n → V ,
v = s1 · ~
v1 + · · · + sn · ~
vn .
 .  7→ ~
sn
Korollar 6.1.12
Jeder n-dimensionale Vektorraum ist isomorph zu K n .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
586 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
K n als Prototyp eines n-dimensionalen Vektorraumes
Daraus ergibt sich sofort der folgende Satz:
Satz 6.1.13
Je zwei endlich dimensionale K -Vektorräume derselben Dimension n sind
isomorph.
Die K -Vektorräume der Dimension n bilden also eine
Isomorphie-Äquivalenzklasse mit dem bekanntesten Vertreter K n .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
587 / 669
Lineare Abbildungen und Matrizen
Lineare Abbildungen
K n als Prototyp eines n-dimensionalen Vektorraumes
Satz 6.1.13
Je zwei endlich dimensionale K -Vektorräume derselben Dimension n sind
isomorph.
Beweis: Seien V1 , V2 zwei K -Vektorr”aume mit dim V1 = dim V2 = n und
B1 , B2 Basen von V1 bzw V2 mit festgelegter Reihenfolge.
⇒ cB1 : V1 → K n
cB−1
: K n → V2
2
sind Isomorphismen.
⇒ cB1 ◦ cB−1
: V1 → V2
2
ist ein Isomorphismus. ⇒ V1 ∼
= V2 ,
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
588 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Übersicht Kapitel 11
Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildungen
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz über lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
589 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Kapitel 11
Lineare Abbildungen und Matrizen
11.2 Matrizen linearer Abbildungen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
590 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Charakterisierung linearer Abbildungen
Wir setzen unsere Überlegungen zur Charakterisierung beliebiger linearer
Abbildungen ϕ : V → W (V , W endlich dimensionale K -Vektorräume)
fort.
Nach Satz 6.1.6 ist ϕ eindeutig bestimmt durch die Bilder auf einer Basis
von V . Ganz ähnlich wie im Beweis von Korollar 6.1.7 kann ϕ durch eine
Matrix beschrieben werden.
Dies wollen wir uns im Folgenden genauer anschauen.
Sei dim V = n
dim W = m
mit Basis
mit Basis
B = (~v1 , . . . , ~vn ),
~ m ),
B 0 = (~
w1 , . . . , w
wobei wir – wie üblich – sowohl für B als auch für B 0 die Reihenfolge der
Elemente festlegen (sonst muss man alle Permutationen der Reihenfolge
betrachten).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
591 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Festlegung linearer Abbildungen durch Basen
Dann ist nach Satz 6.1.6 ϕ durch die Angabe von
ϕ(~vj ) ∈ W
für j = 1, . . . , n
vollständig bestimmt.
Der Vektor ϕ(~vj ) ∈ W lässt sich eindeutig in der Basis B 0 ausdrücken:
ϕ(~vj ) =
m
X
~i
aij · w
für j = 1, . . . , n,
i=1
wobei aij ∈ K für i = 1, . . . , m und j = 1, . . . , n, d.h. (aij ) ∈ K m×n .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
592 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Festlegung linearer Abbildungen durch Basen (Forts.)
Definition 6.2.1 (Matrix einer linearen Abbildung)
Seien V , W endlich dimensionale K -Vektorräume, dim V = n mit Basis
~ m ), sei
B = (~v1 , . . . , ~vn ) und dim W = m mit Basis B 0 = (~
w1 , . . . , w
ϕ : V → W eine lineare Abbildung.
Die durch
ϕ(~vj ) =
m
X
~i
aij · w
für i = 1, . . . , m, j = 1, . . . , n,
(6.5)
i=1
definierte Matrix (aij ) ∈ K m×n heißt Matrix von ϕ bezüglich der Basen B
und B’, in Zeichen
m×n
.
B 0 [ϕ]B = (aij ) ∈ K
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
593 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Matrix bzgl. B und B 0 – Beispiel 1
Es sei A ∈ K m×n und ϕA : K n → K m die zugehörige lineare Abbildung mit
ϕA (~x ) = A · ~x .
Es seien B = (~
e1 , . . . , e~n ) die Standardbasis von K n und
B 0 = (e~0 1 , . . . , e~0 m ) die Standardbasis von K m .
Dann ist


a1j
m
X
 .. 
aij · e~0 i
ϕA (~
ej ) = A · e~j =  .  =
i=1
amj
für j = 1, . . . , n.
Folglich ist also
B 0 [ϕA ]B
= A.
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
594 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Matrix bzgl. B und B 0 – Beispiel 2
Sei V = R3 , W = R2 mit den Basen

 
 
  
1
1
0 

~v1 = 1 , ~v2 = 0 , ~v3 = 1 ,
B =
Basis von V


0
1
1
1
0
~1 =
~2 =
B0 =
w
, w
,
Basis von W .
0
1
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
595 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Matrix bzgl. B und B 0 – Beispiel 2 (Forts.)
Sei ϕ : V → W definiert durch
1
~1 + 1 · w
~2
ϕ(~v1 ) =
= 1·w
1
1
~1 + 0 · w
~2
ϕ(~v2 ) =
= 1·w
0
0
~1 + 1 · w
~2
ϕ(~v3 ) =
= 0·w
1
Dann ist
Prof. Dr. Bernhard Steffen
1 1 0
.
B 0 [ϕ]B =
1 0 1
Mathematik für Informatiker 1 - 2012
596 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Die Isomorphismen cB
Es gilt V ∼
= K n und W ∼
= K m dank der Isomorphismen
cB : V → K n ,
 
s1
 .. 
~v = s1 · ~v1 + · · · + sn · ~vn 7→  . 
sn

cB 0 : W → K m ,

t1
 
~ = t1 · w
~ 1 + · · · + tm · w
~ m 7→  ... 
w
tm
(s. (6.4)). Ist also ϕ : V → W eine lineare Abbildung von V nach W , so
ist
cB 0 ◦ ϕ : V → K m
eine lineare Abbildung von V nach K m . Wir wollen im Folgenden cB 0 ◦ ϕ
mit Hilfe der Matrix B 0 [ϕA ]B beschreiben.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
597 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Kombinationen mit cB
Satz 6.2.2
Es seien V und W zwei K -Vektorräume, B = {~v1 , . . . , ~vn } eine Basis von
~ m } eine Basis von W . Sei weiterhin ϕ : V → W
V und B 0 = {~
w1 , . . . , w
eine lineare Abbildung, und sei A := B 0 [ϕ]B .
Dann gilt
cB 0 ◦ ϕ = ϕA ◦ cB .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
598 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Kombinationen mit cB
Satz 6.2.2
Es seien V und W zwei K -Vektorräume, B = {~
v1 , . . . , ~
vn } eine Basis von V und
~ 1, . . . , w
~ m } eine Basis von W . Sei weiterhin ϕ : V → W eine lineare Abbildung,
B 0 = {w
und sei A := B 0 [ϕ]B .
Dann gilt
cB 0 ◦ ϕ = ϕA ◦ cB .
Beweis: Sei 1 ≤ i ≤ n.
z.z.:cB 0 ◦ ϕ(~vi ) = ϕA ◦ cB (~vi )
~ 1 + · · · + ami w
~ m , dann gilt
Sei ϕ(~vi ) = a1i w
a1i ..
cB 0 ◦ ϕ(~vi ) = cB 0 (ϕ(~vi )) =
.
ami
ϕA ◦ cB (~vi ) = ϕA (~
ei ) = A · e~i
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
599 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Kombinationen mit cB
Satz 6.2.2
Es seien V und W zwei K -Vektorräume, B = {~
v1 , . . . , ~
vn } eine Basis von V und
~ 1, . . . , w
~ m } eine Basis von W . Sei weiterhin ϕ : V → W eine lineare Abbildung,
B 0 = {w
und sei A := B 0 [ϕ]B .
Dann gilt
cB 0 ◦ ϕ = ϕA ◦ cB .
Beweis: Sei 1 ≤ i ≤ n.
z.z.:cB 0 ◦ ϕ(~vi ) = ϕA ◦ cB (~vi )
~ m , dann gilt
~ 1 + · · · + ami w
Sei ϕ(~vi ) = a1i w


 
a11 . . . a1i . . . a1n
a1i
 ..

 .. 
.
.
.
.
A=  .
.
.  ⇒ A · e~i =  . 
am1 . . . ami . . . amn
ami
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
600 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Kombinationen mit cB
Satz 6.2.2
Es seien V und W zwei K -Vektorräume, B = {~
v1 , . . . , ~
vn } eine Basis von V und
~ 1, . . . , w
~ m } eine Basis von W . Sei weiterhin ϕ : V → W eine lineare Abbildung,
B 0 = {w
und sei A := B 0 [ϕ]B .
Dann gilt
cB 0 ◦ ϕ = ϕA ◦ cB .
Beweis: Sei 1 ≤ i ≤ n.
z.z.:cB 0 ◦ ϕ(~vi ) = ϕA ◦ cB (~vi )
~ 1 + · · · + ami w
~ m , dann gilt
Sei ϕ(~vi ) = a1i w
a1i ..
cB 0 ◦ ϕ(~vi ) = cB 0 (ϕ(~vi )) =
.
ami
a1i ..
ϕA ◦ cB (~vi ) = ϕA (~
ei ) = A · e~i =
.
ami
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
601 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Ein kommutatives Abbildungsdiagramm
Das folgende Abbildungsdiagramm ist also kommutativ:
V
cB
ϕ
W
cB 0
ϕA
Kn
Km
cB 0 ◦ ϕ = ϕA ◦ cB
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
602 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Motivation der Matrixmultiplikation
Das folgende Korollar zeigt, dass die Matrixmultiplikation durch die
Kompatibilität mit der Hintereinanderschaltung linearer Abbildungen
motiviert ist:
Korollar 6.2.3
Es seien U, V und W drei endlich-dimensionale K -Vektorräume und
ϕ : U → V und ψ : V → W lineare Abbildungen. Ist B Basis von U, B 0
Basis von V und B 00 Basis von W , so gilt
B 00 [ψ
Prof. Dr. Bernhard Steffen
◦ ϕ]B =
B 00 [ψ]B 0
·
B 0 [ϕ]B .
Mathematik für Informatiker 1 - 2012
603 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Motivation der Matrixmultiplikation
Korollar 6.2.3
Es seien U, V und W drei endlich-dimensionale K -Vektorräume und ϕ : U → V und
ψ : V → W lineare Abbildungen. Ist B Basis von U, B 0 Basis von V und B 00 Basis von
W , so gilt
B 00 [ψ ◦ ϕ]B = B 00 [ψ]B 0 · B 0 [ϕ]B .
Beweis: Sei B = {~
u1 , . . . , u~n }, 1 ≤ i ≤ n.
z.z.:
|B
00
B 00 [ψ
[ψ ◦ ϕ]B ·~
e = 00 [ψ]B 0 · B 0 [ϕ]B ·~
e
| {z } | {z } i
{z } i B
D
C
A
◦ ϕ]B · e~i = ϕD ◦ cB (~
ui )
ui )
= cB 00 ◦ (ψ ◦ ϕ)(~
= (cB 00 ◦ ψ) ◦ ϕ(~
ui )
= (ϕC ◦ cB 0 ) ◦ ϕ(~
ui )
= ϕC ◦ (cB 0 ◦ ϕ)(~
ui )
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
604 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Motivation der Matrixmultiplikation
Korollar 6.2.3
Es seien U, V und W drei endlich-dimensionale K -Vektorräume und ϕ : U → V und
ψ : V → W lineare Abbildungen. Ist B Basis von U, B 0 Basis von V und B 00 Basis von
W , so gilt
B 00 [ψ ◦ ϕ]B = B 00 [ψ]B 0 · B 0 [ϕ]B .
Beweis: Sei B = {~
u1 , . . . , u~n }, 1 ≤ i ≤ n.
z.z.:
B 00 [ψ
|B
00
e = 00 [ψ]B 0 · B 0 [ϕ]B ·~
e
[ψ ◦ ϕ]B ·~
| {z } | {z } i
{z } i B
D
C
A
ui )
◦ ϕ]B · e~i = ϕC ◦ (cB 0 ◦ ϕ)(~
= ϕC ◦ (ϕA ◦ cB )(~
ui )
= ϕC (ϕA (cB (~
ui )))
= ϕC (ϕA (~
ei ))
= ϕC (B 0 [ϕ]B · e~i ) =B 00 [ψ]B 0 ·B 0 [ϕ]B · e~i
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
605 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Assoziativität der Matrixmultiplikation
Man kann die Assoziativität der Matrixmultiplikation durch Ausrechnen
zeigen, eleganter folgt das mit diesem Korollar:
Korollar 6.2.4
Die Matrixmultiplikation ist assoziativ, d.h. für A ∈ K m×n , B ∈ K n×p und
C ∈ K p×q gilt
(A · B) · C = A · (B · C ).
Dies folgt leicht durch Betrachtung der zugehörigen linearen Abbildungen
ϕA , ϕB , ϕC aus Satz 6.2.3, da die Hintereinanderschaltung von
Abbildungen assoziativ ist.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
606 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Basiswechsel
Im Folgenden wollen wir uns nicht auf die lineare Abbildung selbst
konzentrieren, sondern die Darstellung von Vektoren bezgl.
unterschiedlicher Basen (desselben Vektorraums) untersuchen.
Sei also V ein K -Vektorraum mit dim V = n und idV : V → V die
identische Abbildung.
Definition 6.2.5 (Basiswechselmatrix)
Sei V ein K -Vektorraum mit Basen B = (~v1 , . . . , ~vn ) und
~ n ). Dann heißt die Matrix Q = (qij ) := B 0 [idV ]B
B 0 = (~
w1 , . . . , w
Basiswechselmatrix.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
607 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Basiswechsel (Forts.)
Jeder Vektor ~v ∈ V lässt sich sowohl bzgl. B als auch bzgl. B 0 eindeutig
darstellen:
n
n
X
X
~v =
~i ,
si ~vi und ~v =
si0 w
i=1
das heißt
 
s1
 .. 
cB (~v ) =  . 
sn
i=1
und
 0
s1
 .. 
cB 0 (~v ) =  .  .
sn0
Mit Hilfe der Basiswechselmatrix Q = (qij ) lässt sich die eine Darstellung
leicht aus der anderen gewinnen:
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
608 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Basiswechsel (Forts.)
Lemma 6.2.6
Die Voraussetzungen und Notationen seien wie in Definition 6.2.5. Für
jeden Vektor ~v ∈ V gilt dann
cB 0 (~v ) = Q · cB (~v ),
und insbesondere erhält man für jeden Basisvektor ~vj die folgende
Darstellung:
n
X
~i .
~vj =
qij w
i=1
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
609 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Iterierter Basiswechsel
Wir können nun die Abbildung idV auch bezgl. iterierter Basiswechsel
betrachten:
B → B0 → B
B0 → B → B0
Mit Satz 6.2.3 gilt dann (wegen idV ◦ idV = idV )
B 0 [idV ]B
·
B [idV ]B 0
=
B 0 [idV ]B 0
B [idV ]B 0
·
B 0 [idV ]B
=
B [idV ]B
=
En
und
=
En ,
wobei En ∈ K n×n die n × n Einheitsmatrix ist. Folglich ist B [idV ]B 0 = Q −1
die zu Q := B 0 [idV ]B inverse Matrix.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
610 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Invertierbarkeit der Basiswechselmatrix
Satz 6.2.7
Sei V ein K -Vektorraum der Dimension n, seien B, B 0 Basen von V . Dann
ist die Basiswechselmatrix Q =B 0 [idV ]B invertierbar, die inverse Matrix ist
Q −1 =B [idV ]B 0 .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
611 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Basiswechsel bei linearen Abbildungen
Wir untersuchen nun, wie sich Basiswechsel auf die Matrizen linearer
Abbildungen auswirken:
Satz 6.2.8
Es seien V und W zwei endlich-dimensionale K -Vektorräume und
ϕ : V → W eine lineare Abbildung. Weiter seien B und B 0 Basen von V
und C und C 0 Basen von W . Dann ist
C 0 [ϕ]B 0
Prof. Dr. Bernhard Steffen
=
C 0 [idW ]C
·
C [ϕ]B
·
Mathematik für Informatiker 1 - 2012
B [idV ]B 0
.
612 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Basiswechsel – Beispiel
Wir betrachten den Vektorraum V = R2 mit den Basen
1
0
1
1
0
~ 2} =
B = {~
e1 , e~2 } =
,
und B = {~
w1 , w
,
0
1
2
−1
Es sei ϕ : V → V die durch
ϕ(~
e1 ) =
− 31
4
3
!
und ϕ(~
e2 ) =
2
3
1
3
!
definierte lineare Abbildung. Dann ist für beliebige Vektoren
1
x1
− 3 x1 + 32 x2
ϕ
.
= x1 ϕ(~
e1 ) + x2 ϕ(~
e2 ) =
4
1
x2
3 x1 + 3 x2
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
613 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Basiswechsel – Beispiel (Forts.)
Wegen
ϕ(~
e1 ) =
− 13
und
ϕ(~
e2 ) =
!
4
3
2
3
1
3
!
ist
B [ϕ]B
1
4
= − e~1 + e~2
3
3
=
=
2
1
e~1 + e~2
3
3
2
3
1
3
!
B [ϕ]B
·
− 13
4
3
Mit Satz 6.2.8 ist dann
B 0 [ϕ]B 0
mit
B 0 [idV ]B
=
B 0 [idV ]B
·
B [idV ]B 0
= (B [idV ]B 0 )−1 .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
614 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Basiswechsel – Beispiel (Forts.)
Man sieht sofort, dass
B [idV ]B 0
1
=
!
1
2 −1
ist, daraus erhält man durch Invertieren
B 0 [idV ]B
Prof. Dr. Bernhard Steffen
=
1
3
2
3
1
3
!
− 13
Mathematik für Informatiker 1 - 2012
.
615 / 669
Lineare Abbildungen und Matrizen
Matrix einer linearen Abbildung
Basiswechsel – Beispiel (Forts.)
Insgesamt ist also
B 0 [ϕ]B 0
=
=
=
!
1
3
1
3
2
3
·
− 13
1
3
1
3
1
3
− 23
1
0
0 −1
!
·
2
3
1
3
− 13
4
3
1
1
!
·
1
1
!
2 −1
!
2 −1
!
.
♣
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
616 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Übersicht Kapitel 11
Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildungen
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz über lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
617 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Kapitel 11
Lineare Abbildungen und Matrizen
11.3 Dimensionssatz und
Homomorphiesatz
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
618 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Kern und Bild
Auch bei Vektorraumhomomorphismen sind Kern und Bild besonders
interessant:
Definition 6.3.1 (Kern und Bild einer linearen Abbildung)
Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare
Abbildung. Dann ist
Kern(ϕ) := { ~v ∈ V | ϕ(~v ) = ~0 } ⊆ V
Bild(ϕ) := { ϕ(~v ) | ~v ∈ V } = ϕ(V ) ⊆ W
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
619 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Kern und Bild – Beispiel
Wir betrachten den R-Vektorraum V = W = R2 und die lineare
Abbildung ϕ : V → W mit
x
x −y
1 −1
x
ϕ
:=
=
·
.
y
y −x
−1 1
y
Dann ist
x
Kern(ϕ) =
∈ R2
y
und
Bild(ϕ) =
Prof. Dr. Bernhard Steffen
1
x −y =0 ∧ y −x =0 =
1
a
1
∈ R2 b = −a =
b
−1
Mathematik für Informatiker 1 - 2012
620 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Kern und Bild – Beispiel (Forts.)
Kern(ϕ)
Bild(ϕ)
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
621 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Kern, Bild und Homomorphismen
Satz 6.3.2
Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare
Abbildung. Dann gilt:
(i) Kern(ϕ) ist Teilraum von V und
Kern(ϕ) = {~0} ⇔ ϕ injektiv (Monomorphismus).
(ii) Bild(ϕ) ist Teilraum von W und
Bild(ϕ) = W ⇔ ϕ surjektiv (Epimorphismus).
Ist V = h~v1 , . . . , ~vn i, so ist Bild(ϕ) = hϕ(~v1 ), . . . , ϕ(~vn )i
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
622 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Der Dimensionssatz
Satz 6.3.3 (Dimensionssatz für Homomorphismen)
Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare
Abbildung. Ist V endlich-dimensional, so ist
dim V = dim Kern(ϕ) + dim Bild(ϕ)
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
623 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Rang einer linearen Abbildung
Definition 6.3.4
Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare
Abbildung. Der Rang von ϕ ist die Dimension von Bild(ϕ), also
Rang (ϕ) := dim Bild(ϕ).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
624 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Eigenschaften des Rangs
Satz 6.3.5
Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare
Abbildung. Ist V endlich dimensional, so gilt:
(i) ϕ surjektiv ⇔ Rang (ϕ) = dimW
(ii) ϕ injektiv ⇔ Rang (ϕ) = dimV
(iii) Ist dimV = dimW , so gilt: ϕ surjektiv ⇔ ϕ injektiv.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
625 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Kern, Bild und Gleichungssysteme
Es sei A eine m × n Matrix über dem Körper K , also A ∈ K m×n , und
ϕA : K n → K m ,
~x 7→ A · ~x .
Dann ist Kern(ϕA ) = { ~x ∈ K n | A · ~x = ~0 } die Lösungsmenge des duch die
Matrix A gegebenen homogenen linearen Gleichungssystems A · ~x = ~0.
Nach dem Dimensionssatz 6.3.3 gilt
dim Kern(ϕA ) = n − Rang (ϕA ).
Für ~b ∈ K m ist die Lösungsmenge { ~x ∈ K n | A · ~x = ~b } des
(inhomogenen) linearen Gleichungssystems A · ~x = ~b das Urbild des
Vektors ~b unter der Abbildung ϕA , also
~
{ ~x ∈ K n | A · ~x = ~b } = ϕ−1
A (b).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
626 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Rang und Isomorphismen
Kombiniert man eine lineare Abbildung mit Isomorphismen, so ändert sich
ihr Rang nicht.
Satz 6.3.6
Seien U, V , W , Y K -Vektorräume, sei ϕ : V → W eine lineare Abbildung,
seien ϕ1 : U → V und ϕ2 : W → Y Isomorphismen. Dann ist
Rang (ϕ) = Rang (ϕ ◦ ϕ1 )
= Rang (ϕ2 ◦ ϕ)
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
627 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Nebenklassen von Teilräumen
Bei Gruppen haben wir Restklassen und Faktorgruppen kennengelernt,
solche Strukturen gibt es auch bei Vektorräumen:
Definition 6.3.7
Ist U ein Teilraum des K -Vektorraums V und ~v0 ∈ V , dann sei
~v0 + U := { ~v0 + u~ | u~ ∈ U }.
Man nennt ~v0 + U auch die Nebenklasse oder Restklasse von ~v0 nach U.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
628 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Nebenklassen – Beispiel
1 2
V =R , U= s·
s ∈ R , ~v0 =
2
0
2
1 s∈R
⇒ ~v0 + U =
+s ·
0
2 2
y
~v0 + U
U
3
2
1
~v0
1
Prof. Dr. Bernhard Steffen
2
3
x
Mathematik für Informatiker 1 - 2012
629 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Nebenklassen und lineare Abbildungen
Nebenklassen entstehen z.B. durch Bildung von Urbildern linearer
Abbildungen:
Satz 6.3.8
Es seien V und W zwei K -Vektorräume, ϕ : V → W eine lineare
Abbildung
~ ∈ W mit ϕ(~v0 ) = w
~ . Dann ist
Weiter seien ~v0 ∈ V und w
ϕ−1 (~
w ) = ~v0 + Kern(ϕ).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
630 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Nebenklassen – Beispiel
A=
Bild(ϕ)
2 −6
−1 3
∈ K 2×2 ,
ϕA : R2 → R2 , ~x 7→ A · ~x
3
2
⇒ Kern(ϕ) = h
i, Bild(ϕ) = h
i
1
−1
4 .
~ = −2
Sei w
y
Dann ist ( 20 ) ∈ ϕ−1 (~
w ), und damit
3
gilt
2
Kern(ϕ)
4
ϕ−1 −2
= {( 20 ) + s · ( 31 )|s ∈ R} .
1
−2 −1
1
ϕ−1 (~
w)
Prof. Dr. Bernhard Steffen
2
3
x
Mathematik für Informatiker 1 - 2012
631 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Partitionierung durch Nebenklassen
Lemma 6.3.9
Die Menge der Nebenklassen eines Teilraums U des K -Vektorraums V
bildet eine Partitionierung der Menge V .
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
632 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Partitionierung durch Nebenklassen – Beispiel
V = R2 =
[
~
v0
=
(~v0 + U), U = Kern(ϕ)
∈R2
3 2
~
~v0 + s ·
v
∈
R
,
s
∈
R
1 0
V lässt sich in Nebenklassen nach U zerlegen.
y
2
U
1
x
−2 −1
1
Prof. Dr. Bernhard Steffen
2
Mathematik für Informatiker 1 - 2012
633 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Partitionierung durch Nebenklassen – Beispiel
V = R2 =
[
~
v0
=
(~v0 + U), U = Kern(ϕ)
∈R2
3 2
~
~v0 + s ·
v
∈
R
,
s
∈
R
1 0
V lässt sich in Nebenklassen nach U zerlegen.
y
2
U
1
x
−2 −1
1
Prof. Dr. Bernhard Steffen
2
Mathematik für Informatiker 1 - 2012
634 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Partitionierung durch Nebenklassen – Beispiel
V = R2 =
[
~
v0
=
3 2
~
~v0 + s ·
v
∈
R
,
s
∈
R
1 0
Die Nebenklasse zu einem Punkt in V ist
~ ∈V
eindeutig bestimmt. Sei w
y
2
~U
w
1
x
~ +U
w
−2 −1
Prof. Dr. Bernhard Steffen
(~v0 + U), U = Kern(ϕ)
∈R2
1
2
⇒ Es gibt genau eine Nebenklasse die
~ enthält.
w
Mathematik für Informatiker 1 - 2012
635 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Faktorraum
Satz 6.3.10 (Restklassenraum, Faktorraum, Quotientenraum)
Es seien V ein K -Vektorraum und U ein Teilraum von V . Weiter sei
V /U := { ~v + U | ~v ∈ V }
~ ∈ V und s ∈ K definiert
die Menge der Nebenklassen nach U. Für ~v , w
man
~)+U
(~v + U) + (~
w + U) := (~v + w
und
s · (~v + U) := (s · ~v ) + U,
damit wird V /U ein K -Vektorraum. V /U wird Restklassenraum,
Quotientenraum oder Faktorraum von V nach U genannt.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
636 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Die Abbildung π : V → V /U
Lemma 6.3.11
Es seien V ein K -Vektorraum, U ein Teilraum von V und V /U der
Faktorraum von V nach U.
Die Abbildung π : V → V /U mit π(~v ) := ~v + U ist ein Epimorphismus
mit Kern(π) = U.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
637 / 669
Lineare Abbildungen und Matrizen
Dimensionssatz und Homomorphiesatz
Der Homomorphiesatz
Satz 6.3.12 (Homomorphiesatz für Vektorräume)
Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare
Abbildung. Dann ist die Abbildung Φ : V /Kern(ϕ) → Bild(ϕ) mit
Φ(~v + Kern(ϕ)) := ϕ(~v )
ein Isomorphismus.
Daraus folgt sofort:
Korollar 6.3.13
Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare
Abbildung. Dann ist
V /Kern(ϕ) ∼
= Bild(ϕ).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
638 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Übersicht Kapitel 11
Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildunge
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz über lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
639 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Kapitel 11
Lineare Abbildungen und Matrizen
11.4 Hauptsatz über lineare
Gleichungssysteme
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
640 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Rang einer Matrix
Um den Rang einer Matrix zu definieren, nutzen wir die Verbindung
zwischen Matrizen und linearen Abbildungen.
Definition 6.4.1 (Rang einer Matrix)
Zu einer n × m Matrix A über dem Körper K , also A ∈ K n×m , betrachten
wir die zugehörige lineare Abbildung
ϕA : K m → K n ,
~x 7→ A · ~x .
Dann ist der Rang der Matrix A definiert als
Rang (A) := Rang (ϕA ) = dim Bild(ϕA ).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
641 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Ränge von linearen Abbildungen und Matrizen
Die Rangbegriffe von Matrizen und linearen Abbildungen sind voll
miteinander kompatibel.
Satz 6.4.2
Es seien V und W zwei K -Vektorräume, B = {~v1 , . . . , ~vn } eine Basis von
~ m } eine Basis von W . Für eine lineare Abbildung
V und B 0 = {~
w1 , . . . , w
ϕ : V → W gilt dann
Rang (ϕ) = Rang (B 0 [ϕ]B ).
Insbesondere ist der Rang der Matrizen
der speziellen B, B 0 .
Prof. Dr. Bernhard Steffen
B 0 [ϕ]B
unabhängig von der Wahl
Mathematik für Informatiker 1 - 2012
642 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Spaltenraum einer Matrix
Im Folgenden sei A eine n × m Matrix über dem Körper K , also


a11 · · · a1m

..  ∈ K n×m .
A =  ...
. 
an1 · · · anm
Definition 6.4.3 (Spaltenraum)
Der Spaltenraum SR(A) ist der Teilvektorraum von K n , der durch die
Spalten von A erzeugt wird, also
   


* a11
a12
a1m +
 ..   .. 
 . 
SR(A) :=
 .  ,  .  , . . . ,  ..  .
an1
an2
anm
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
643 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Zeilenraum einer Matrix
Definition 6.4.4 (Zeilenraum)
Der Zeilenraum ZR(A) ist der Teilvektorraum von K 1×m , der durch die
Zeilen von A erzeugt wird, also
ZR(A) := h(a11 , . . . , a1m ), (a21 , . . . , a2m ), . . . , (an1 , . . . , anm )i
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
644 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Rang (A) als Invariante
Elementare Spaltenumformungen lassen sich analog zu elementaren
Zeilenumformungen definieren (vgl. Kapitel 11.2).
Satz 6.4.5 (Charakterisierung des Rangs einer Matrix)
Es sei A eine n × m Matrix über dem Körper K . Dann gilt:
(i) Rang (A) = dim SR(A), d.h., der Rang von A ist die Dimension ihres
Spaltenraumes.
(ii) Der Rang von A ändert sich durch elementare Spaltenumformungen
nicht.
(iii) Der Rang von A ändert sich durch elementare Zeilenumformungen
nicht.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
645 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Zeilenrang = Rang = Spaltenrang
Satz 6.4.6
Es sei A eine n × m Matrix über dem Körper K . Dann gilt:
(i) Man kann A durch elementare Zeilen- und Spaltenumformungen auf
die Form


1

0

 ..
.

0

0

.
 ..
1
..
.
···
···
···
..
.
..
.
0
0
..
.
0
···
0
0
0
..
.
···
0 0
1 0
0 0
.. ..
. .
0 0
···
···
···
0
..
.
···
0
.. 
.


0

0

0

.. 
.
0
(6.6)
mit r Einsen auf der Hauptdiagonalen bringen. Insbesondere erhält
man dadurch Rang (A) = r .
(ii) Rang (A) = dim(SR(A)) = dim(ZR(A)).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
646 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix

1 2 3 4

2 4 7 8
rang
3 6 9 12

1 2 3 4

0 0 1 0
=rang
0 0 0 0
Prof. Dr. Bernhard Steffen

−1 4 3 5
13 14 5 0 
2 10 4 −5
−1
15
5
4
6
−2
Mathematik für Informatiker 1 - 2012
3
−1
−5
(−2)
(−3)

5
− 10 
− 20
647 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix

3
5
1 2 3 4 −1 4
rang  0 0 1 0 15 6 −1 −10 
0 0 0 0 5 −2 −5 −20


1 0 0 0 0
0
0
0
6
− 1 − 10 
=rang  0 0 1 0 15
0 0 0 0 5 − 2 − 5 − 20

Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
648 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix

1 0 0 0

0 0 1 0
rang
0 0 0 0

1 0 0 0

0 0 1 0
=rang
0 0 0 0
Prof. Dr. Bernhard Steffen

0
0
0
0
15 6 −1 −10 
5 −2 −5 −20

0
0
0
0
0
0
0
0 
5 − 2 − 5 − 20
Mathematik für Informatiker 1 - 2012
649 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix

1 0 0 0

0 0 1 0
rang
0 0 0 0

1 0 0 0

0 0 1 0
=rang
0 0 0 0
Prof. Dr. Bernhard Steffen

0 0
0
0
0 0
0
0 
|·
5 −2 −5 −20

0
0
0
0
0
0
0
0 
2
1 − 5 −1 −4
Mathematik für Informatiker 1 - 2012
1
5
650 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix

1 0 0 0

0 0 1 0
rang
0 0 0 0

1 0 0 0

0 0 1 0
=rang
0 0 0 0
Prof. Dr. Bernhard Steffen
0 0
0 0
1 − 25
0
0
1
0
0
0
Mathematik für Informatiker 1 - 2012

0
0
0
0 
−1 −4

0
0
0
0 
0
0
651 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix

1 0 0 0

0 0 1 0
rang
0 0 0 0

1 0 0 0

0 1 0 0
=rang
0 0 0 0
Prof. Dr. Bernhard Steffen

0 0 0 0
0 0 0 0 
1 0 0 0

0 0 0 0
0 0 0 0 
1 0 0 0
Mathematik für Informatiker 1 - 2012
652 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix

1 0 0 0
rang  0 1 0 0
0 0 0 0

1 0 0 0
=rang  0 1 0 0
0 0 1 0

0 0 0 0
0 0 0 0 
1 0 0 0

0 0 0 0
0 0 0 0 
0 0 0 0
=3
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
653 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Hauptsatz über lineare Gleichungssysteme I
Damit können wir nun direkt Aussagen über Lösbarkeit und Lösungsmenge
linearer Gleichungssysteme machen.
Satz 6.4.7 (Hauptsatz über homogene lineare Gleichungssysteme)
Es sei A ∈ K n×m .
(i) Die Lösungsmenge L := {~x ∈ K m | A · ~x = ~0} des homogenen linearen
Gleichungssystems A · ~x = ~0 ist ein Teilraum von K m mit
dim L = m − Rang (A).
(ii) Insbesondere ist A · ~x = ~0 genau dann eindeutig lösbar, wenn
Rang (A) = m ist.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
654 / 669
Lineare Abbildungen und Matrizen
Hauptsatz /”uber lineare Gleichungssysteme
Hauptsatz über lineare Gleichungssysteme II
Satz 6.4.8 (Hauptsatz über inhomogene lin. Gleichungssysteme)
Es sei A ∈ K n×m , sei ~b ∈ K m .
(i) Das inhomogene lineare Gleichungssystem A · ~x = ~b ist genau dann lösbar,
wenn Rang (A) = Rang ([A, ~b]), wobei [A, ~b] die erweiterte Matrix des
linearen Gleichungssystems A · ~x = ~b ist.
(ii) Ist v~0 ∈ K m mit A · v~0 = ~b eine Lösung des Gleichungssystems, so kann die
Lösungsmenge
L~b := {~x ∈ K m | A · ~x = ~b}
geschrieben werden als (L wie in Satz 6.4.7)
~ ∈ Km | w
~ ∈ L}.
L~b = v~0 + L = {v~0 + w
Insbesondere ist das inhomogene lin. Gleichungssystem A · ~x = ~b genau dann
eindeutig lösbar, wenn Rang (A) = m und L~b 6= 0 ist.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
655 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
Übersicht Kapitel 11
Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildungen
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz über lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
656 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
Kapitel 11
Lineare Abbildungen und Matrizen
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
657 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
Der Raum Hom(V , W ) der Homomorphismen
Definition 6.5.1 (Hom(V , W ), Endomorphismen)
Es seien V und W zwei K -Vektorräume. Dann bezeichnen wir die Menge
der linearen Abbildungen von V nach W mit
Hom(V , W ) := {ϕ : V → W | ϕ linear}.
Im Spezialfall V = W bezeichnen wir eine lineare Abbildung von V nach
V auch als Endomorphismus und setzen
End(V ) := {ϕ : V → V | ϕ linear}.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
658 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
Der Raum Hom(V , W ) der Homomorphismen (Forts.)
Satz 6.5.2
Es seien V und W zwei K -Vektorräume.
(i) Die Menge Hom(V , W ) bildet einen Teilraum des K -Vektorraums
Abb(V , W ) aller Abbildungen von V nach W .
(ii) Ist dim(V ) = n und dim(W ) = m, so ist Hom(V , W ) ∼
= K m×n .
Insbesondere ist dim(Hom(V , W )) = m · n.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
659 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
Der Ring der Endomorphismen
Satz 6.5.3
Es sei V ein K -Vektorraum. Die Menge der Endomorphismen End(V )
bildet mit der Addition
(ϕ + ψ)(~v ) := ϕ(~v ) + ψ(~v )
für ϕ, ψ ∈ End(V ), ~v ∈ V
und der Multiplikation
(ϕ ◦ ψ)(~v ) := ϕ(ψ(~v ))
für ϕ, ψ ∈ End(V ), ~v ∈ V
einen Ring mit Eins.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
660 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
Matrix ≡ Endomorphismus
Satz 6.5.4
Ist dim(V ) = n und B eine Basis von V , dann ist
µB : End(V ) → K n×n
ϕ 7→
B [ϕ]B
ein Ring-Isomorphismus, d.h., µB ist bijektiv mit
µB (ϕ + ψ) = µB (ϕ) + µB (ψ)
und
µB (ϕ ◦ ψ) = µB (ϕ) · µB (ψ)
für ϕ, ψ ∈ End(V ).
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
661 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
K-Algebren
Definition 6.5.5 (K -Algebra)
Es sei K ein Körper. Ein Ring R mit Eins, der gleichzeitig ein
K -Vektorraum ist (mit derselben Addition wie im Ring), so dass außerdem
noch
s · (a · b) = (s · a) · b = a · (s · b)
für alle s ∈ K , a, b ∈ R (6.7)
gilt, heißt eine K -Algebra (mit Eins).
Endomorphismenringe und Matrizenringe sind also K -Algebren.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
662 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
Automorphismen
Satz 6.5.6 (Automorphismen, volle lineare Gruppe)
(i) Ist V ein K -Vektorraum, so ist
GL(V ) := {ϕ ∈ End(V ) | ϕ ist bijektiv}
zusammen mit der Verknüpfung von Abbildungen “ ◦ “ eine Gruppe,
genannt die volle lineare Gruppe. Die Elemente von GL(V ) heißen
auch Automorphismen.
(ii) Für n ∈ N ist
GL(n, K ) := {A ∈ K n×n | A invertierbar},
mit der Matrixmultiplikation eine Gruppe, die Gruppe der regulären
n × n Matrizen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
663 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
GL(V ) ∼
= GL(n, K )
Lemma 6.5.7
Sind V ein K -Vektorraum mit dim V = n und B eine Basis von V , so ist
µB : GL(V ) → GL(n, K )
ϕ 7→
B [ϕ]B
ein Isomorphismus von Gruppen, das heißt µB ist bijektiv und
µB (ϕ ◦ ψ) = µB (ϕ) · µB (ψ)
Prof. Dr. Bernhard Steffen
für ϕ, ψ ∈ GL(V ).
Mathematik für Informatiker 1 - 2012
(6.8)
664 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
Charakterisierung von GL(V ) und GL(n, K )
Korollar 6.5.8
Es sei V ein K -Vektorraum mit dim V = n, ϕ ∈ End(V ) und A ∈ K n×n .
Dann gilt
ϕ ∈ GL(V )
⇐⇒ Rang (ϕ) = n
und
A ∈ GL(n, K )
⇐⇒
Rang (A) = n.
Mit Satz 6.4.8 folgt dann:
Korollar 6.5.9
Es sei A ∈ K n×n , sei ~b ∈ K n . Das lineare Gleichungssystem A · ~x = ~b ist
genau dann eindeutig lösbar, wenn A invertierbar, also A ∈ GL(n, K ) ist.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
665 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
GL(V ) ist (i.Allg.) nicht kommutativ
Bemerkung:
Ist V ein K -Vektorraum mit dim V > 1, so ist GL(V ) nicht kommutativ.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
666 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
Zeilenumformungen und Invertierbarkeit von Matrizen
Aus Kapitel 10.2 wissen wir:
Es sei A ∈ GL(n, K ). Bringt man die n × 2n Matrix (A, En ) durch
elementare Zeilenoperationen auf Stufenform, so erhält man eine
n × 2n Matrix der Form (En , U), wobei U = A−1 ist.
Ist A nicht regulär, so lässt sich die Matrix (A, En ) durch elementare
Zeilenoperationen nicht in diese Form bringen.
Jede elementare Zeilenoperation entspricht der Multiplikation mit
einer regulären Matrix von links (Satz 10.2.4). Diese Matrizen werden
auch Elementarmatrizen genannt.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
667 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
Elementarmatrizen
Definition 6.5.10 (Elementarmatrizen)
Es sei n ∈ N, i, j ∈ {1, . . . , n} mit i 6= j und s ∈ K \{0}.
(i) Die Elementarmatrix Vi,j ∈ GL(n, K ) entsteht aus der Einheitsmatrix
En durch Vertauschen der i-ten und j-ten Zeile.
(ii) Die Elementarmatrix Mi (s) ∈ GL(n, K ) entsteht aus der
Einheitsmatrix En durch Multiplikation der i-ten Zeile mit s.
(iii) Die Elementarmatrix Ai,j (s) ∈ GL(n, K ) entsteht aus der
Einheitsmatrix En durch Addition des s-fachen der i-ten Zeile zur
j-ten Zeile.
Diese Matrizen sind gerade die im Zusammenhang mit Satz 10.2.4
behandelten Matrizen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
668 / 669
Lineare Abbildungen und Matrizen
Algebra der linearen Abbildungen
Matrizen aus GL(n, K )
Lemma 6.5.11
Die inverse Matrix einer Elementarmatrix ist selbst eine Elementarmatrix.
Da die Umformungsmatrix einer regulären Matrix das Inverse der Matrix
ist und diese Umformungsmatrix als Produkt von Elementarmatrizen
entsteht, folgt sofort:
Satz 6.5.12
Jede Matrix A ∈ GL(n, K ) ist ein Produkt von Elementarmatrizen.
Prof. Dr. Bernhard Steffen
Mathematik für Informatiker 1 - 2012
669 / 669
Herunterladen