3.2 Unterräume

Werbung
3.2
Unterräume
Definition 3.2.1 Sei V ein K-Vektorraum. Eine Teilmenge U ⊆ V heißt
ein Unterraum von V , falls gilt:
[UV1]
U 6= { }.
[UV2]
Für alle v, w ∈ U gilt v + w ∈ U.
[UV3]
Für alle v ∈ U und λ ∈ K gilt v · λ ∈ U.
[UV2] bedeutet Abgeschlossenheit bezüglich der Addition, [UV3] ist die
Abgeschlossenheit bzgl. der Skalarmultiplikation. Bezeichnung U ≤ V .
Lemma 3.2.2 Ein Unterraum ist ein Vektorraum.
Beweis Weil die Addition und Skalarmultiplikation aus V “vererbt” (induziert) ist, gelten sicherlich die notwendigen Assoziativ- und Distributivgesetze. Ferner ist durch die induzierte Verknüpfung eine binäre Verknüpfung auf
U erklärt, genauer:
⊕:U ×U →U
und
⊙:U ×K→ U
Zu zeigen ist, dass das additiv Inverse −u von u ∈ U auch in U liegt, und
dass 0 ∈ U gilt. Nun ist −u = u ⊙ (−1), also −u ∈ U wegen [UV3]. Ebenso
gilt 0 = u ⊙ 0, also 0 ∈ U.
Beispiel 3.2.3 (1.) {0} und V sind (triviale) Unterräume von V .
(2.) K[x] ≤ K[[x]].
(3.) SeiV =R3 . Wir betrachten die folgenden Teilmengen W von V (dabei
x1

ist x = x2 ):
x3
(1.) W := {x : x1 + x2 − x3 = 0}
53
(2.) W := {x : x1 + x2 − x3 = 1}
(3.) W := {x : x1 + 3x2 = 0, x2 − 5x3 = 0}
(4.) W := {x : x31 − x22 = 0}
(5.) W := {x : x1 x2 ≥ 0}
Man rechnet nach, dass nur die Beispiele (1) und (3) Unterräume sind.
Die wichtigste Klasse von Unterräumen sind die Lösungsmengen homogener
Gleichungssysteme:
Beispiel 3.2.4 Sei A ∈ K(m,n) . Dann ist
W = {x ∈ Kn : Ax = 0}
ein Unterraum von Kn .
Der Schnitt von beliebigen Unterräumen ist wieder ein Unterraum. Die Vereinigung von Unterräumen ist im allgemeinen kein Unterraum:
Satz 3.2.5
Sei Wi , i ∈ I, eine Familie von Unterräumen von V . Dann ist
T
W := i∈I ein Unterraum von V .
Beweis Klar ist 0 ∈ W , also W 6= { }. Zu [UV2]: Ist u, v ∈ W , so gilt nach
Definition von W sogar u, v ∈ Wi für alle i ∈ I, und damit u + v ∈ Wi für
alle i ∈ I, somit u + v ∈ W . Man zeigt uλ ∈ W für u ∈ W genauso.
Es sei auf folgendes hingewiesen: Die hier gemachte Behauptung ist stärker
als die Behauptung U1 ∩ U2 ist Unterraum für zwei Unterräume U1 und U2 .
Aus der Behauptung könnten wir nämlich nicht folgern, dass der Schnitt über
beliebige Familien von Unterräumen wieder ein Unterraum ist.
Die Frage ist, ob denn in der Praxis solche Schnitte vorkommen. Ja, sie
kommen sehr wohl vor:
54
Definition 3.2.6 Sei S ⊆ V . Dann heißt
\
hSi :=
T
S⊆T ≤V
der von S erzeugte Unterraum.
Der hier definierte Unterraum heißt auch das Erzeugnis von S. Das es wirklich ein Unterraum ist, folgt aus Satz 3.2.5. Es ist der kleinste S umfassende
Unterraum! Es gibt eine andere Möglichkeit, das Erzeugnis von S zu beschreiben:
Satz 3.2.7 Ist S ⊆ V eine nicht-leere Teilmenge von V , so besteht S aus
allen Linearkombinationen von S.
Beweis (Skizze) Man überlegt sich zunächst, dass alle Linearkombinationen von S in hSi liegen müssen. Dann zeigt man, dass die Menge aller Linearkombinationen einen Vektorraum bilden, der natürlich S umfaßt. Damit
ist die Menge der Linearkombinationen von S der kleinste S umfassende
Unterraum.
S
Sind W1 , . . . , Wk Unterräume von V , so nennt man den von ki=1 Wi erzeugten Unterraum die Summe W1 + W2 + . . . + Wk . Man kann zeigen:
Satz 3.2.8 Sind Wi Unterräume von V , i = 1, . . . k, so gilt
W1 + . . . + Wk = {w1 + w2 + . . . + wk : wi ∈ Wi }.
Beweis Wie Beweis von Satz 3.2.7.
Definition 3.2.9 Sei U ein Unterraum von V . Dann heissen die Nebenklassen U + x := {u + x : u ∈ V } affine Unterräume. Wir wollen auch
die leere Menge als einen affinen Unterraum bezeichnen.
55
Satz 3.2.10 Sei A ∈ K(m,n) . Dann ist
W = {x ∈ Kn : Ax = b
ein affiner Unterraum U + v von Kn . Dabei ist U der Lösungsraum des
homogenen Systems Ax = 0, und v ist eine beliebige Lösung des inhomogenen
Systems W = {x ∈ Kn : Ax = b.
Dieser Satz bedeutet: Die allgemeine Lösung eines inhomogenen linearen
Gleichungssystems ist die Lösung des homogenen Systems plus einer (beliebigen) speziellen Lösung des inhomogenen Systems.
Lemma 3.2.11 Zwei affine Unterräume U + x und U + y sind gleich oder
disjunkt.
Beweis Angenommen v ∈ (U + x) ∩ (U + y), z.B. v = u + x = u′ + y. Ferner
sei u′′ + x ein beliebiger Vektor in U + x. Dann u′′ + x = u′′ + u′ − u + y, also
u′′ + x ∈ U + y.
Die affinen Unterräume U +x bilden eine Zerlegung von V . Wir haben gelernt,
dass zu dieser Zerlegung eine Äquivalenzrelation gehört. Diese Äquivalenzrelation kann man wie folgt angeben:
Satz 3.2.12 Ist U ein Unterraum von V , so ist die Relation ∼ auf V mit
u ∼ v ⇔ u − v ∈ U eine Äquivalenzrelation auf V . Die Äquivalenzklassen sind die affinen Unterräume U + x.
Beweis Es genügt zu zeigen:
u−v ∈U
⇔
u, v ∈ U + x für ein x ∈ V .
Sei also u − v ∈ U. Dann u, v ∈ U + v, was zu zeigen war. Die Umkehrung
ist klar.
Die Menge der Nebenklassen von U bezeichnet man als V /U (V modulo U).
Man kann V /U zu einem Vektorraum machen, den man den Faktorraum
nennt:
Satz 3.2.13 Sei V ein K-Vektorraum und U ein Unterraum von V . Dann
ist V /U ein K-Vektorraum, wenn die Addition und die Skalarmultiplikation
wie folgt definiert wird:
56
Addition:
(U + x) + (U + y) := U + (x + y) für alle x, y ∈ V
Skalarmultiplikation:
(U + x) · λ := U + xλ für alle x ∈ V, λ ∈ K.
Beweis Machen Sie sich klar, dass man nur die Wohldefiniertheit der Verknüpfung zeigen muss. Die Rechenregeln gelten, weil die Regeln schon für V
gelten.
3.3
Basis, lineare (Un)abhängigkeit, Dimension
Das Material dieses Kapitels gehört zu den Herzstücken einer jeden LAAG
Vorlesung und ist extrem beliebter Prüfungsstoff (in praktisch jeder mündlichen Prüfung wird danach gefragt).
Definition 3.3.1 Sei S ⊆ V . Dann heißt S linear abhängig, falls es
Vektoren v1 , . . . , vn ∈ S und Skalare λi ∈ K gibt mit
v1 λ1 + . . . + vn λn = 0,
wobei nicht alle λi gleich 0 sind. Andernfalls heißt S linear unabhängig.
Bemerkung 3.3.2 (1.) Teilmengen linear unabhängiger Mengen sind linear
unabhängig.
(2.) Ist S linear abhängig und S ⊆ T , so ist auch T linear abhängig.
(3.) Eine Menge S ist genau dann linear unabhängig, wenn alle endlichen
Teilmengen linear unabhängig sind.
Definition 3.3.3 Eine Teilmenge S ⊆ V mit hSi = V heißt Erzeugendensystem von V . Ein linear unabhängiges Erzeugendensystem ist eine Basis.
Ein Erzeugendensystem S heißt minimal, wenn S \ {v} für alle v ∈ S
kein Erzeugendensystem mehr ist. Wir nennen eine Menge S eine maximal
linear unabhängige Menge, wenn S ∪ {v} linear abhängig ist für alle v ∈
/ S.
Hat ein Vektorraum eine endliche Basis, so heißt er endlichdimensional.
57
Satz 3.3.4 Sei S = {vi : i ∈ I} ⊆ V eine Teilmenge des Vektorraums V .
Dann sind die folgenden Bedingungen gleichwertig:
1. S ist ein minimales Erzeugendensystem.
2. S ist ein linear unabhängiges Erzeugendensystem.
3. S ist eine maximal linear unabhängige Menge.
4. S ist eine Basis.
5. Jeder Vektor v ∈ V
bination
von S, d.h.
P
i∈I vi λi , wobei nur
die Summe gar nicht
hat eine eindeutige Darstellung als Linearkomes gibt eindeutig bestimmte Skalare λi mit v =
endlich viele λi 6= 0 sein dürfen (andernfalls ist
erklärt!).
Beweis siehe Vorlesung.
Bemerkung 3.3.5 (1.) Ist S linear unabhängig, so ist S eine Basis von
hSi.
(2.) Die kanonische Basis von Kn besteht aus den Vektoren {e1 , . . . , en },
wobei
 
γ1
 .. 
ei =  . 
γn
ist mit γj = 0 für i 6= j und γi = 1.
Korollar 3.3.6 Jeder Vektorraum mit einem endlichen Erzeugendensystem
hat eine endliche Basis, ist also endlichdimensional.
Wie sieht es mit Vektorräumen aus, die nicht endlich erzeugt sind. Man
könnte versuchen, von einem großen Erzeugendensystem, nämlich V , nach
und nach Elemente wegzunehmen, so dass man eine nicht mehr verkleinerbare
Menge erhält. Dass das in unserem Fall gut geht, kann man mit Hilfe des
Zornschen Lemmas beweisen. Wir wollen hier darauf nicht eingehen, sondern
nur festhalten:
Satz 3.3.7 Jeder VR hat eine Basis.
58
Wir wollen nun zeigen, dass die Mächtigkeiten zweier Basen in endlich erzeugten VR’en gleich sind.
Satz 3.3.8 Sei V ein VR mit Erzeugendensystem S = {v1 , . . . , vm }. Ist T
eine linear unabhängige Teilmenge von V , so gilt |T | ≤ m.
Beweis Sei T = {w1 , . . . , wn } eine n-elementige Teilmenge von V mit n >
m. Wir wollen zeigen, dass diese Menge dann linear abhängig sein muss. Weil
S ein Erzeugendensystem ist, gibt es αi,j , i = 1, . . . , m und j = 1, . . . n so,
dass
m
X
wj =
αi,j vi .
i=1
Ferner gilt
n
X
m
n X
X
wj xj =
αi,j xj vi
j=1 i=1
m X
n
X
j=1
=
(
αi,j xj )vi .
i=1 j=1
Wegen m < n gibt es Skalare λj mit
n
X
αi,j λj = 0
j=1
(Gleichungssystem mit m Gleichungen und n Unbekannten, m < n, siehe
Satz 2.7.1), wobei nicht alle λj gleich 0 sind. Damit haben wir gezeigt, dass
{w1 , . . . , wn } linear abhängig ist.
Korollar 3.3.9 In endlichdimensionalen Vektorräumen sind je zwei Basen
gleichmächtig.
Definition 3.3.10 Die Mächtigkeit der Basis eines endlichdimensionalen Vektorraumes heißt die Dimension des Vektorraumes. Bezeichnung:
dim(V ).
59
Wir wollen uns jetzt mit den Dimensionen von Unterräumen beschäftigen.
Dazu notieren wir noch einmal explizit folgendes Lemma, das wir schon im
Beweis von Satz 3.3.4 implizit benutzt haben:
Lemma 3.3.11 Sei S ⊆ V eine linear unabhängige Teilmenge von V . Ist
v∈
/ hSi, so ist auch S ∪ {v} linear unabhängig.
Beweis Angenommen, S ∪{v} ist linear P
abhängig. Dann gibt es vi ∈ S ∪{v}
und Skalare λi 6= 0, i = 1, . . . n so, dass ni=1 vi λi = 0. Dann muss offenbar
v ∈ {v1 , . . . , vn } gelten, z.B. v1 = v, da andernfalls S linear abhängig wäre.
Also gilt
n
X
λj
v1 = −
vj
λ1
j=2
und v ∈ hSi, ein Widerspruch.
Wir halten als Korollar fest:
Korollar 3.3.12 Sei V ein endlichdimensionaler Vektorraum. Ist U V ,
so gilt dim(U) dim(V ).
Beweis Wir müssen wegen Satz 3.3.8 nur noch zeigen, dass kein echter
Unterraum U die Dimension n = dim(V ) haben kann. Das folgt aber aus
Lemma 3.3.11: Wenn U ein echter Teilraum ist, dann gibt es v ∈ V \ U, und
v würde zusammen mit einer Basis von U eine linear unabhängige Menge
mit n + 1 Elementen geben, was nicht geht.
Korollar 3.3.13 Jede nichtleere Menge S linear unabhängiger Vektoren in
einem endlichdimensionalen Vektorraum V kann zu einer Basis ergänzt werden, d.h. es gibt T ⊆ V so, dass S ∪ T eine Basis ist.
Satz 3.3.14 Seien W1 und W2 Unterräume eines endlichdimensionalen Vektorraums V . Dann gilt die folgende Dimensionsformel:
dim(W1 ) + dim(W2 ) = dim(W1 ∩ W2 ) + dim(W1 + W2 ).
Beweis siehe Vorlesung.
60
3.4
Rang einer Matrix
Die folgende Frage ist bislang offen geblieben: Ist die zeilenreduzierte Normalform eindeutig. Dazu bezeichnen wir den Unterraum von Kn , der von den
Zeilen einer Matrix A ∈ K(m,n) erzeugt wird, den Zeilenraum von A. Achtung: Wir interpretieren Vektoren hier als Zeilenvektoren, nicht, wie sonst,
als Spaltenvektoren.
Satz 3.4.1 Zeilenäquivalente Matrizen haben denselben Zeilenraum. Ist R
in zeilenreduzierter Normalform, so bilden die Zeilen von R eine Basis des
Zeilenraums von R.
Beweis Nach Konstruktion sind die Zeilen einer Matrix in zeilenreduzierter
Normalform linear unabhängig, bilden also eine Basis.
Korollar 3.4.2 Sind A und B zwei zeilenäquivalente Matrizen in zeilenreduzierter Normalform, so haben sie gleich viele Zeilen 6= 0.
Definition 3.4.3 Sei A eine Matrix, die zeilenäquivalent zu einer Matrix
R in zeilenreduzierter Form ist. Die Anzahl der Zeilen 6= 0 in R heißt der
Rang von A und ist gleich der Diemension des Zeilenraumes von A.
Korollar 3.4.4 Ist A ∈ K(m,n) , so ist der Vektorraum U der Lösungen von
Ax = 0 ein Unterraum von Kn der Dimension n − Rang(A).
Beweis Sei R in zeilenreduzierter Normalform und äquivalent zu A. Die Pivotelemente seien an den Positionen (i, ji ), i = 1, . . . , r. Setze J = {1, . . . , n}\
{j1 , . . . , jr }. Das Gleichungssystem sieht also jetzt wie folgt aus:
X
xj1 +
γ1,j xj = 0
j∈J
xj2 +
X
γ2,j xj = 0
j∈J
xjr +
X
... = ...
γr,j xj = 0
j∈J
61
Die xi mit i ∈ J können beliebig gewählt werden; die xi mit i ∈
/ J sind
dadurch eindeutig bestimmt. Also sind die n − r Vektoren, die wir erhalten,
wenn wir genau ein xi0 = 1 setzen (i0 ∈ J) und die anderen xi = 0 mit
i ∈ J \ {i0 }, eine Basis des Lösungsraums.
Wir wollen jetzt zeigen, dass A zu genau einer Matrix R in zeilenreduzierter
Normalform äquivalent ist. Das rechtfertigt den Begriff Normalform.
Satz 3.4.5 Eine Matrix A ∈ K(m,n) ist zu genau einer Matrix R in zeilenreduzierter Form zeilenäquivalent.
Beweis Die Zeilen 6= 0 von R seien v1 , . . . , vr , die Pivotelemente treten
an den Stellen (i, ji ), i = 1, . . . , r, auf. Sei b = (β1 , . . . , βn ) ein Vektor im
Zeilenraum von A. Es gilt
r
X
b=
vi βji .
i=1
Das zeigt, dass der erste Eintrag 6= 0 in b an einer Stelle j1 , . . . jr auftritt.
Deshalb sind die ji eindeutig bestimmt: Wir haben die “Pivotspalten” also
also als ganz bestimmte Koordinaten von Vektoren im Zeilenraum von A
erkannt, unabhängig davon, durch welche Vektoren dieser Raum gegeben ist.
Im Zeilenraum von R gibt es genau einen Vektor mit βji0 = 1 und βji = 0
für i 6= i0 . Dieser Vektor muss die Zeile i0 von R sein, also ist R eindeutig
bestimmt.
Korollar 3.4.6 Matrizen mit gleichen Zeilenräumen sind zeilenäquivalent.
Beweis Seien A und B zwei Matrizen, die zu den Matrizen R und S in
Normalform zeilenäquivalent sind. Weil R und S identische Zeilenräume haben, müssen sie (siehe Beweis oben) identische Normalformen haben, also
R = S.
3.5
Koordinaten
Wir haben bislang die Vektorräume koordinatenfrei behandelt. Wir wollen
nun zeigen, wie man einen Vektorraum der Dimension n mittels einer geordneten Basis B = b1 , . . . , bn ) koordinatisieren kann.
62
Ist v ∈ V , so wissen wir, dass es eindeutig bestimmte Skalare λ1 , . . . , λn gibt
mit
n
X
v=
vi λi .
i=1
Wir nennen die λi die Koordinaten von v bzgl. der Basis B. Bezeichnung:
 
λ1
 λ2 
 
[v]B =  .. 
.
λn
Ist B = (e1 , . . . en ) die kanonische Basis bestehend aus den Einheitsvektoren,
so gilt
 
 
x1
x1
 .. 
 .. 
[ . ]B =  . 
xn
xn
Aber eine andere geordnete Basis ist z.B.
     
1
2
3





C = ( 1 , 0 , 1).
0
1
2
Dann ist
mit
 
 
λ1
2
[2]C = λ2 
λ3
1
λ1 + 2λ2 + 3λ3 = 2
λ1 + λ3 = 2
λ2 + 2λ3 = 1
Wir lösen dieses Gleichungssystem und erhalten
λ3 = 1,
λ2 = −1,
63
, λ1 = 1.
Seien B und C zwei geordnete Basen
B = (b1 , . . . , bn )
C = (c1 , . . . , cn )
eines n-dimensionalen Vektorraums. Wir definieren die Matrix
MBC = (αi,j )
in K(n,n) , wobei die αi,j so definiert sind, dass


α1,i
 .. 
 .  = [bi ]C
αn,i
gilt, also
P
αj,i cj = bi .
Satz 3.5.1
MBC · [v]B = [v]C .
Beweis Sei


λ1
 
[v]B =  ... 
λn
also
n
X
bi λi = v.
i=1
Dann ist
Nun gilt
P

MBC [v]B = 
P
X

λi α1,i

..

.
λi αn,i
cj αj,i = bi .
j
Wir erhalten
v=
X
bi λi =
i
Der Koeffizient von cj ist also
zu zeigen war.
X
cj αj,i λi .
i,j
P
i
λi αj,i , also der j-Eintrag von MBC [v]B , was
64
Beispiel 3.5.2 Sei
und
     
0
2
−1





B = ( 3 , −1 , 1 )
6
−2
3
     
1
0
−1





C = ( 1 , 1 , 1 )
2
1
3
Man rechnet nach (Lösung eines linearen
 
0

[ 3]C =
6
 
2
[−1]C =
−2
 
−1
[ 1 ]C =
3
Gleichungssystems!)
 
1
1
1
 
1
−1
−1
 
0
0
1
Die Transformationsmatrix ist also


1 1 0
MBC 1 −1 0
1 −1 1
 
−3

8 , dann ist
Wir überprüfen dies an einem Beispiel: Sei v =
17
 
2
[v]B = −1
1
Der Koordinatenvektor [v]C bzgl. der Basis C ist also
 
1
B

MC · [v]B = 3 .
4
Die Korrektheit diese Ergebnisses kann man leicht nachrechnen.
65
Korollar 3.5.3
MBC · MCB = I.
Beweis Es gilt MBC ·[v]B = [v]C und MCB ·[v]C = [v]B . Also gilt MBC ·MCB ·[v]C =
[v]C , also muss MBC · MCB = I gelten.
Korollar 3.5.4 Sei V ein K-Vektorraum der Dimension n, und sei P eine
Matrix in K(n,n) . Ist B = (b1 , . . . , bn ) eine geordnete Basis von V , so gibt es
genau eine Basis C mit
[v]C = P · [v]B
für alle v ∈ V .
Beweis Zur Existenz: Wir suchen eine Basis C = (c1 , . . . , cn ) mit
X
cj αj,i = bi .
(3.1)
j
In dem Fall ist C ein Erzeugendensystem, und P[bi ]B = [bi ]C .
Sei dazu P−1 = (βi,j ) die Inverse von P. Dann gilt
(
X
1 wenn k = i
βk,j · αj,i =
0 sonst
j
P
Wir setzen cj = k bk βk,j . Einsetzen in (3.1) liefert
X X
X
XX
bk
βk,j αj,i = bi ,
bk βk,j αj,i =
cj αj,i =
j
j
k
k
j
was zu zeigen war.
Zur Eindeutigkeit: Die i-te Spalte von P−1 muss [ci ]B sein, weil P−1 = MCB
nach Korollar 3.5.3.
3.6
Zusammenfassung
• Sie haben in diesem Abschnitt die wichtige Definition des Vektorraumes
gelernt und Beispiele gesehen.
66
• Sie wissen, was linear abhängig und unabhängig bedeutet.
• Der Begriff der Basis wurde eingeführt. Wir konnten zeigen, dass jeder
endlich erzeugte Vektorraum eine Basis hat. Das gilt auch für nicht
endlich erzeugte Vektorräume, der Beweis erfordert aber tieferliegende
Hilfsmittel.
• Sie sollen in der Lage sein, Beispiele von endlich- und von unendlichdimensionalen Vektorräumen anzugeben.
• Affine und lineare Unterräume wurden erklärt. Sie sollten wissen, dass
solche Unterräume als Lösungsmengen (inhomogener) Gleichungssysteme auftreten.
• Das Kapitel über affine (Un)abhängigkeit und die affinen Dimensionsformeln wird in der Vorlesung “Lineare Optimierung” wichtig. Der Exkurs über affine Ebenen und die Moulton-Ebene ist nicht so wichtig.
• Der Dimensionsbegriff hat es ermöglicht zu zeigen, dass jede Matrix zu
genau einer Matrix in zeilenreduzierter Form äquivalent ist.
• Es wurde eine wichtige Dimensionsformel für die Dimension der Summe
zweier Unterräume vorgestellt.
• Sie wissen, wie man einen n-dimensionalen Vektorraum mit Hilfe einer
geordneten Basis koordinatisiert. Basiswechsel bedeutet Multiplikation
des Koordinatenvektors mit einer geeigneten invertierbaren Matrix.
Einige Probleme bleiben offen: Ist jeder Unterraum Lösungsraum eines linearen Gleichungssystems? Wenn ja, gibt es sicherlich verschiedene lineare
Gleichungssysteme. Wie unterscheiden sie sich?
Wenn man sich den Prozess des Koordinatisierens anschaut, hat man das
Gefühl, das es nur einen n-dimensionalen Vektorraum über K gibt, nämlich
den Vektorraum Kn der n-Tupel. Kann man das präzisieren?
Diese beiden Fragen werden durch die Ergebnisse in den nächsten beiden
Kapiteln beantwortet.
67
Kapitel 4
Lineare Abbildungen
In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der
Algebra. Grob gesagt geht es darum, dass wir Vektorräume (oder andere
algebraische Objekte) nicht unterscheiden wollen, wenn sie nur durch eine
andere Bezeichnung der Elemente auseinander hervorgehen.
4.1
Definition und Beispiele
Definition 4.1.1 V und W seien K-Vektorräume. Eine Abbildung T :
V → W heißt eine lineare Abbildung, falls für alle v1 , v2 ∈ V und alle
λ ∈ K gilt:
T(v1 + v2 λ) = T(v1 ) + T(v2 )λ.
Beispiel 4.1.2 (1.) Die Identität idVP
: V → V istP
linear.
n
i
(2.) Die Abbildung D : K[x] → K[x], i=0 ci x 7→ ni=1 ici xi ist linear (Differenzieren).
(3.) Sei T ∈ K(m,n) . Dann ist die Abbildung
Kn → Km
v 7→ Tv
linear. Wir können also jeder Matrix eine lineare Abbildung zuordnen.
68
Bemerkung 4.1.3 Es gilt T(0) = 0, weil T(0) = T(0 + 0) = T(0) + T(0).
Ferner gilt für alle v, w ∈ V und alle λ ∈ K
T(vλ) = T(v)λ
T(v + w) = T(v) + T(w).
Der folgende Satz zeigt, dass lineare Abbildungen bereits durch Angabe der
Bilder einer Basis eindeutig bestimmt sind:
Satz 4.1.4 (Satz von der linearen Fortsetzung) Sei V ein endlichdimensionaler K-Vektorraum mit geordneter Basis B = (b1 , . . . bn ). Sei W ein beliebiger K-Vektorraum, und seien c1 , . . . , cn ∈ W beliebige Vektoren. Dann
gibt es genau eine lineare Abbildung T : V → W mit T(bi ) = ci .
Pn
Beweis Zu v ∈ V gibt
es
eindeutig
bestimmte
Skalare
λ
mit
v
=
i
i=1 bi λi .
Pn
Pn
Dann muss T(v) =
c
λ
sein.
Also
ist
T
eindeutig
T(v
)λ
=
i
i
i=1 i i
i=1
bestimmt. Man rechnet auch leicht
nach,
dass die
P so definierte Abbildung in
P
der Tat linear ist: Sei dazu v = ni=1 bi λi , w = ni=1 bi µi und λ ∈ K. Dann
T(v + wλ) = T(
n
X
bi (λi + µi λ)
i=1
=
n
X
ci (λi + µi λ)
i=1
=
n
X
i=1
ci λ i + (
n
X
ci µi )λ
i=1
= T(v) + T(w)λ
2
1
Beispiel 4.1.5 Sei B = {b1 , b2 } mit b1 =
, b2 =
eine Basis von R2 .
1
1
 
 
2
0



Ferner seien c1 = 1 und c2 = 0 zwei Vektoren aus R3 . Dann ist die
1
1
Abbildung
T:
R2
1
2
λ
λ +
1 2
1 1
→   R3  
2
0
7→ 1 λ1 + 0 λ2
1
1
69
x
linear. Wir würden aber gerne T( 1 ) angeben können. Dazu schreiben
x2
wir
1
= b1 − b2
e1 =
0
0
= −b1 + 2b2 .
e2 =
1
Dann gilt
T(e1 ) =
c1 − c2
T(e2 ) = −c1 + 2c2
und somit
 
2

1
=
0
 
−2
= −1
1


2x1 − 2x2
x
T( 1 ) =  x1 − x2 
x2
x2
Die lineare Abbildung T ist also die zur Matrix


2 −2
1 −1
0 1
gehörende lineare Abbildung.
Wir können dieses Beispiel leicht verallgemeinern:
Satz 4.1.6 Zu jeder linearen Abbildung T : Kn → Km gibt es eine Matrix
A ∈ K(m,n) so, dass T die zu dieser Matrix gehörende lineare Abbildung ist,
also T(v) = A · v für alle v ∈ Kn .
Von jetzt an wollen wir zwischen Matrizen und den zugehörenden linearen
Abbildungen Kn → Km nicht mehr unterscheiden. Zunächst ist aber nicht
klar, ob Matrizen etwas mit allgemeinen linearen Abbildungen zwischen Vektorräumen zu tun haben.
70
Definition 4.1.7 Sei T : V → W eine lineare Abbildung. Dann definieren
wir
Kern(T) := {v ∈ V : T(v) = 0}
Bild(T) := {T(v) : v ∈ V }.
.
Beachten Sie: Kern(T) ⊆ V und Bild(T) ⊆ W . Es gilt sogar noch mehr, dass
Kern und Bild nämlich Unterräume sind:
Lemma 4.1.8 Kern(T) ≤ V und Bild(T) ≤ W .
Beweis Kern(T) 6= { }, weil 0 ∈ Kern(T). Seien v, w ∈ Kern(T), λ ∈ K.
Dann gilt T(v + wλ) = T(v) + T(w)λ = 0, also ist v + wλ ∈ Kern(T). Der
Fall Bild(T) ≤ W geht ähnlich.
Der Kern der linearen Abbildung, die zu einer Matrix T ∈ K(m,n) gehört, ist
genau der Lösungsraum von Tx = 0. Der Vektorraum, der von den Spalten
aufgespannt wird, ist genau das Bild von T. Mit Hilfe des Kerns hat man
eine sehr schöne Charakterisierung von Injektivität:
Satz 4.1.9 Eine lineare Abbildung T : V → W ist genau dann injektiv,
wenn Kern(T) = {0} gilt.
Beweis Klar ist, dass für eine injektive Abbildung Kern(T) = {0} gilt, denn
sonst hätte 0 ∈ W mehr als ein Urbild. Sei nun T nicht injektiv. Dann gibt
es v, w ∈ V mit T(v) = T(w), aber v 6= w. Das liefert T(v − w) = 0, also
0 6= v − w ∈ Kern(T).
Es gilt folgende sehr wichtige Dimensionsformel:
Satz 4.1.10 Sei T : V → W eine lineare Abbildung, wobei dim(V ) < ∞.
Dann gilt
dim(Kern(T)) + dim(Bild(T)) = dim(V ).
71
Beweis Sei v1 , . . . , vk eine Basis von Kern(T). Dann können wir v1 , . . . , vk zu
einer Basis v1 , . . . , vn von V ergänzen. Wir zeigen, dass dann T(vk+1 ), . . . , T(vn )
eine Basis von Bild(T) ist. Die Menge {T(v1 ), . . . , T(vn )} ist ein Erzeugendensystem von Bild(T). Weil T(v1 ) = . . . = T(vk ) = 0, ist sogar T(vk+1 ), . . . , T(vn )
ein Erzeugendensystem von Bild(T). Dieses Erzeugendensystem ist linear unabhängig: Wenn es linear abhängig
wäre, gäbe es Skalare λk+1
P, n. . . , λn , die
Pn
nicht alle gleich 0 sind,
P mit i=k+1 T(vi )λi = 0. Dann ist aber i=k+1 vi λi ∈
Kern(T), d.h. 0 6= ni=k+1 vi λi ∈ hv1 , . . . , vk i, Widerspruch zur linearen Unabhängigkeit der v1 , . . . , vn .
Dieser Satz (und sein Beweis) haben einige interessante Folgerungen:
Korollar 4.1.11 Sei U ≤ V , wobei V ein endlichdimensionaler Vektorraum
ist. Dann gibt es eine lineare Abbildung T : V → V mit Kern(T) = U.
Beweis Wir wählen eine Basis von U und ergänzen diese zu einer Basis von
V . Wir definieren T nun so, dass T die Elemente der Basis von U auf 0
abbildet, die Elemente der Basis, die nicht in U liegen, werden auf Vektoren
6= 0 geschickt.
Korollar 4.1.12 Sei U ≤ Kn . Dann gibt es eine Matrix T ∈ K(n,n) so, dass
U = {x ∈ Kn : Tx = 0} gilt. Insbesondere tritt jeder lineare Unterraum des
Kn als Lösungsmenge eines linearen Gleichungssystems auf.
Neben dem Rang einer Matrix T ∈ K(m,n) kann man auch den Spaltenrang
definieren als die Dimension des von den Spalten von T aufgespannten Unterraumes von Km definieren. Der Spaltenraum ist genau das Bild der zu T
gehörenden linearen Abbildung. Den zuvor definierten Rang wollen wir, zur
Unterscheidung, nun den Zeilenrang nennen. Es gilt:
Satz 4.1.13 Für T ∈ K(m,n) gilt
Zeilenrang(T) = Spaltenrang(T).
Beweis Wir betrachten die lineare Abbildung T : Kn → Km , die durch
die Matrix T erklärt ist. Dann ist offenbar Spaltenrang(T) = dim(Bild(T)).
Ferner wissen wir bereits n − Zeilenrang(T) = dim Kern(T). Aus der Dimensionsformel 4.1.10 folgt die Behauptung.
72
4.2
Zur Äquivalenz von Matrizen und dem
Begriff Normalform
Wir nennen zwei Matrizen M und N aus K(m,n) Rang-äquivalent (sorry
dass so viele Dinge in der Mathematik äquivalent genannt werden!), wenn es
P ∈ GL(n, K) und Q ∈ GL(m, K) gibt mit QMP = N. Wir können P und
Q als Produkt von Elementarmatrizen schreiben. Multiplikation von rechts
mit einer Elementarmatrix bewirkt aber gerade eine Spaltenumformung. Wir
können also sagen, dass M und N Rang-äquivalent sind, wenn sie durch
elementare Zeilen- und Spaltenumformungen auseinander hervorgehen. Jede
Matrix ist also zu einer Matrix
Ir
0n−r
Hr :=
0m−r 0m−r,n−r
Rang-äquivalent. Offenbar sind Matrizen Hr und Hr′ mit r 6= r ′ nicht äquivalent. Die Äquivalenzklasse wird somit eindeutig durch den Rang bestimmt,
und es gibt somit min{m, n} Äquivalenzklassen auf K(m,n) sind Normalformen bzgl. der Relation “Rang-Äquivalenz”. Anhand der Normalform kann
man sofort ablesen, zu welcher Äquivalenzklasse eine Matrix gehört. Bei komplizierteren Relationen ist das sehr nützlich. Z.B. liefert das Gauß-JordanVerfahren eine Normalform für “Zeilenäquivalenz”. Ferner liefert Zeilenäquivalenz eine feinere Klasseneinteilung der Menge der Matrizen als Zeilenäquivalenz: Matrizen, die zeilenäquivalent sind, sind sicherlich auch Rang-äquivalent,
nicht umgekehrt. So sind beispielsweise die beiden Matrizen
aber 1 1
1 0
und
äquivalent, aber nicht zeilenäquivalent.
0 0
0 0
Bei der Konstruktion der Normalform Hr werden sowohl Zeilen- als auch
Spaltenumformungen erlaubt. Elementare Zeilenumformungen lassen den Zeilenraum, elementare Spaltenumformungen den Spaltenraum fest. Zeilenumformungen ändern aber den Spaltenraum, Spaltenumformungen den Zeilenraum! Invariant ist aber die Dimension des entsprechenden Raumes.
4.3
Die transponierte Matrix
An dieser Stelle soll etwas auf den Begriff der transponierten Matrix eingegangen werden:
73
Definition 4.3.1 Sei A = (α(i,j) )i=1,...,m;j=1,...n ∈ K(m,n) . Dann heißt A⊺ :=
(αj,i )j=1,...,n;i=1,...m ∈ K(n,m) die zu A transponierte Matrix.
Man kann sich fragen, ob A⊺ auch eine interessante lineare Abbildung repräsentiert, die mit der zu A gehörenden linearen Abbildung etwas zu tun
hat. Die Antwort auf diese Frage ist ja, und auch das wird in der Dualitätstheorie (später) behandelt.
Satz 4.3.2 (1.) (AB)⊺ = B⊺ A⊺ .
(2.) Rang(A) = Rang(A⊺ ).
(3.) A ∈ K(n,n) ist invertierbar
⇔ A⊺ ist invertierbar. Dann gilt ferner
(A−1 )⊺ = (A⊺ )−1 .
Beweis (1.) Sei A = (αi,j ) ∈ K(m,n) und B = (βi,j ) ∈ K(n,p) . Dann ist der
(i, j)-Eintrag von AB gleich dem (j, i)-Eintrag von (AB)⊺ :
(AB)i,j =
n
X
αi,k βk,j = (AB)⊺j,i
k=1
Weiter gilt
⊺
⊺
(B A )j,i =
n
X
⊺
⊺
(B )j,k (A )k,i =
βk,j αi,k ,
k=1
k=1
also (AB)⊺j,i = (B⊺ A⊺ )j,i .
n
X
(2.) Das folgt aus “Zeilenrang gleich Spaltenrang”.
(3.) Übung.
4.4
Zur Algebra linearer Abbildungen
Satz 4.4.1 Es seien V und W Vektorräume über K. Sind T und S lineare
Abbildungen V → W , und ist λ ∈ K, so ist auch T+Sλ eine lineare Abbildung
V → W.
74
Die Menge aller linearen Abbildungen V → W wollen wir als Hom(V, W )
bezeichnen. Die Bezeichnung kommt daher, dass “strukturerhaltende” Abbildungen in der Mathematik meistens als Homomorphismen bezeichnet werden. In diesem Sinne sind lineare Abbildungen Homomorphismen. Es gilt:
Korollar 4.4.2 Die Menge Hom(V, W ) mit der üblichen Addition und Skalarmultiplikation ist ein Vektorraum.
Korollar 4.4.3 Sind V und W endlichdimensionale Vektorräume, so ist
Hom(V, W ) ein Vektorraum der Dimension dim(V ) · dim(W ).
Beweis Sei (b1 , . . . , bn ) eine Basis von V , und sei (c1 , . . . , cm ) eine Basis von
W . Dann gibt es genau eine lineare Abbildung Ti,j : V → W mit Ti,j (bi ) = cj
und Ti,j (bk ) 6= 0 für k 6= i. Diese linearen Abbildungen bilden eine Basis von
Hom(V, W ).
Wir können lineare Abbildungen auch hintereinander ausführen, und erhalten
so wieder eine lineare Abbildung:
Satz 4.4.4 V, W, Z seien K-Vektorräume. Sind T : V → W und S : W → Z
lineare Abbildungen, dann ist auch S ◦ T eine lineare Abbildung V → Z.
Beweis Übung, bzw. einfach.
4.5
Lineare Operatoren, Endomorphismen
Eine lineare Abbildung T : V → V heißt linearer Operator oder Endomorphismus.
Der Endomorphismus V → V mit v 7→ 0 für alle v ∈ V wird auch mit 0V
bezeichnet. Es gilt
Satz 4.5.1 (Endomorphismenring) End(V ) := (Hom(V, V ), +, ◦, 0V , idV )
ist ein nichtkommutativer Ring. Ferner ist End(V ) ein Vektorraum und es
gilt
(T ◦ S)λ = T ◦ (Sλ) = (Tλ) ◦ S
für alle λ ∈ K.
75
Bijektive Abbildungen kann man eventuell invertieren. Die inversen Elemente
von bijektiven linearen Abbildungen sind wieder linear:
Lemma 4.5.2 Ist T ∈ End(V ) bijektiv, so ist T −1 linear.
Beweis Zu zeigen ist T−1 (v + wλ) = T−1 (v) + T−1 (w)λ. Weil T bijektiv
ist, ist dies gleichbedeutend mit
T(T−1 (v + wλ)) = T(T−1 (v) + T−1 (w)λ)
Das ist aber sicherlich richtig, weil T linear ist.
Bijektive Endomorphismen auf V heißen Automorphismen. Die Menge der
Automorphismen auf V schreibt man auch GL(V ).
Bijektive Homomorphismen V → W heißen Isomorphismen. Isomorphismen bilden linear unabhängige Mengen auf linear unabhängige Mengen ab,
und linear abhängige Mengen werden auf linear abhängige Mengen abgebildet.
Wenn es zwischen V und W einen Isomorphismus gibt, so heißen V und
W isomorph, geschrieben V ∼
= W . Es können nur Vektorräume gleicher
Dimension isomorph sein!
Satz 4.5.3 V und W seien endlichdimensionale K-Vektorräume und dim(V ) =
dim(W ). Für lineare Abbildungen T : V → W sind dann die folgenden Bedingungen äquivalent:
(i) T ist bijektiv
(ii) Kern(T) = {0}
(iii) Bild(T) = W
(d.h. T ist injektiv)
(d.h. T ist surjektiv)
(iv) T bildet eine gegebene Basis von V auf eine Basis von W ab.
(v) T bildet jede Basis von V auf eine Basis von W ab.
Beweis Siehe Vorlesung.
Satz 4.5.4 (Hauptsatz über endlichdimensionale Vektorräume) Ist V
ein Vektorraum mit dim(V ) = n, so gilt
V ∼
= Kn
76
Beweis Ist v1 , . . . , vn eine Basis von V , und ist e1 , . . . , en eine (z.B. die
kanonische) Basis von Kn , so gibt es nach Satz 4.5.3 eine bijektive lineare
Abbildung T mit T(vi ) = ei .
4.6
Darstellung linearer Abbildungen durch
Matrizen
V und W seien K-Vektorräume, und B = (b1 , . . . , bn ) sei eine geordnete Basis
von V , C = (c1 , . . . , cm ) sei eine geordnete Basis von W . Für eine lineare
Abbildung T : V → W definieren wir eine Matrix [T]BC ∈ K(m,n) wie folgt:
Die i-te Spalte von [T]BC sei [T(bi )]C , der Koordinatenvektor des Bildes von bi
unter der linearen Abbildung T. Das ist sehr sinnvoll, wie der folgende Satz
zeigt:
Satz 4.6.1
[T(v)]C = [T]BC · [v]B .
 
λ1
P
Pn
 .. 
Beweis Sei v = i=1 bi λi , also [v]B =  . . Dann ist T(v) = ni=1 T(bi )λi .
λn
P
Wir schreiben das Element T(bi ) bezüglich der Basis C, d.h. T(bi ) = m
j=1 cj αj,i .
B
Mit anderen Worten, [T]C = (αj,i )j=1,...,m;i=1,...,n . Wir können nun T(v) auch
bzgl. C darstellen:
m X
n
X
T(v) =
cj αj,i λi ,
j=1 i=1
also
 Pn
i=1

[T(v)]C = 
Pn
i=1
 

α1,i λi
λ1

..
B  .. 
 = [T]C ·  . 
.
αm,i λi
λn
Die Zuordnung einer Matrix zu einer linearen Abbildung ist sogar ein Vektorraumisomorphismus. In diesem Sinne kann man etwas ungenau sagen, dass
lineare Abbildungen dasselbe sind wie Matrizen.
77
Satz 4.6.2 V und W seien K-Vektorräume mit dim(V ) = n, dim(W ) = m,
und B und C seien geordnete Basen von V und W . Dann ist die Abbildung
[ ]BC : Hom(V, W ) → K(m,n)
T
7→ [T]BC
(4.1)
ein Vektorraumisomorphismus.
Beweis Die Abbildung [ ]BC ist offenbar linear und injektiv, aus Dimensionsgründen also auch bijektiv.
Dieser Satz sagt noch nichts darüber aus, ob die Hintereinanderausführung
von linearen Abbildungen auch eine vernünftige Interpretation in der “Matrizenwelt” hat. Der nächste Satz sagt, dass dies aber in der Tat der Fall
ist:
Satz 4.6.3 V , W und Z seien endlichdimensionale K-Vektorräume mit geordneten Basen B, C und D. Wenn T ∈ Hom(V, W ) und S ∈ Hom(W, Z)
ist, so gilt
[S ◦ T]BD = [S]CD · [T]BC .
Beweis Klar, weil auf der rechten Seite des Gleichheitszeichens eine Matrix
M steht mit M · [v]B = [(S ◦ T)(v)]D . Diese Matrix ist aber die nach Satz
4.6.2 eindeutig bestimmte Darstellungsmatrix von S ◦ T bzgl. der Basen B
und D.
Korollar 4.6.4 Es seien V und W endlichdimensionale K-Vektorräume mit
geordneten Basen B und C. Dann gilt für lineare Abbildungen T : V → W :
T ist bijektiv
⇔
[T]BC ist invertierbar.
In diesem Fall gilt
[T−1 ]CB = ([T]BC )−1 .
Im Fall dim(V ) = dim(W ) = n hat die Zuordnung von Matrizen zu linearen
Abbildungen in Hom(V, W ) also noch eine weitere interessante und wichtige
Eigenschaft: Die Abbildung (4.1) “respektiert” auch die Ringoperation ◦. In
diesem Sinne spricht man auch von einem Ringisomorphismus. Der Ring der
linearen Operatoren ist also “letztlich” dasselbe wie der Matrizenring.
78
4.7
Basistransformation
Sei wieder T : V → W eine lineare Abbildung. In diesem letzten Abschnitt
wollen wir uns mit der Frage beschäftigen, welcher Zusammenhang zwischen
′
Matrizen [T]BC und [T]BC ′ besteht, wenn sowohl C und B als auch C ′ und B′
Basen von W und V sind. Die Frage wird durch folgenden Satz vollständig
beantwortet:
Satz 4.7.1 Sei T : V → W eine lineare Abbildung. Ferner sollen B und B′
geordnete Basen von V sein, und C und C ′ geordnete Basen von W . Mit idV
und idW bezeichnen wir die identischen Abbildungen auf V und W . Dann
gilt:
′
′
[T]BC ′ = [idW ]CC ′ · [T]BC · [idV ]BB .
Beweis Das folgt unmittelbar aus 4.6.3.
Bemerkung 4.7.2 Die Darstellungsmatrizen [idV ]BB′ sind genau die Matrizen MBB′ aus Abschnitt 3.5.
Wir wollen uns diesen Satz an zwei Beispielen klarmachen:
Beispiel 4.7.3 Wir betrachten die lineare Abbildung
 
x1
x
+
x
1
2
T(x2 ) =
.
2x3 − x1
x3
Wenn B und C jeweils die kanonische Basis von R3 und R2 bezeichnet, so gilt
1 1 0
B
[T]C =
−1 0 2
Wir suchen nun die Darstellungsmatrix von T bezüglich der geordneten Basen
    
1
1
1
B′ = ( 0  , 1 0),
−1
1
0
1
0
)
,
C′ = (
1
1
79
Wir benötigen dazu die beiden Matrizen
[idR3 ]BB
′
und [idR2 ]CC ′
Die erste Matrix ist einfach
[idR3 ]BB
Ferner ist
[idR2 ]CC ′
=
′


1 1 1
=  0 1 0
−1 1 0
′
([idR2 ]CC )−1
Wir erhalten
−1 0 1
−1 1
=
=
1 1
1 0
(4.2)


1 1 1
−1 1
1 1 0 
−4 −1 −2
B′

[T]C ′ =
·
· 0 1 0 =
.
1 0
−1 0 2
1
2
1
−1 1 0
 
 
1
3



′
Rechnen wir dies am Beispiel v = 1 nach: Es gilt [v]B = 1 und
1
0
−7
B′
.
[T]C ′ · [v]B′ =
4
4
−7
=
= [T(v)]C ′ überprüfen: Es gilt T(v) =
Wir müssen noch
−3
4
0
1
−7 ·
+4·
.
1
1
Beispiel 4.7.4 Wir betrachten die

1 0

T= 3 2
1 1
durch

2
(3,3)
1 in F5
2
definierte lineare Abbildung F53 → F53 . Gesucht sei
     
1
1
3
′
[T]BB′ mit B′ = (0 , 3 , 0).
0
1
1
80
Ist B die kanonische Basis von F53 , so gilt


1 0 2
[T]BB = 3 2 1
1 1 2
Nun ist
[id]BB
und
[id]BB′
Wir erhalten
′
[T]BB′
′


1 1 3
= 0 3 0
0 1 1

−1 

1 1 3
1 4 2
= 0 3 0 = 0 2 0 .
0 1 1
0 3 1

 
 
 

1 4 2
1 0 2
1 1 3
0 0 0
= 0 2 0 · 3 2 1 · 0 3 0 = 1 0 0 .
0 3 1
1 1 2
0 1 1
0 1 0
Diese Matrix sieht ganz offensichtlich übersichtlicher aus als [T]BB . Ein wichtiges Ziel der Linearen Algebra ist es, einfache Darstellungsmatrizen zu finden.
Beispiel 4.7.5 Sei


5 −6 −6
2
T = −1 4
3 −6 −4
aus R(3,3) .
Wir wollen die durch T definierte lineare Abbildung R3 → R3 bezüglich der
Basis
     
2
2
3
B′ = (0 , 1 , −1)
1
0
3
ausdrücken. Es gilt
′
′
′
[T]BB′ = ([id]BB )−1 · T · [id]BB .
Wir haben
[id]BB
′


2 2 3
= 0 1 −1 =: P
1 0 3
81
und
P−1
Dann


3 −6 −5
2
= −1 3
−1 2
2


2 0 0
P−1 TP = 0 2 0
0 0 1
Das kann man leicht nachprüfen, denn
 
 
 
 
2
2
2
2
T 0 = 2 · 0 , T 1 = 2 · 1 ,
1
1
0
0


 
3
3
T −1 = 1 · −1 .
3
3
Definition 4.7.6 Zwei Matrizen M, N ∈ K(n,n) heißen ähnlich, wenn es
P ∈ GL(n, K) gibt mit
P−1MP = N
Satz 4.7.7 Ähnlichkeit ist eine Äquivalenzrelation auf Kn .
Beweis Es gilt I−1 MI = M, also reflexiv. Wenn P−1 MP = N gilt, so gilt
auch PNP−1 = (P−1 )−1 NP−1 = M, also ist die Relation auch symmetrisch.
Zur Transitivität: Gilt P−1 MP = N und Q−1 NQ = S, so ist (PQ)−1 M(PQ) =
Q−1 (P−1 MP)Q = S.
Ziel: Finde Normalformen, d.h. auf jeder Äquivalenzklasse bezüglich der Relation Ähnlichkeit gebe man einen kanonischen Vertreter an.
4.8
Zusammenfassung
• Sie wissen, was lineare Abbildungen sind, und können Beispiele linearer
Abbildungen angeben.
• Sie haben gelernt, dass lineare Abbildungen bereits vollständig durch
Angabe der Bilder von Basisvektoren bestimmt sind.
82
• Sie kennen die Definition des Kerns einer linearen Abbildung und die
Dimensionsformel dim(Kern(T)) + dim(Bild(T)) = dim(V ).
• Zeilenrang=Spaltenrang
• Jeder Unterraum des Rn ist Lösungsraum eines linearen Gleichungssystems.
• Sie wissen, was Transponieren für Matrizen bedeutet.
• Man kann jede lineare Abbildung durch eine Matrix darstellen.
• Der Vektorraum der linearen Abbildungen V → W ist zum Vektorraum
der dim(W ) × dim(V )-Matrizen isomorph.
• Hintereinanderausführung linearer Abbildungen entspricht Matrizenmultiplikation.
• Sie wissen, was der Endomorphismenring und was GL(n, K) ist. Der Endomorphismenring ist zum Ring der n×n-Matrizen “isomorph” (wobei
wir aber Ringisomorphismen nicht präzise definiert haben).
• Die Injektivität einer linearen Abbildung T ist gleichbedeutend mit
Kern(T) = {0}.
• Sie haben gelernt, wie sich Darstellungsmatrizen bei Basiswechsel transformieren.
• Sie kennen die Definition von “Ähnlichkeit” von Matrizen und können
Sie vom Begriff der “Äquivalenz” unterscheiden.
83
Zugehörige Unterlagen
Herunterladen