Kapitel 4 (Lineare Abbildungen)

Werbung
Kapitel 4
Lineare Abbildungen
In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der Algebra.
Grob gesagt geht es darum, dass wir Vektorräume (oder andere algebraische Objekte) nicht unterscheiden wollen, wenn sie nur durch eine andere Bezeichnung
der Elemente auseinander hervorgehen.
4.1
Definition und Beispiele
Definition 4.1.1 V und W seien K-Vektorräume. Eine Abbildung T : V →
W heißt einelineare Abbildung, falls für alle v1 , v2 ∈ V und alle λ ∈ K gilt:
T(v1 + v2 λ) = T(v1 ) + T(v2 )λ.
Beispiel 4.1.2 (1.) Die Identität idVP
: V → V ist P
linear.
n
n
(2.) Die Abbildung D : K[x] → K[x], i=0 ci xi 7→ i=1 ici xi ist linear (Differenzieren).
(3.) Sei T ∈ K(m,n) . Dann ist die Abbildung
Kn
v
→ Km
7
→
Tv
linear. Wir können also jeder Matrix eine lineare Abbildung zuordnen.
Bemerkung 4.1.3 Es gilt T(0) = 0, weil T(0) = T(0 + 0) = T(0) + T(0).
Ferner gilt für alle v, w ∈ V und alle λ ∈ K
T(vλ)
T(v + w)
= T(v)λ
= T(v) + T(w).
65
Der folgende Satz zeigt, dass lineare Abbildungen bereits durch Angabe der
Bilder einer Basis eindeutig bestimmt sind:
Satz 4.1.4 (Satz von der linearen Fortsetzung) Sei V ein endlichdimensionaler K-Vektorraum mit geordneter Basis B = (b1 , . . . bn ). Sei W ein beliebiger K-Vektorraum, und seien c1 , . . . , cn ∈ W beliebige Vektoren. Dann gibt es
genau eine lineare Abbildung T : V → W mit T(bi ) = ci .
Pn
Beweis Zu v ∈ V gibt
Skalare λi mit v = i=1 bi λi .
Pn es eindeutig bestimmte
Pn
Dann muss T(v) = i=1 T(vi )λi = i=1 ci λi sein. Also ist T eindeutig bestimmt. Man rechnet auch leicht
die so definierte Abbildung in der
Pn nach, dassP
n
Tat linear ist: Sei dazu v = i=1 bi λi , w = i=1 bi µi und λ ∈ K. Dann
T(v + wλ)
= T(
n
X
bi (λi + µi λ)
i=1
=
=
n
X
i=1
n
X
ci (λi + µi λ)
c i λi + (
i=1
n
X
ci µi )λ
i=1
= T(v) + T(w)λ
1
2
eine Basis von R2 .
, b2 =
Beispiel 4.1.5 Sei B = {b1 , b2 } mit b1 =
1
1
 
 
0
2
Ferner seien c1 = 1 und c2 = 0 zwei Vektoren aus R3 . Dann ist die
1
1
Abbildung
T:
R2
1
2
λ
λ +
1 2
1 1
→
7→
3
  R  
0
2
1 λ1 + 0 λ2
1
1
x1
linear. Wir würden aber gerne T(
) angeben können. Dazu schreiben wir
x2
1
= b1 − b2
e1 =
0
0
e2 =
= −b1 + 2b2 .
1
66
Dann gilt
T(e1 ) =
c1 − c2
T(e2 ) = −c1 + 2c2
und somit
T(
x1
x2
 
2
= 1
0
 
−2
= −1
1


2x1 − 2x2
) =  x1 − x 2 
x2
Die lineare Abbildung T ist also die zur Matrix


2 −2
1 −1
0 1
gehörende lineare Abbildung.
Wir können dieses Beispiel leicht verallgemeinern:
Satz 4.1.6 Zu jeder linearen Abbildung T : Kn → Km gibt es eine Matrix
K(m,n) so, dass T die zu dieser Matrix gehörende lineare Abbildung ist.
Von jetzt an wollen wir zwischen Matrizen und den zugehörenden linearen Abbildungen Kn → Km nicht mehr unterscheiden. Zunächst ist aber nicht klar, ob
Matrizen etwas mit allgemeinen linearen Abbildungen zwischen Vektorräumen
zu tun haben.
Definition 4.1.7 Sei T : V → W eine lineare Abbildung. Dann definieren
wir
Kern(T)
Bild(T)
:= {v ∈ V : T(v) = 0}
:= {T(v) : v ∈ V }.
.
Beachten Sie: Kern(T) ⊆ V und Bild(T) ⊆ W . Es gilt sogar noch mehr, dass
Kern und Bild nämlich Unterräume sind:
Lemma 4.1.8 Kern(T) ≤ V und Bild(T) ≤ W .
67
Beweis Kern(T) 6= { }, weil 0 ∈ Kern(T). Seien v, w ∈ Kern(T), λ ∈ K. Dann
gilt T(v + wλ) = T(v) + T(w)λ = 0, also ist v + wλ ∈ Kern(T). Der Fall
Bild(T) ≤ W geht ähnlich.
Der Kern der linearen Abbildung, die zu einer Matrix T ∈ K(m,n) gehört, ist
genau der Lösungsraum von Tx = 0. Der Vektorraum, der von den Spalten
aufgespannt wird, ist genau das Bild von T. Mit Hilfe des Kerns hat man eine
sehr schöne Charakterisierung von Injektivität:
Satz 4.1.9 Eine lineare Abbildung T : V → W ist genau dann injektiv, wenn
Kern(T) = {0} gilt.
Beweis Klar ist, dass für eine injektive Abbildung Kern(T) = {0} gilt, denn
sonst hätte 0 ∈ W mehr als ein Urbild. Sei nun T nicht injektiv. Dann gibt
es v, w ∈ V mit T(v) = T(w), aber v 6= w. Das liefert T(v − w) = 0, also
0 6= v − w ∈ Kern(T).
Es gilt folgende sehr wichtige Dimensionsformel:
Satz 4.1.10 Sei T : V → W eine lineare Abbildung, wobei dim(V ) < ∞. Dann
gilt
dim(Kern(T)) + dim(Bild(T)) = dim(V ).
Beweis Sei v1 , . . . , vk eine Basis von Kern(T). Dann können wir v1 , . . . , vk zu
einer Basis v1 , . . . , vn von V ergänzen. Wir zeigen, dass dann T(vk+1 ), . . . , T(vn )
eine Basis von Bild(T) ist. Die Menge {T(v1 ), . . . , T(vn )} ist ein Erzeugendensystem von Bild(T). Weil T(v1 ) = . . . = T(vk ) = 0, ist sogar T(vk+1 ), . . . , T(vn )
ein Erzeugendensystem von Bild(T). Dieses Erzeugendensystem ist linear unabhängig: Wenn es linearP
abhängig wäre, gäbe es Skalare λk+1 , . .P
. , λn , die nicht
n
n
alle gleich 0 sind, mit
T(v
)λ
=
0.
Dann
ist
aber
i
i
i=k+1 vi λi ∈
Pn i=k+1
Kern(T), d.h. 0 6= i=k+1 vi λi ∈ hv1 , . . . , vk i, Widerspruch zur linearen Unabhängigkeit der v1 , . . . , vn .
Dieser Satz (und sein Beweis) haben einige interessante Folgerungen:
Korollar 4.1.11 Sei U ≤ V , wobei V ein endlichdimensionaler Vektorraum
ist. Dann gibt es eine lineare Abbildung T : V → V mit Kern(T) = U .
Beweis Wir wählen eine Basis von U und ergänzen diese zu einer Basis von V .
Wir definieren T nun so, dass T die Elemente der Basis von U auf 0 abbildet, die
Elemente der Basis, die nicht in U liegen, werden auf Vektoren 6= 0 geschickt.
Korollar 4.1.12 Sei U ≤ Kn . Dann gibt es eine Matrix T ∈ K(n,n) so, dass
U = {x ∈ Kn : Tx = 0} gilt.
Neben dem Rang einer Matrix T ∈ K(m,n) kann man auch den Spaltenrang
definieren als die Dimension des von den Spalten von T aufgespannten Unterraumes von Km definieren. Der Spaltenraum ist genau das Bild der zu T
gehörenden linearen Abbildung. Den zuvor definierten Rang wollen wir, zur
Unterscheidung, nun den Zeilenrang nennen. Es gilt:
68
Satz 4.1.13 Für T ∈ K(m,n) gilt
Zeilenrang(T) = Spaltenrang(T).
Beweis Wir betrachten die lineare Abbildung T : Kn → Km , die durch die
Matrix T erklärt ist. Dann ist offenbar Spaltenrang(T) = dim(Bild(T)). Ferner
wissen wir bereits n − Zeilenrang(T) = dim Kern(T). Aus der Dimensionsformel
4.1.10 folgt die Behauptung.
4.2
Zur Äquivalenz von Matrizen und dem Begriff Normalform
Wir nennen zwei Matrizen M und N aus K(m,n) äquivalent, wenn es P ∈
GL(n, K) und Q ∈ GL(m, K) gibt mit QMP = N. Wir können P und Q als
Produkt von Elementarmatrizen schreiben. Multiplikation von rechts mit einer
Elementarmatrix bewirkt aber gerade eine Spaltenumformung. Wir können also
sagen, dass M und N äquivalent sind, wenn sie durch elementare Zeilen- und
Spaltenumformungen auseinander hervorgehen. Jede Matrix ist also zu einer
Matrix


bHr :=  bIr
0m−r
0n−r
0m−r,n−r

äquivalent. Offenbar sind Matrizen Hr und Hr0 mit r 6= r0 nicht äquivalent. Die
Äquivalenzklasse wird somit eindeutig durch den Rang bestimmt, und es gibt
somit min m, n Äquivalenzklassen auf K(m,n) . Matrizen der Form Hr sind Normalformen bzgl. der Relation “Matrizenäquivalenz”. Anhand der Normalform
kann man sofort ablesen, zu welcher Äquivalenzklasse eine Matrix gehört. Bei
komplizierteren Relationen ist das sehr nützlich. Z.B. liefert das Gauß-JordanVerfahren eine Normalform für “Zeilenäquivalenz”. Ferner liefert Zeilenäquivalenz eine feinere Klasseneinteilung der Menge der Matrizen als Zeilenäquivalenz:
Matrizen, die zeilenäquivalent sind, sind sicherlich auch äquivalent,
aber
nicht
1 1
1 0
umgekehrt. So sind beispielsweise die beiden Matrizen
und
0 0
0 0
äquivalent, aber nicht zeilenäquivalent.
Bei der Konstruktion der Normalform Hr werden sowohl Zeilen- als auch Spaltenumformungen erlaubt. Elementare Zeilenumformungen lassen den Zeilenraum, elementare Spaltenumformungen den Spaltenraum fest. Zeilenumformungen ändern aber den Spaltenraum, Spaltenumformungen den Zeilenraum! Ein
vertieftes Verständnis für den Zusammenhang zwischen Zeilen- und Spaltenraum ist erst im Zusammenhang mit der Dualtitätstheorie möglich, die wir im
zweiten Semester entwickeln werden. An dieser Stelle soll nur etwas auf den
Begriff der transponierten Matrix eingegangen werden:
69
Definition 4.2.1 Sei A = (α(i,j) )i=1,...,m;j=1,...n ∈ K(m,n) . Dann heißt A| :=
(αj,i )j=1,...,n;i=1,...m ∈ K(n,m) die zu A transponierte Matrix.
Man kann sich fragen, ob A| auch eine interessante lineare Abbildung repräsentiert, die mit der zu A gehörenden linearen Abbildung etwas zu tun hat. Die
Antwort auf diese Frage ist ja, und auch das wird in der Dualitätstheorie (später)
behandelt.
(AB)| = B| A| .
Satz 4.2.2 (1.)
(2.)
Rang(A) = Rang(A| ).
(3.)
A ∈ Kn,n ist invertierbar
⇔
A| ist invertierbar. Dann gilt ferner
(A−1 )| = (A| )−1 .
Beweis (1.) Sei A = (αi,j ) ∈ K(m,n) und B = (βi,j ) ∈ K(n,p) . Dann ist der
(i, j)-Eintrag von AB gleich dem (j, i)-Eintrag von (AB)| :
(AB)i,j =
n
X
αi,k βk,j = (AB)|j,i
k=1
Weiter gilt
|
|
(B A )j,i =
n
X
|
|
(B )j,k (A )k,i =
k=1
n
X
βk,j αi,k ,
k=1
also (AB)|j,i = (B| A| )j,i .
(2.) Das folgt aus “Zeilenrang gleich Spaltenrang”.
(3.) Übung.
4.3
Zur Algebra linearer Abbildungen
Satz 4.3.1 Es seien V und W Vektorräume über K. Sind T und S lineare
Abbildungen V → W , und ist λ ∈ K, so ist auch T + Sλ eine lineare Abbildung
V → W.
Die Menge aller linearen Abbildungen V → W wollen wir als Hom(V, W ) bezeichnen. Die Bezeichnung kommt daher, dass “strukturerhaltende” Abbildungen in der Mathematik meistens als Homomorphismen bezeichnet werden. In
diesem Sinne sind lineare Abbildungen Homomorphismen. Es gilt:
Korollar 4.3.2 Die Menge Hom(V, W ) mit der üblichen Addition und Skalarmultiplikation ist ein Vektorraum.
70
Korollar 4.3.3 Sind V und W endlichdimensionale Vektorräume, so ist Hom(V, W )
ein Vektorraum der Dimension dim(V ) · dim(W ).
Beweis Sei (b1 , . . . , bn ) eine Basis von V , und sei (c1 , . . . , cm ) eine Basis von
W . Dann gibt es genau eine lineare Abbildung Ti,j : V → W mit Ti,j (bi ) = cj
und Ti,j (bk ) 6= 0 für k 6= i. Diese linearen Abbildungen bilden eine Basis von
Hom(V, W ).
Wir können lineare Abbildungen auch hintereinander ausführen, und erhalten
so wieder eine lineare Abbildung:
Satz 4.3.4 V, W, Z seien K-Vektorräume. Sind T : V → W und S : W → Z
lineare Abbildungen, dann ist auch S ◦ T eine lineare Abbildung V → Z.
Beweis Übung, bzw. einfach.
4.4
Lineare Operatoren, Endomorphismen
Eine lineare Abbildung T : V → V heißt linearer Operator oder Endomorphismus.
Der Endomorphismus V → V mit v 7→ 0 für alle v ∈ V wird auch mit 0V
bezeichnet. Es gilt
Satz 4.4.1 (Endomorphismenring) End(V ) := (Hom(V, V ), +, ◦, 0V , idV ) ist
ein nichtkommutativer Ring. Ferner ist End(V ) ein Vektorraum und es gilt
(T ◦ S)λ = T ◦ (Sλ) = (Tλ) ◦ S
für alle λ ∈ K.
Bijektive Abbildungen kann man eventuell invertieren. Die inversen Elemente
von bijektiven linearen Abbildungen sind wieder linear:
Lemma 4.4.2 Ist T ∈ End(V ) bijektiv, so ist T −1 linear.
Beweis Zu zeigen ist T−1 (v + wλ) = T−1 (v) + T−1 (w)λ. Weil T bijektiv ist,
ist dies gleichbedeutend mit
T(T−1 (v + wλ)) = T(T−1 (v) + T−1 (w)λ)
Das ist aber sicherlich richtig, weil T linear ist.
Bijektive Endomorphismen auf V heißen Automorphismen. Die Automorphismen auf V bilden eine Gruppe GL(V ). Ist V = Kn schreibt man auch
GL(n, K).
71
Bijektive Homomorphismen V → W heißen Isomorphismen. Isomorphismen
bilden linear unabhängige Mengen auf linear unabhängige Mengen ab, und linear
abhängige Mengen werden auf linear abhängige Mengen abgebildet.
Wenn es zwischen V und W einen Isomorphismus gibt, so heißen V und W
isomorph, geschrieben V ∼
= W . Es können nur Vektorräume gleicher Dimension
isomorph sein!
Satz 4.4.3 V und W seien endlichdimensionale K-Vektorräume und dim(V ) =
dim(W ). Für lineare Abbildungen T : V → W sind dann die folgenden Bedingungen äquivalent:
(i) T ist bijektiv
(ii) Kern(T) = {0} (d.h. T ist injektiv)
(iii) Bild(T) = W
(d.h. T ist surjektiv)
(iv) T bildet eine gegebene Basis von V auf eine Basis von W ab.
(v) T bildet jede Basis von V auf eine Basis von W ab.
Beweis Siehe Vorlesung.
Satz 4.4.4 (Hauptsatz über endlichdimensionale Vektorräume) Ist V ein
Vektorraum mit dim(V ) = n, so gilt
V ∼
= Kn
Beweis Ist v1 , . . . , vn eine Basis von V , und ist e1 , . . . , en eine (z.B. die kanonische) Basis von Kn , so gibt es nach Satz 4.4.3 eine bijektive lineare Abbildung
T mit T(vi ) = ei .
4.5
Darstellung linearer Abbildungen durch Matrizen
V und W seien K-Vektorräume, und B = (b1 , . . . , bn ) sei eine geordnete Basis
von V , C = (c1 , . . . , cm ) sei eine geordnete Basis von W . Für eine lineare Abbil(m,n)
wie folgt: Die i-te
dung T : V → W definieren wir eine Matrix [T]B
C ∈ K
B
Spalte von [T]C sei [T(bi )]C , der Koordinatenvektor des Bildes von bi unter der
linearen Abbildung T. Das ist sehr sinnvoll, wie der folgende Satz zeigt:
Satz 4.5.1
[T(v)]C = [T]B
C · [v]B .
72


λ1
Pn
Pn
 
Beweis Sei v = i=1 bi λi , also [v]B =  ... . Dann ist T(v) = i=1 T(bi )λi .
λn
Pm
Wir schreiben das Element T(bi ) bezüglich der Basis C, d.h. T(bi ) = j=1 cj αj,i .
Mit anderen Worten, [T]B
C = (αj,i )j=1,...,m;i=1,...,n . Wir können nun T(v) auch
bzgl. C darstellen:
m X
n
X
T(v) =
cj αj,i λi ,
j=1 i=1
also
 Pn
i=1

[T(v)]C = 
Pn
i=1
 

α1,i λi
λ1

..
B  .. 
=
[T]
·

C  . 
.
αm,i λi
λn
Die Zuordnung einer Matrix zu einer linearen Abbildung ist sogar ein Vektorraumisomorphismus. In diesem Sinne kann man etwas ungenau sagen, dass lineare
Abbildungen dasselbe sind wie Matrizen.
Satz 4.5.2 V und W seien K-Vektorräume mit dim(V ) = n, dim(W ) = m,
und B und C seien geordnete Basen von V und W . Dann ist die Abbildung
[ ]B
C : Hom(V, W )
T
→ K(m,n)
7→ [T]B
C
(4.1)
ein Vektorraumisomorphismus.
Beweis Die Abbildung [ ]B
C ist offenbar linear und injektiv, aus Dimensionsgründen also auch bijektiv.
Dieser Satz sagt noch nichts darüber aus, ob die Hintereinanderausführung von
linearen Abbildungen auch eine vernünftige Interpretation in der “Matrizenwelt” hat. Der nächste Satz sagt, dass dies aber in der Tat der Fall ist:
Satz 4.5.3 V , W und Z seien endlichdimensionale K-Vektorräume mit geordneten Basen B, C und D. Wenn T ∈ Hom(V, W ) und S ∈ Hom(W, Z) ist, so
gilt
C
B
[S ◦ T]B
D = [S]D · [T]C .
Beweis Klar, weil auf der rechten Seite des Gleichheitszeichens eine Matrix M
steht mit M · [v]B = [(S ◦ T)(v)]D . Diese Matrix ist aber die nach Satz 4.5.2
eindeutig bestimmte Darstellungsmatrix von S ◦ T bzgl. der Basen B und D. Korollar 4.5.4 Es seien V und W endlichdimensionale K-Vektorräume mit
geordneten Basen B und C. Dann gilt für lineare Abbildungen T : V → W :
T ist bijektiv
⇔
[T]B
C ist invertierbar.
In diesem Fall gilt
−1
[T−1 ]CB = ([T]B
.
C)
73
Im Fall dim(V ) = dim(W ) = n hat die Zuordnung von Matrizen zu linearen
Abbildungen in Hom(V, W ) also noch eine weitere interessante und wichtige
Eigenschaft: Die Abbildung (4.1) “respektiert” auch die Ringoperation ◦. In
diesem Sinne spricht man auch von einem Ringisomorphismus. Der Ring der
linearen Operatoren ist also “letztlich” dasselbe wie der Matrizenring.
4.6
Basistransformation
Sei wieder T : V → W eine lineare Abbildung. In diesem letzten Abschnitt
wollen wir uns mit der Frage beschäftigen, welcher Zusammenhang zwischen
0
0
B0
Matrizen [T]B
C und [T]C 0 besteht, wenn sowohl C und B als auch C und B
Basen von W und V sind. Die Frage wird durch folgenden Satz vollständig
beantwortet:
Satz 4.6.1 Sei T : V → W eine lineare Abbildung. Ferner sollen B und B 0
geordnete Basen von V sein, und C und C 0 geordnete Basen von W . Mit idV
und idW bezeichnen wir die identischen Abbildungen auf V und W . Dann gilt:
0
0
C
B
B
[T]B
C 0 = [idW ]C 0 · [T]C · [idV ]B .
Beweis Das folgt unmittelbar aus 4.5.3.
Bemerkung 4.6.2 Die Darstellungsmatrizen
MB
B0 aus Abschnitt 3.6.
[idV ]B
B0
sind genau die Matrizen
Wir wollen uns diesen Satz an zwei Beispielen klarmachen:
Beispiel 4.6.3 Wir betrachten die lineare Abbildung
 
x1
x1 + x 2
T(x2 ) =
.
2x3 − x1
x3
Wenn B und C jeweils die kanonische Basis von R3 und R2 bezeichnet, so gilt
1 1 0
B
[T]C =
−1 0 2
Wir suchen nun die Darstellungsmatrix von T bezüglich der geordneten Basen
    
1
1
1
B 0 = ( 0  , 1 0),
−1
1
0
1
0
)
,
C0 = (
1
1
Wir benötigen dazu die beiden Matrizen
[idR3 ]B
B
0
und [idR2 ]CC 0
74
Die erste Matrix ist einfach
[idR3 ]B
B
0

1 1 1
=  0 1 0
−1 1 0

Ferner ist
0
[idR2 ]CC 0 = ([idR2 ]CC )−1 =
−1 −1 1
0 1
=
1 0
1 1
(4.2)
Wir erhalten


1 1 1
−1
1
1
1
0
−4 −1 −2
B


[T]C 0 =
·
· 0 1 0 =
.
1 0
−1 0 2
1
2
1
−1 1 0
 
 
1
3
Rechnen wir dies am Beispiel v = 1 nach: Es gilt [v]B0 = 1 und
0
1
0
−7
0
[T]B
·
[v]
=
.
B
C0
4
−7
4
Wir müssen noch
= [T(v)]C 0 überprüfen: Es gilt T(v) =
= −7 ·
4
−3
1
0
.
+4·
1
1
0
Beispiel 4.6.4 Wir betrachten die durch


1 0 2
T = 3 2 1
1 1 2
in
(3,3)
F5
definierte lineare Abbildung F53 → F53 . Gesucht sei
     
3
1
1
0
[T]B
mit B 0 = (0 , 3 , 0).
B0
1
1
0
Ist B die kanonische Basis von F53 , so gilt


1 0 2
3 2 1
[T]B
B =
1 1 2
Nun ist
[id]B
B
0


1 1 3
= 0 3 0
0 1 1
75
und
[id]B
B0

−1 

1 4 2
1 1 3
= 0 3 0 = 0 2 0 .
0 3 1
0 1 1
Wir erhalten
0
[T]B
B0

 
 
 
0 0 0
1 1 3
1 0 2
1 4 2
= 0 2 0 · 3 2 1 · 0 3 0 = 1 0 0 .
0 1 0
0 1 1
1 1 2
0 3 1

Diese Matrix sieht ganz offensichtlich übersichtlicher aus als [T]B
B . Ein wichtiges
Ziel der Linearen Algebra ist es, einfache Darstellungsmatrizen zu finden.
Beispiel 4.6.5 Sei


5 −6 −6
2
T = −1 4
3 −6 −4
aus R(3,3) .
Wir wollen die durch T definierte lineare Abbildung R3 → R3 bezüglich der
Basis
     
2
2
3
B 0 = (0 , 1 , −1)
1
0
3
ausdrücken. Es gilt
0
0
0
B −1
[T]B
· T · [id]B
B0 = ([id]B )
B .
Wir haben
[id]B
B
0
und
P−1
Dann

2 2 3
= 0 1 −1 =: P
1 0 3


3 −6 −5
2
= −1 3
−1 2
2



2 0 0
P−1 TP = 0 2 0
0 0 1
Das kann man leicht nachprüfen, denn
 
 
 
 
2
2
2
2
T 0 = 2 · 0 , T 1 = 2 · 1 ,
0
0
1
1
76
 

3
3
T −1 = 1 · −1 .
3
3

Definition 4.6.6 Zwei Matrizen M, N ∈ K(n,n) heißen ähnlich, wenn es
P ∈ GL(n, K) gibt mit
P−1 MP = N
Satz 4.6.7 Ähnlichkeit ist eine Äquivalenzrelation auf Kn .
Beweis Es gilt I−1 MI = M, also reflexiv. Wenn P−1 MP = N gilt, so gilt auch
PNP−1 = (P−1 )−1 NP−1 = M, also ist die Relation auch symmetrisch. Zur
Transitivität: Gilt P−1 MP = N und Q−1 NQ = S, so ist (PQ)−1 M(PQ) =
Q−1 (P−1 MP)Q = S.
Ziel: Finde Normalformen, d.h. auf jeder Äquivalenzklasse bezüglich der Relation Ähnlichkeit gebe man einen kanonischen Vertreter an.
4.7
Zusammenfassung
• Sie wissen, was lineare Abbildungen sind, und können Beispiele linearer
Abbildungen angeben.
• Sie haben gelernt, dass lineare Abbildungen bereits vollständig durch Angabe der Bilder von Basisvektoren bestimmt sind.
• Sie kennen die Definition des Kerns einer linearen Abbildung und die Dimensionsformel dim(Kern(T)) + dim(Bild(T)) = dim(V ).
• Zeilenrang=Spaltenrang
• Jeder Unterraum des Rn ist Lösungsraum eines linearen Gleichungssystems.
• Sie wissen, was Transponieren für Matrizen bedeutet.
• Man kann jede lineare Abbildung durch eine Matrix darstellen.
• Der Vektorraum der linearen Abbildungen V → W ist zum Vektorraum
der dim(W ) × dim(V )-Matrizen isomorph.
• Hintereinanderausführung linearer Abbildungen entspricht Matrizenmultiplikation.
• Sie wissen, was der Endomorphismenring und was GL(n, K) ist. Der Endomorphismenring ist zum Ring der n × n-Matrizen “isomorph” (wobei
wir aber Ringisomorphismen nicht präzise definiert haben).
• Die Injektivität einer linearen Abbildung T ist gleichbedeutend mit Kern(T) =
{0}.
77
• Sie haben gelernt, wie sich Darstellungsmatrizen bei Basiswechsel transformieren.
• Sie kennen die Definition von “Ähnlichkeit” von Matrizen und können Sie
vom Begriff der “Äquivalenz” unterscheiden.
78
Herunterladen