x 4 LINEARE ABBILDUNGEN Bemerkungen

Werbung
x 4 LINEARE ABBILDUNGEN
Denition: Seien V; V1 Vektorraume. Eine Abbildung f heit linear, falls
(i)
f (x + y) = f (x) + f (y) (x; y 2 V )
(ii)
f (x) = f (x) ( 2 R; x 2 V )
Bemerkungen:
I. (i) und (ii) oben sind aquivalent zu:
(iii)
f (x + y) = f (x) + f (y) (; 2 R; x; y 2 V )
II. Ein Isomorphismus ist eine Bijektion, die auch linear ist.
Wir schreiben L(V; V1) fur die Menge aller linearen Abbildungen von V nach V1 . Dieser
Raum ist selber ein Vektorraum, wenn wir folgende Operationen einfuhren:
(f + f1)(x) := f (x) + f1(x)
(f )(x) := f (x)
Raume von linearen Operatoren haben eine zusatzliche Struktur { die der Zusammensetzung. Es ist leicht zu sehen, da die Zusammensetzung von zwei linearen Operatoren
wieder linear ist. Denn:
f g(x + y) = f g(x + y) = f g(x) + g(y) = f g(x) + f g(y)
= (f g)(x) + (f g)(y):
Es gilt auch:
1) f (g + h) = f g + f g
2) (f + g) h = f h + g h
3) (f g) = (f ) g = f (g).
Im Speziallfall, wo V = V1 , induziert diese Operation eine Multiplikation auf dem Raum
L(V ) := L(V; V ). Wir sagen, da L(V ) eine Algebra ist (d.h. ein Vektorraum mit einer
Multiplikation, die 1) { 3) oben erfullt).
Beispiele von linearen Abbildungen:
I. Matrizen: Sei A eine Matrix. Wir haben gesehen,
da A eine lineare Abbildung fA von
n
P
n
m
R in R induziert, wobei fA (1; : : :; n) = aij j mi=1 .
j =1
II. Auswertung bzw. Integration fur stetige Funktionen: Die Abbildungen
Z1
f 7! f (t)dt
0
f 7! f (0)
72
auf C [0; 1] sind linear.
III. Formale Dierentiation und Integration: Die Abbildungen
a0 + a1t + + an tn 7! a1 + 2a2t + + nantn 1
und
a0 + a1t + + an tn 7! a0t + + na+n 1 tn+1
von Pol (n) in Pol (n 1) bzw. Pol (n) in Pol (n + 1) sind linear.
Bemerkung: Wenn f : V ! V1 linear ist und (x1; : : :; xn ) eine Basis fur V ist, dann
genugt es, die (endlich viele) Werte (f (x1); : : :; f (xn)) zu kennen, um f zu rekonstruieren.
Denn fur x = 1 x1 + + n xn 2 V , gilt:
f (x) = 1 f (x1) + + n f (xn ):
Matrizendarstellungen von linearen Abbildungen:
Der Inhalt dieses Abschnittes ist sehr einfach. Wir haben gesehen, da m n Matrizen
lineare Abbildungen von Rn in Rm erzeugen. Es ist auch leicht zu sehen, da alle linearen Abbildungen so entstehen. Da jeder endlich dimensionale Vektorraum zu einem
Rn isomorph ist, lat sich jede lineare Abbildung als eine Matrix darstellen, wobei die
Darstellung abhangig vom Isomorphismus d.h. von der Basenwahl ist.
Zunachst die einfache Bemerkung, da jede lineare Abbildung f : Rn ! Rm von einer
Matrix induziert wird, d.h. die Gestalt fA (A 2 Mm;n) hat. Denn sei (a1j ; : : :; amj ) die
Koordinatendarstellung von f (ej ) und sei A die Matrix [aij ] (d.h. die Spalten von A sind
die Bilder der kanonischen Basiselemente von Rn ). Dann gilt: f = fA . Denn
0n 1
X
f ((1; : : :; n)) = f @ j ej A
=
n
X
j =1
n
X
j =1
j f (ej )
m
X
!
j
aij ei
j =1
i=1
0n
1
m X
X
= @ aij j A ei
i=1 j =1
= fA ((1; : : :; n))
=
73
Seien nun f : V ! V1 eine lineare Abbildung, (x1; : : :; xn ) eine Basis fur V , (y1; : : :; ym)
eine Basis fur V1. Dann hat f (xj ) eine Darstellung
f (xj ) =
bezuglich (yi ).
m
X
i=1
aij yi
Wir nennen diese Matrix [aij ] die Matrizendarstellung von f bezuglich der Basis
(xi ) bzw. (yj ).
Es gilt dann allgemein:
1 n
0n
X
X
f @ j xj A = j f (xj )
j =1
j =1
n
X
m
X
!
j
aij yi
j =1
i=1
1
0n
m X
X
= @ aij j A yi :
i=1 j =1
=
Wenn wir die Abhangigkeit von f betonen wollen, bezeichnen wir diese Matrix mit Af .
Af kann man wie folgt beschreiben. Die Basen (xi ) bzw. (yi ) bestimmen Isomorphismen
g : Rn ! V bzw. Rm ! V1 . Die Matrix Af ist genau die Matrix der entsprechenden
Abbildung h 1 f g von Rn in Rm .
Beispiel: Wir berechnen die Matrix des Dierentiationsoperators
D : a0 + a1t + + an tn 7! a1 + 2a2t + + nan tn
auf Pol (n) bezuglich der Basis (1; t; : : :; tn) bzw. (1; t; : : :; tn 1).
Man sieht leicht, da
20 1 0 ::: 03
6 0 0 2 : : : 0. 77
A = 64 ..
.. 5
.
0 0 0 ::: n
A hnlicherweise ist die Matrix des Integrationsoperators
I : a0 + + an tn 7! a0t + + na+n 1 tn+1
20 0 :::
66 1. 0 : : :
64 ..
0 3
0 77
.. 7
. 5
1
0 0 ::: n+ 1
74
1
Der folgende Satz bestatigt die \Richtigkeit" unserer Denition der Matrizenmultiplikation:
Satz: Seien V; V1; V2 Vektorraume mit Basen (xk )pk=1 bzw. (yj )nj=1 bzw. (zi )mi=1 . Seien
f 2 L(V; V1), g 2 L(V1; V2), dann gilt
Agf = Ag :Af
Beweis: Sei
f (xk ) =
g (yj ) =
Dann gilt:
n
X
j =1
m
X
i=1
ajk yj d.h. Af = [ajk ]
a~ij zi d.h. Ag = [~aij ]:
0n
1
X
(g f )(xk ) = g f (xk ) = g @ ajk yj A
=
n
X
ajk g(yj ) =
j =1
0n
m X
X
j =1
n
X
j =1
ajk
m
X
i=1
1
= @ a~ij ajk A zi
2i=1n j=1 3
X
d.h. Agf = 4 a~ij ajk 5 = Ag :Af :
j =1
a~ij zi
!
i;k
Wenn wir mit Koordinatensystemen arbeiten, dann brauchen wir Formeln, die den
U bergang von einer Matrizendarstellung zu einer anderen beschreiben.
Sei daher f ein linearer Operator von V von W und seien (x1; : : :; xn ), (x01; : : :; x0n ) (bzw.
(y1; : : :; ym), (y10 ; : : :; ym0 )) Basen fur V bzw. W . Sei
A die Matrix von f bzgl. (x1; : : :; xn ), (y1 ; : : :; ym)
A0 die Matrix von f bzgl. (x01; : : :; x0n ), (y10 ; : : :; ym0 ).
Dann gilt:
A0 = S 1 AT
m
P
Pn
wobei yj0 = sij yi , x0j = tij xi d.h. S die U bergangsmatrix von (yi ) nach (yi0 ) bzw. T
i=1
i=1

die Ubergangsmatrix von (xi ) nach (x0i ) ist.
75
Beweis: Seien
x=
f (x) =
Es gilt:
j =
Daraus folgt:
n
X
k=1
n
X
k=1
m
X
j =1
ajk k =
k x k =
j y j =
n
X
k=1
ajk
n
X
l=1
m
X
i=1
0i yi0 :
n
X
l=1
0l x0l
!
tkl 0l :
m
X
0
i = s~ij j
j =1
X
!
m
n
n
X
X
= s~ij
ajk
(wobei S 1 = [~sij ])
tkl 0l
j =1
k=1
l=1
0
1
n X
m X
n
X
= @
s~ij ajk tkl A 0l
l=1 j =1 k=1
d.h. A0 ist die Matrix S 1 AT .
Korollar: Sei f 2 L(V ) und seien (x1; : : : ; xn) bzw. (x01 ; : : :; x0n) Basen von V . Dann gilt
folgende Beziehung
A0 = S 1 AS
wobei S die U bergangsmatrix von (xi) nach (x0i ) und A bzw. A0 die Matrizendarstellung
von f bzgl. (xi ) bzw. (x0i ) ist.
Nach diesen U berlegungen ist es naturlich, folgende Denition einzufuhren: Zwei m n
Matrizen A, A0 sind aquivalent, falls es invertierbare Matrizen S (m m), T (n n) gibt,
soda
A0 = S 1 AT
d.h. A0 und A sind Matrizendarstellungen des gleichen Operators f 2 L(V; W ) (bzgl.
verschiedener Basen in V und W ).
Zwei (n n) Matrizen A, A0 heiten ahnlich, falls es eine invertierbare n n Matrix S
gibt, soda
A0 = S 1 AS
(d.h. A und A0 sind Matrizendarstellungen des gleichen Operators f in L(V ) bzgl. verschiedener Basen in V ).
76
Jetzt geben wir eine koordinatenfreie Beschreibung des Ranges einer Matrix.
Sei f 2 L(V; W ). Wir betrachten folgende wichtigen Teilraume:
ker f = x 2 V : f (x) = 0
Im f = f (V ):
Wir denieren: Rang f = dim (Im f ) = dim f (V )
Korang f = dim (ker f )
Falls f eine von einer Matrix erzeugte Abbildung fA ist, dann ist
2 3
1
6
.
ker(fA) = f(1; : : :; n) : A 4 .. 75 = 0g
n
d.h. die Losungsmenge des homogenen Systems AX = 0.
fA (Rn ) ist die Menge aller Vektoren (1; : : : ; n ), soda 1 ; : : :; n existieren, mit
2 3
2 3
1
1
6
7
6
.
.
.
.
A 4 . 5 = 4 . 75
m
n
d.h. die Menge der n-Tupeln (1 ; : : :; m ), fur die die inhomogene Gleichung losbar ist.
Daraus sieht man, da Rang (fA ) gleich Rg (A) ist.
Satz: Sei f : V ! W eine lineare Abbildung. Dann gilt: dim f (V ) dim V .
Beweis: Sei (x1; : : :; xn ) eine Basis fur V . Es ist klar, da die Menge (f (x1); : : :; f (xn))
f (V ) aufspannt. Daraus folgt: dim f (V ) n.
Korollar: Seien f : V ! V1 , g: V1 ! V2 lineare Abbildungen. Dann gilt:
Rang(g f ) Rang(f ); Rang(g f ) Rang(g):
(Fur Matrizen: Rg (AB ) Rg (A), Rg (AB ) Rg (B )|Vgl. Kapitel 2).
Satz: Sei f : V ! W eine lineare Abbildung. Dann gilt:
Rang(f ) + Korang(f ) = dim V:
Beweis: Wir wahlen eine Basis (x1; : : :; xn), soda (xr+1 ; : : :; xn) eine Basis fur ker(f ) ist.
Setze V1 : = [x1; : : : ; xr ], V2 : = [xr+1; : : :; xn ]. Wir behaupten, da f jV1 ein Isomorphismus
von V1 auf f (V ) ist.
77
1) f jV1 ist injektiv. Seien x; y 2 V1 mit f (x) = f (y). Dann gilt f (x y) = 0 d.h.
x y = ker(f ). Aber x y 2 V1 { daher gilt: x y 2 ker(f ) \ V1 = f0g d.h. x = y.
2) f (V1) = f (V ). Trivialerweise gilt: f (V1) f (V ). Andererseits hat jedes x 2 V eine
Darstellung y + z (y 2 ker(f ), z 2 V1 ). Dann gilt:
f (x) = f (y) + f (z) = f (z) 2 f (V1)
d.h. f (V ) f (V1).
Daraus folgt:
dim V = dim V1 + dim V2
= dim f (V ) + dim ker(f )
= Rang(f ) + Korang(f ):
Satz: Sei f eine lineare Abbildung von V in V . Dann sind folgende Aussagen aquivalent:
1) f ist ein Isomorphismus;
2) f ist injektiv;
3) f ist surjektiv;
Beweis: Es ist klar, da 1) impliziert 2) und 3).
2) impliziert 1): Aus der obigen Konstruktion folgt, da dim f (V ) = dim V . Daraus folgt:
f (V ) = V .
3) impliziert 1): Wiederum folgt: dim ker(f ) = 0 d.h. f ist injektiv.
Projektionen: Eine wichtige Klasse von linearen Abbildungen sind diejenige, die wie folgt
entstehen: Falls V1 ein Teilraum von V ist, und V2 ein komplementarer Teilraum, dann
hat jedes x 2 V eine eindeutige Darstellung x = y + z (y 2 V1 ; z 2 V2). Die Abbildung
P : x 7! y
ist linear { wir nennen sie die Projektion auf V1 entlang V2 .
Beispiel: Falls V1 eine Ebene in R3, V2 eine Gerade (beide durch 0), dann ist die Projektion von x auf V1 entlang V2 der Punkt, wo die Gerade durch x, parallel zu V2 , V1
schneidet.
Falls P eine Projektion ist, dann gilt: P 2 = P . Andererseits ist jede lineare Abbildung
P mit P 2 = P eine Projektion und zwar die Projektion auf V1 : = P (V ) entlang V2 : =
(Id P )V .
Beweis: Wir zeigen zunachst, da V1 und V2 komplementar sind. Denn jedes x hat
die Darstellung Px + (Id P )x, wobei Px 2 V1 und (Id P )x 2 V2 . Auerdem gilt:
V1 \ V2 = f0g. Denn x 2 V1 gilt genau dann, wenn x = Py (y 2 V ). Daraus folgt
Px = P 2y = Py = x. Falls x 2 V2 , dann gilt:
x = (Id P )z (z 2 V )
78
und daher
(Id P )x = (Id P )2 z = (Id 2P + P 2 )z = (Id P )z = x:
Daraus folgt: x = Px = 0.
Diese U berlegung zeigt, da Id P die Projektion auf V2 entlang V1 ist. Auerdem ist
V2 = ker (P ).
Wir werden jetzt zeigen, da Projektionen genau diejenigen linearen Abbildungen sind,
die eine Matrizendarstellung der Art
I
0
0
r
0
bzgl. einer geeigneten Basis (x1; : : :; xn ) haben.
Es ist klar, da eine lineare Abbildung P mit einer solchen Darstellung die Bedingung
P 2 = P erfullt. Daher ist P eine Projektion.
Sei jetzt P die Projektion auf V1 entlang V2 . Wir wahlen eine Basis (x1; : : :; xn ), soda
(x1; : : :; xr ) (bzw. (xr+1 ; : : :; xn)) eine Basis fur V1 bzw. V2 . Dann gilt:
Px1 = x1 ; : : :; Pxr = xr
Pxr+1 = = Pxn = 0
d.h.
I
ist die Matrix von P bzgl. (x1; : : : ; xn).
0
0
r
0
Zerlegungen und Blockdarstellungen: Seien jetzt V; W Vektorraume mit Zerlegungen:
V = V1 V2; W = W1 W2:
Sei P (bzw. Q) die Projektion auf V1 entlang V2 (bzw. W1 entlang W2 ). Dann ist (Id P )
(bzw. (Id Q)) die Projektion auf V2 entlang V1 (bzw. auf W2 entlang W1 ).
f : V ! W sei eine lineare Abbildung. Wir denieren lineare Abbildungen
f11: V1 ! W1 ; f12: V2 ! W1 ; f21: V1 ! W2 ; f22: V2 ! W2
wie folgt:
f11(x) = Qf (x) (x 2 V1 )
f21(x) = (Id Q)f (x) (x 2 V1 )
f12(x) = Qf (x) (x 2 V2 )
f22(x) = (Id Q)f (x) (x 2 V2 ):
79
Fur x = x1 + x2 (x1 2 V1 ; x2 2 V2 ) gilt:
f (x) = f (x1) + f (x2) = f11(x1 ) + f12(x2 ) + f21 (x1) + f22 (x2):
Wir schreiben symbolisch:
bzw.
f
f
f = f11
21
f12
f22
f12
x1 = f11(x1) +f12(x2 )
f22
x2
f21(x1) +f2 (x2 )
Seien jetzt (x1; : : :; xn ) bzw. (y1 ; : : :; ym) Basen fur V bzw. W , soda
f (x) = f11
21
(x1 ; : : :; xn1 )
(xn1 +1 ; : : :; xn)
(y1; : : :; ym1 )
(ym1+1 ; : : :; ym)
eine Basis fur
eine Basis fur
eine Basis fur
eine Basis fur
V1 ;
V2 ;
W1 ;
W2
sind.
Die entsprechende Matrix fur f sei A. A hat eine Blockdarstellung
A
A12
A22
11
A21
(wobei A11 eine n1 m1 Matrix ist usw.) Dann ist Aij die Matrix von fij (bzgl. den
entsprechenden Basen).
Besonders wichtig sind die folgenden Falle:
1) f (V1) W1. Dann ist f21 = 0, d. h. die Blockdarstellung hat die Gestalt
A
A12
A22
11
0
2) f (V1) W1 und f (V2) W2. Dann gilt f12 = 0, f21 = 0 und die Blockdarstellung hat
die Gestalt
A
0
11
0
A22
Im Spezialfall, wo V = W , V1 = W1 , V2 = W2, sagen wir, da V1 f -variant ist, falls
f (V1) V1. Die obigen U berlegungen zeigen, da die Existenz von invarianten Teilraumen
vereinfachte Darstellungen fur f liefern.
80
Herunterladen