2.5 Lineare Abbildungen

Werbung
2.5. Lineare Abbildungen
2.5
53
Lineare Abbildungen
Die mit der Vektorraumstruktur verträglichen Abbildungen zwischen zwei Vektorräumen über einem Körper K werden als linear bezeichnet. Genauer definiert
man:
2.33 Definition Eine Abbildung L: V → W zwischen zwei K-Vektorräumen V
und W heisst linear , wenn für alle v, w ∈ V , λ ∈ K, folgendes gilt:
1. L(v + w) = L(v) + L(w).
2. L(λv) = λL(v).
2.34 Bemerkung Für jede lineare Abbildung L: V → W gilt L(0) = 0, das heisst
L bildet den Nullvektor aus V auf den Nullvektor aus W ab.
Beweis. Denn sei v ∈ V gewählt. Dann folgt aus der zweiten Bedingung L(0) =
L(0 · v) = 0 · L(v) = 0.
q.e.d.
2.35 Beispiele (a) Sämtliche Drehungen des R2 um den Nullpunkt um einen
beliebigen Winkel α ∈ [0, 2π] sind linear, sie sind sogar längentreu und bilden Dreiecke auf kongruente Dreiecke ab. Die Drehung Dα um den Winkel α
können wir folgendermassen mithilfe einer Matrix beschreiben:
x
cos α − sin α
x
Dα
=
für alle x, y ∈ R.
y
sin α cos α
y
x
x cos α − y sin α
Denn ist v =
, so ist Dα (v) =
.
y
x sin α + y cos α
(b) Jede Spiegelung des R2 an einer Gerade durch den Nullpunkt ist linear. Aber
die Spiegelungen, deren Spiegelachsen nicht durch den Nullpunkt gehen, sind
nicht linear, weil sie den Nullpunkt nicht festlassen.
(c) Die Abbildung L: R2 → R3 , definiert durch




1
2
x + 2y
x
x
) :=  −1 1  ·
L(
=  −x + y  ,
y
y
3 −2
3x − 2y
ist ebenfalls linear.
Die Bezeichnung “linear” stammt daher, dass eine lineare Abbildung von Rn
nach Rm die Eigenschaft hat, sämtliche affinen Geraden wieder in affine Geraden
(oder eventuell auf Punkte) abzubilden. Denn sei g = {αv + p | α ∈ R} die Gerade
mit Richtungsvektor 0 6= v ∈ Rn durch p ∈ Rn . Dann wird g von L auf die Menge
L(g) = {αL(v) + L(p) | α ∈ R} ⊂ Rm abgebildet. Ist L(v) 6= 0, so handelt es
sich um die Gerade mit Richtungsvektor L(v) ∈ Rm durch L(p) ∈ Rm . Ist L(v) der
Nullvektor in Rm , so besteht L(g) nur aus dem einen Element L(p).
54
Kapitel 2. Vektorräume
2.36 Satz Jede Matrix A vom Typ m × n mit Einträgen in K definiert eine lineare
Abbildung LA : Kn → Km , v 7→ A · v. Umgekehrt gibt es zu jeder linearen Abbildung
L: Kn → Km eine m × n-Matrix A mit Einträgen in K, so dass gilt L = LA . An den
Spalten von A können wir die Bilder der kanonischen Basisvektoren ej ∈ Kn unter
L ablesen.
Beweis. Man kann direkt nachrechnen, dass die Multiplikation von Spaltenvektoren
mit einer festen Matrix eine lineare Abbildung liefert.
Sei jetzt umgekehrt eine lineare Abbildung L: Kn → Km vorgegeben. Um die
entsprechende Matrix zu finden, schreiben wir zunächst die Bilder der kanonischen
Basisvektoren e1 , . . . , en des Kn als Spaltenvektoren in Km auf:




a11
a1n
.
.
L(e1 ) =  ..  , . . . , L(en ) =  ..  .
am1
amn
Aus diesen n Spaltenvektoren bilden wir eine Matrix (mit Einträgen in K):


a1n
a11
.
.
A :=  .. . . . ..  .
amn
am1
Diese Matrix leistet das Gewünschte, denn es gilt:
 
 
x1
x1
.. 
.. 



L
= L(x1 e1 + · · · + xn en ) = x1 L(e1 ) + · · · + xn L(en ) = A ·
.
.
xn
xn
für alle x1 , . . . , xn ∈ K.
q.e.d.
2.37 Beispiele (a) Die Matrix zur Drehung des R2 um den Nullpunkt um den
Winkel α lautet, wie schon erwähnt:
cos α − sin α
.
sin α
cos α
(b) Die Spiegelung des R2 an der Winkelhalbierenden wird durch folgende Matrix
beschrieben:
0 1
.
1 0
2.38 Bemerkung Die Hintereinanderausführung L2 ◦ L1 von zwei linearen Abbildungen L1 : Kn → Ks und L2 : Ks → Km ist definiert durch L2 ◦ L1 (v) = L2 (L1 (v))
für v ∈ Kn . Ist L1 durch die Multiplikation mit der s × n-Matrix B gegeben und L2
durch die Multiplikation mit der m × s-Matrix A, so entspricht L2 ◦ L1 der Multiplikation mit der Produktmatrix C = AB. Denn L2 (L1 (v)) = A(Bv) = (AB)v = Cv
für alle v ∈ Kn .
2.5. Lineare Abbildungen
55
2.39 Beispiel Wir können dieses Prinzip ausnutzen, um die Matrix anzugeben,
die eine Spiegelung des R2 an einer Geraden durch 0 beschreibt. Nehmen wir an,
die Gerade g bilde mit der x-Achse den Winkel α. Ist α = 0, so handelt es sich
um
an der x-Achse, die durch die Multiplikation mit der Matrix
die Spiegelung
1 0
gegeben ist. Ist α 6= 0, dann können wir die Spiegelung an g in drei
0 −1
Etappen vollziehen, indem wir nämlich zuerst um den Winkel −α drehen, dann an
der x-Achse spiegeln und schliesslich um den Winkel α (zurück)drehen. Das Produkt
der entsprechenden Matrizen lautet:
cos α − sin α
1 0
cos α sin α
C :=
.
sin α cos α
0 −1
− sin α cos α
Also wird die Spiegelung an der Geraden g durch die Multiplikation mit der Matrix
cos α
sin α
cos α sin α
cos(2α)
sin(2α)
C=
=
sin α − cos α
− sin α cos α
sin(2α) − cos(2α)
beschrieben.
Auch orthogonale Projektionen sind lineare Abbildungen. Erinnern wir dazu an
das Skalarprodukt auf R3 , definiert durch
 
 
3
v1
w1
X



vk wk , falls v = v2 , w = w2  .
hv, wi :=
k=1
v3
w3
Bekanntlich stehen v und w genau dann senkrecht aufeinander, wenn hv, wi = 0 ist,
und für die Länge des Vektors v gilt nach dem Satz von Pythagoras:
q
p
||v|| = v12 + v22 + v32 = hv, vi .
Entsprechend setzen wir deshalb für v, w ∈ Rn (und n ∈ N):
hv, wi :=
n
X
vk wk
und ||v|| =
k=1
p
hv, vi ,



w1
v1


 v2 
 , w =  w.2  .
falls v = 
.
 .. 
 .. 
wn
vn

Für das Skalarprodukt gelten folgende Rechenregeln (jeweils für alle λ ∈ R, u, v, w ∈
Rn ):
• hv, wi = hw, vi;
• hλv, wi = λhv, wi und hu + v, wi = hu, wi + hv, wi;
• hv, vi > 0, falls v 6= 0.
56
Kapitel 2. Vektorräume
Sei jetzt E ⊂ R3 eine Ebene durch den Nullpunkt, die von den Vektoren u und
w erzeugt werde. Ausserdem gelte ||u|| = ||w|| = 1 und hu, wi = 0. Dann wird durch
die Vorschrift
P : R3 → E, v 7→ hv, uiu + hv, wiw
eine lineare Abbildung erklärt, und zwar handelt es sich um die orthogonale Projektion von R3 auf die Ebene E. (Es könnte also zum Beispiel ein Aufriss oder Grundriss
sein.) Die Linearität ist leicht nachzurechnen. Um die geometrische Interpretation
einzusehen, betrachten wir zu v ∈ R3 den Vektor
v ′ := v − P (v) = v − hv, uiu + hv, wiw .
Nachrechnen zeigt, dass hv ′ , ui = 0 und hv ′, wi = 0. Der Vektor v ′ steht also senkrecht auf u und w und damit auf der von beiden erzeugten Ebene E. Das bedeutet,
in der Zerlegung v = P (v) + v ′ gibt v ′ die Komponente von v senkrecht zu E und
P (v) die Komponente parallel zu E an. Mit anderen Worten, P (v) ist gerade die
orthogonale Projektion von v in E.
Man kann jede lineare Abbildung zwischen endlichdimensionalen K-Vektorräumen durch eine Matrix mit Einträgen in K beschreiben. Dazu muss man aber zunächst
Basen für die Vektorräume wählen. Ist A = (v1 , . . . , vn ) eine Basis von V , lässt sich
jeder Vektor v ∈ V in eindeutiger Weise als Linearkombination der vj schreiben:
v = x1 v1 + · · · + xn vn .
(Denn angenommen, es gäbe zwei verschiedene Arten, den Vektor v als Linearkombination der vj zu schreiben, etwa v = x1 v1 +· · ·+xn vn = y1 v1 +· · · yn vn . Dann folgte
0 = (x1 − y1 )v1 + · · · (xn − yn )vn , und daraus wegen der linearen Unabhängigkeit von
A weiter xj = yj für alle j. Also stimmten die Linearkombinationen doch überein.)
Den Spaltenvektor, gebildet aus den Koeffizienten xj ∈ K, bezeichnen wir als den
Koeffizientenvektor von v bezüglich der Basis A:
 
x1
.. 

Koeff A (v) :=
.
.
xn
2.40 Bemerkung Jede Wahl einer Basis A = (v1 , . . . , vn ) für V liefert eine umkehrbare lineare Abbildung LA : V → Kn , v 7→ Koeff A (v) . Dabei wird vj jeweils auf
n
−1
n
den kanonischen Basisvektor
  ej ∈ K abgebildet. Die Umkehrabbildung (LA ) : K →
x1
.. 

7→ x1 v1 + · · · + xn vn , und ist ebenfalls linear.
V ist gegeben durch
.
xn
Beweis. Die angegebene Zuordnung ist offenbar bijektiv, weil wir explizit eine Umkehrabbildung angeben können. Überprüfen wir nun die Linearität. Für λ ∈ K gilt
λv = (λx1 )v1 + · · ·+ (λxn )vn und damit Koeff A (λv) = λ Koeff A (v). Ist ṽ ein weiterer
2.5. Lineare Abbildungen
57
Vektor aus V der Form ṽ = x̃1 v1 + · · · + x̃n vn , so gilt v + ṽ = (x1 + x̃1 )v1 + · · · +
(xn + x̃n )vn und wir erhalten
Koeff A (v + ṽ) = Koeff A (v) + Koeff A (ṽ) .
Die Linearität der Umkehrabbildung kann man durch Einsetzen ebenfalls direkt
nachrechnen.
q.e.d.
2.41 Satz Sei K ein Körper, V ein K-Vektorraum mit Basis A = (v1 , . . . , vn ) und
W ein K-Vektorraum mit Basis B = (w1 , . . . , wm ). Jede Matrix A vom Typ m×n mit
Einträgen in K definiert eine lineare Abbildung L: V → W , die dadurch bestimmt
ist, dass
Koeff B (L(v)) = A · Koeff A (v) .
Umgekehrt gibt es zu jeder linearen Abbildung L: V → W eine m × n-Matrix A,
die L induziert. Wir bezeichnen diese Matrix auch mit A = B MA (L). Die Spalten
dieser Matrix geben die Koeffizienten der Bildvektoren L(vj ) bezüglich der Basis B
von W an.
Beweis. Die Wahl der Basen von V und W liefert, wie eben beschrieben, umkehrbare
lineare Abbildungen
LA : V → Rn ,
v 7→ Koeff A (v) und LB : W → Rm ,
w 7→ Koeff B (w) .
Wir können auf diese Weise also die abstrakt gegebenen Vektorräume V und W mit
den Räumen Rn bzw. Rm identifizieren. Ausserdem erhalten wir eine Möglichkeit, die
schon beschriebenen linearen Abbildungen zwischen Rn und Rm in solche zwischen V
und W zu übersetzen. Sei dazu A eine vorgegebene m × n-Matrix und bezeichne wie
bisher LA : Rn → Rm die durch Multiplikation mit der Matrix A erklärte Abbildung.
Dann erhalten wir durch Zusammensetzung eine lineare Abbildung L: V → W ,
nämlich
L = (LB )−1 ◦ LA ◦ LA .
Und für jeden Vektor v ∈ V gilt wie behauptet
LB (L(v)) = Koeff B (L(v)) = LA (LA (v)) = A · Koeff A (v) .
Sei jetzt umgekehrt L: V → W eine lineare Abbildung. Dann ist auch die Zusammensetzung
LB ◦ L ◦ (LA )−1 : Rn → Rm
linear. Wie wir bereits wissen, wird jede lineare Abbildung von Rn nach Rm durch
eine m × n-Matrix A beschrieben. Diese Matrix A ist gerade die Gesuchte.
q.e.d.
58
Kapitel 2. Vektorräume
Wichtige Spezialfälle:
• Sind V = Kn , W = Km und A und B die kanonischen Basen, erhalten wir die
in Satz 2.26 gegebene Beschreibung wieder zurück.
• Ist V = W , wählt man üblicherweise A = B. Die linearen Selbstabbildungen
werden auch als Endomorphismen bezeichnet und entsprechen quadratischen
Matrizen.
2.42 Beispiele (a) Sei V = R2 , und sei L: V → V die Spiegelung an der Geraden
g durch den Nullpunkt. Wählen wir nun einen Vektor v1 auf der Geraden
g und einen weiteren dazu senkrechten Vektor v2 . Dann ist L(v1 ) = v1 und
L(v2 ) = −v2 . Daraus lesen wir ab
1 0
.
B MB (L) =
0 −1
(b) Sei V = W = R3 und L eine räumliche Drehung um die Achse g durch den
Nullpunkt und um den Winkel α. Wir wählen für V eine Basis A = (v1 , v2 , v3 ),
so dass v1 in Richtung der Drehachse g zeigt und v2 , v3 in der zu g senkrechten
Ebene einen Winkel von 90 Grad bilden und gleichlang sind. Bezogen auf
dieses Koordinatensystem lautet die Matrix von L:


1
0
0
 0 cos α − sin α  .
A MA (L) =
0 sin α cos α
(c) Sei V = R3 und W ⊂ R3 die Ebene, erzeugt von zwei Vektoren u und w mit
||u|| = ||w|| = 1 und hu, wi = 0. Die orthogonale Projektion von V auf W ist
gegeben durch
P : V → W, P (v) = hv, uiu + hv, wiw .
Wir wählen jetzt die kanonische Basis A = (e1 , e2 , e3 ) für V und B = (u, w)
für W . Dann ist offenbar
 
x
hv, ui
u1 x + u2 y + u3 z

Koeff B (P (v)) =
=
für v = y  ∈ V .
hv, wi
w1 x + w2 y + w3 z
z
u1 u2 u3
Daraus lesen wir ab
.
B MA (P ) =
w1 w2 w3
(d) Sei V der Raum der Polynome von Höchstgrad 3 mit der Basis A = (1, x, x2 , x3 )
und W der Raum der Polynome von Höchstgrad 2 mit Basis B = (1, x, x2 ).
Die lineare Abbildung L: V → W sei definiert durch die Ableitung L(p) := p′
für p ∈ V . Offenbar ist dann L(1) = 0, L(x) = 1, L(x2 ) = 2x, L(x3 ) = 3x2 .
Daraus können wir die Matrix von L ablesen. Sie lautet:


0 1 0 0
0 0 2 0 .
B MA (L) =
0 0 0 3
2.5. Lineare Abbildungen
59
Seien jetzt wieder V , W endlichdimensionale K-Vektorräume und sei L: V →
W eine lineare Abbildung. Ist L bijektiv , d.h. eine 1 : 1-Zuordnung zwischen den
Vektoren aus V und den Vektoren aus W , so ist die Abbildung L umkehrbar und
die Abbildung in der umgekehrten Richtung ist ebenfalls linear. Man bezeichnet L
in diesem Fall als Vektorraumisomorphismus, denn die Struktur der beiden Räume
V und W stimmt dann überein.
2.43 Satz Eine lineare Abbildung L: V → W ist genau dann bijektiv, wenn dim V =
dim W und L(v) 6= 0 für alle v 6= 0.
Beweis. Nehmen wir an, L sei bijektiv. Dann gibt es zu jedem Vektor w ∈ W
genau ein v ∈ V mit L(v) = w. Ist v1 , . . . , vn eine Basis von V , so können wir v
auf eindeutige Weise als Linearkombination v = α1 v1 + . . . + αn vn schreiben. Daraus
folgt w = L(v) = α1 L(v1 ) + . . .+ αn L(vn ). Also bilden die Elemente L(v1 ), . . . , L(vn )
eine Basis von W . Deshalb ist die Dimension von W ebenfalls gleich n. Ausserdem
gibt es zu 0 ∈ W nur genau ein v ∈ V mit L(v) = 0, nämlich v = 0.
Sei jetzt umgekehrt dim V = dim W = n und L(v) 6= 0 für alle v 6= 0. Sei
wieder v1 , . . . , vn eine Basis von V . Dann sind die Vektoren L(v1 ), . . . , L(vn ) linear
unabhängig in W . Denn angenommen, α1 L(v1 ) + . . . + αn L(vn ) = 0. Dann folgt
L(α1 v1 + . . . + αn vn ) = 0 und daher v := α1 v1 + . . . + αn vn = 0. Weil v1 , . . . , vn linear
unabhängig sind, müssen alle αj = 0 sein. Weil nun die Dimension von W gleich
n ist, bilden die Vektoren L(v1 ), . . . , L(vn ) bereits eine Basis von W . Das heisst,
jeder Vektor w ∈ W lässt sich auf genau eine Art als Linearkombination der Form
w = β1 L(v1 ) + . . . + βn L(vn ) schreiben. Also gibt es auch genau ein v ∈ V mit
L(v) = w, nämlich v = β1 v1 + . . . + βn vn .
q.e.d.
2.44 Folgerung Sei V ein Vektorraum der Dimension n. Dann liefert, wie schon
erwähnt, jede Wahl einer Basis A = (v1 , . . . , vn ) von V eine umkehrbare lineare
Abbildung V → Kn , v 7→ Koeff A (v). Das bedeutet insbesondere, jeder endlichdimensionale Vektorraum über K ist zu einem der Räume Kn (n ∈ N0 ) isomorph.
Die durch Multiplikation mit einer (m×n)-Matrix A definierte lineare Abbildung
LA : Rn → Rm ist genau dann umkehrbar, wenn m = n und der Rang von A gleich n
ist. Ist dies der Fall, wird die Umkehrung der Abbildung LA durch die Multiplikation
mit der Inversen A−1 beschrieben.
Zum Abschluss dieses Kapitels sei noch beschrieben, wie sich die Matrix eines
Endomorphismus bei einem Basiswechsel ändert.
2.45 Satz Sei L: V → V eine lineare Abbildung eines Vektorraums V der Dimension n in sich. Seien weiter A, B = (w1 , . . . , wn ) Basen von V und A :=A MA (L)
bzw. B :=B MB (L) die zugehörigen Matrizen. Dann gilt:
B = T −1 AT ,
wobei T =A MB (id). .
Dabei steht id für die identische Abbildung id: V → V , v 7→ v, und die Transformationsmatrix T beschreibt den Basiswechsel von B nach A. Ist speziell V = Kn
60
Kapitel 2. Vektorräume
und A die kanonische Basis, so erhält man T , indem man die Elemente von B als
Spalten zu einer Matrix zusammenfügt.
Beweis. Sei A = (v1 , . . . , vn ) und B = (w1 , . . . , wn ). Nach Definition gilt für die
Matrix T =A MB (id) für alle v ∈ V :
T · Koeff B (v) = Koeff A (v) .
Durch Multiplikation mit T können wir also die B-Koordinaten in die A-Koordinaten
umrechnen. Man spricht deshalb auch von der “Transformationsmatrix” T . In der
j-ten Spalte von T stehen jeweils die Koeffizienten von wj bezüglich der Basis A.
Für T −1 gilt umgekehrt Koeff B (v) = T −1 · Koeff A (v) . Diese Matrix beschreibt den
Basiswechsel von A nach B, T −1 =B MA (id). Nun setzen wir zusammen:
T −1 AT · Koeff B (v) = T −1 A · Koeff A (v) = T −1 · Koeff A (L(v)) = Koeff B (L(v)) .
Daraus folgt, wie behauptet: T −1 AT =B MB (L) = B.
q.e.d.
2.46 Beispiel
1
−1
Sei V = R , A = (e1 , e2 ), B =
,
und L die Spiegelung an der
1
1
0 1
1 −1
Winkelhalbierenden. Dann ist A =
und T =
. Wegen T −1 =
1
0
1
1
1 1
1
, erhalten wir:
2
−1 1
1
1 0
1 −1
0 1
1 1
−1
.
=
·
·
B = T AT =
0 −1
1 1
1 0
2 −1 1
2
Herunterladen