Kapitel 2 Lineare Algebra II 2.1 Lineare Abbildungen

Werbung
Kapitel 2
Lineare Algebra II
2.1
Lineare Abbildungen
Die mit der Vektorraumstruktur verträglichen Abbildungen zwischen Vektorräumen
werden als linear bezeichnet. Genauer definiert man:
2.1 Definition Eine Abbildung L: V → W zwischen zwei reellen Vektorräumen
V und W heisst linear , wenn für alle v, w ∈ V , λ ∈ R, folgendes gilt:
1. L(v + w) = L(v) + L(w).
2. L(λv) = λL(v).
2.2 Bemerkung Für jede lineare Abbildung L: V → W gilt L(0) = 0, das heisst
L bildet den Nullvektor aus V auf den Nullvektor aus W ab.
Beweis. Denn sei v ∈ V gewählt. Dann folgt aus der zweiten Bedingung L(0) =
L(0 · v) = 0 · L(v) = 0.
q.e.d.
2.3 Beispiele (a) Sämtliche Drehungen des R2 um den Nullpunkt um einen beliebigen Winkel α ∈ [0, 2π] sind linear, sie sind sogar längentreu und bilden
Dreiecke auf kongruente Dreiecke ab. Entsprechend ist jede räumliche Drehung
um eine Achse durch den Nullpunkt eine lineare Selbstabbildung von R3 .
(b) Jede Spiegelung des R2 an einer Gerade durch den Nullpunkt ist linear. Aber
die Spiegelungen, deren Spiegelachsen nicht durch den Nullpunkt gehen, sind
nicht linear, weil sie den Nullpunkt nicht festlassen.
(c) Die Projektion p: R3 → R2 , (x, y, z) 7→ (x, y) ist linear, wie man direkt nachrechnet. Auch jede andere orthogonale Projektion des Raumes auf eine Ebene, wie
sie verwendet werden, um Grundrisse, Aufrisse, Seitenansichten von Gebäuden
zu zeichnen, sind linear.
(d) Ein Zoom, also eine Streckung Einheiten um einen bestimmten Vergrosserungsfaktor ist linear. Dasselbe gilt für die Reskalierung von Koordinaten mit unterschiedlichen Faktoren, also im zweidimensionalen zum Beispiel in x-Richtung
um Faktor 2 und in y-Richtung um Faktor 3.
(e) Der Ableitungsoperator D: C 1 [a, b] → C 0 [a, b], der einer stetig differenzierbaren
Funktion f auf [a, b] jeweils ihre Ableitung f ′ zuordnet, ist linear.
2.1. Lineare Abbildungen
29
Rb
(f) Auch der Integraloperator I: C 0 [a, b] → R, definiert durch I(f ) := a f (x)dx
für f ∈ C 0 [a, b], ist linear, weil Integration mit Summenbildung und Skalarmultiplikation vertauschbar ist.
Drehungen, Spiegelungen und senkrechte Projektionen haben die Eigenschaft,
sämtliche affinen Geraden wieder auf affine Geraden oder Punkte abzubilden. Das
gilt auch für jede beliebige lineare Abbildung des R2 und daher der Name.
Lineare Abbildungen lassen sich durch Matrizen beschreiben. Hier ein erstes
Beispiel.
2.4 Beispiel Die folgende Abbildung L: R2 → R3 ist definiert durch die Multiplikation von ebenen Vektoren mit einer festgewählten 3 × 2-Matrix:




1
2
x + 2y
x
x
L(
) :=  −1 1  ·
=  −x + y  .
y
y
3 −2
3x − 2y
Man kann leicht nachrechnen, dass diese Abbildung linear ist.
Allgemeiner gilt folgendes:
2.5 Satz Jede Matrix A vom Typ m × n definiert eine lineare Abbildung
LA : Rn → Rm ,
v 7→ A · v .
Umgekehrt gibt es zu jeder linearen Abbildung L: Rn → Rm eine m×n-Matrix A mit
L = LA . An den Spalten von A können wir die Bilder der kanonischen Basisvektoren
ej ∈ Rn unter L ablesen.
Beweis. Man kann direkt nachrechnen, dass die Multiplikation von Spaltenvektoren
mit einer festen Matrix eine lineare Abbildung liefert.
Sei jetzt umgekehrt eine lineare Abbildung L: Rn → Rm vorgegeben. Um die
entsprechende Matrix zu finden, schreiben wir zunächst die Bilder der kanonischen
Basisvektoren e1 , . . . , en des Rn als Spaltenvektoren in Rm auf:




a1n
a11
.
.
L(e1 ) =  ..  , . . . , L(en ) =  ..  .
amn
am1
Aus diesen n Spaltenvektoren bilden wir eine Matrix


a11
a1n
.
.
A :=  .. . . . ..  .
am1
amn
Diese Matrix leistet das Gewünschte, denn es gilt:
 
 
x1
x1
.. 
.. 



= L(x1 e1 + · · · + xn en ) = x1 L(e1 ) + · · · + xn L(en ) = A ·
L
.
.
xn
xn
für alle x1 , . . . , xn ∈ R.
q.e.d.
30
Kapitel 2. Lineare Algebra II
2.6 Beispiele (a) Die Matrix zur Drehung des R2 um den Nullpunkt um den
Winkel α lautet:
cos α − sin α
.
sin α
cos α
x
Das bedeutet, ist v =
, so ist
y
Dα (v) =
cos α − sin α
sin α
cos α
x
x cos α − y sin α
·
=
.
y
x sin α + y cos α
(b) Die Spiegelung des R2 an der Winkelhalbierenden wird durch folgende Matrix
beschrieben:
0 1
.
1 0
5 1
(c) Die durch Multiplikation mit der Matrix
definierte lineare Abbildung
1 2
hat folgende Wirkung auf das markierte Einheitsquadrat:
y
L(v)
L(e2 )
e2
v
b
L(e )
L(e1 ) 1
b
e1
x
(d) Die Projektion p: R3 → R2 , (x, y, z) →
7 (x, y) wird durch die folgende Matrix
induziert:
1 0 0
.
0 1 0
2.1. Lineare Abbildungen
31
2.7 Bemerkung Die Komposition (oder Hintereinanderausführung) von zwei linearen Abbildungen L1 : Kn → Ks und L2 : Ks → Km ist definiert durch L2 ◦ L1 (v) =
L2 (L1 (v)) für alle v ∈ Kn . Ist L1 durch die Multiplikation mit der Matrix B gegeben
und L2 durch die Multiplikation mit der Matrix A, so entspricht L2 ◦L1 der Multiplikation mit der Produktmatrix C = AB. Denn L2 (L1 (v)) = A(Bv) = (AB)v = Cv
für alle v ∈ Kn .
2.8 Beispiel Schauen wir uns an, welchen Effekt es hat, wenn wir die Koordinatenebene R2 zunächst um den Winkel −α drehen, dann an der x-Achse spiegeln
und schliesslich um den Winkel α zurückdrehen. Das Produkt der entsprechenden
Matrizen lautet:
cos α − sin α
1 0
cos α sin α
cos(2α) sin(2α)
C :=
=
.
sin α cos α
0 −1
− sin α cos α
sin(2α) − cos(2α)
Durch die Multiplikation mit der Produktmatrix C wird eine Spiegelung an derjenigen Geraden beschrieben, die mit der x-Achse den Winkel α bildet.
Allgemeiner kann man jede lineare Abbildung zwischen endlichdimensionalen
Vektorräumen durch eine Matrix beschreiben. Dazu muss man aber zunächst Basen
und damit Koordinatensysteme für die Vektorräume wählen. Ist A = (v1 , . . . , vn )
eine Basis von V , lässt sich jeder Vektor v ∈ V in eindeutiger Weise als Linearkombination der vj schreiben:
v = x1 v1 + · · · + xn vn .
v
x2 v2
x1 v1
v2
b
b
v1
32
Kapitel 2. Lineare Algebra II
Die Zahlen x1 , . . . , xn sind die Koordinaten von v bezogen auf die Basis A. Den
Spaltenvektor, gebildet aus den Koordinaten oder den Koeffizienten xj , bezeichnen
wir als den Koeffizientenvektor von v bezüglich der Basis A:
 
x1
.
Koeff A (v) :=  ..  .
xn
2.9 Satz Sei V ein Vektorraum mit Basis A = (v1 , . . . , vn ) und W ein Vektorraum
mit Basis B = (w1 , . . . , wm ). Jede Matrix A vom Typ m × n definiert eine lineare
Abbildung L: V → W , die dadurch bestimmt ist, dass
Koeff B (L(v)) = A · Koeff A (v) .
Umgekehrt gibt es zu jeder linearen Abbildung L: V → W eine m × n-Matrix
B MA (L), die L induziert. Die Spalten dieser Matrix geben die Koeffizienten der
Bildvektoren L(vj ) bezüglich der Basis B von W an. Ist V = W , verwendet man
üblicherweise dieselbe Basis für Ausgangs- und Bildraum.
Beweis. Sei zunächst A eine vorgegebene m × n-Matrix und sei v = x1 v1 + · · · +
xn vn ∈ V . Aus den Koeffizienten x1 , . . . , xn bilden wir den Spaltenvektor Koeff A (v),
multiplizieren diesen Vektor mit der Matrix A und erhalten einen Spaltenvektor mit
Einträgen y1 , . . . , ym , weil A aus m Zeilen besteht. Diese Einträge verwenden wir
nun als Koeffizienten für L(v), das heisst wir setzen fest:
L(v) := y1 w1 + · · · + ym wm .
Auf diese Weise wird eine lineare Abbildung erklärt. Denn jeder einzelne Schritt ist
mit Addition und Skalarmultiplikation verträglich. Überprüfen wir hier exemplarisch
die Verträglichkeit mit Skalarmultiplikation. Für λ ∈ R gilt: λv = (λx1 )v1 + · · · +
(λxn )vn . Das heisst Koeff A (λv) = λ Koeff A (v). Daraus folgt A · Koeff A (λv) = λA ·
Koeff A (v) und daher schliesslich L(λv) = λL(v).
Sei jetzt umgekehrt L: V → W vorgegeben. Dann schreiben wir die Bildvektoren
Pm L(v1 ), . . . , L(vn ) als Linearkombinationen der Basis B in der Form L(vj ) =
i=1 aij wi . Die Koeffizientenvektoren lauten also:




a1n
a11
.
.
Koeff B (L(v1 )) =  ..  , . . . , Koeff B (L(vn )) =  ..  .
amn
am1
Aus diesen Spaltenvektoren bilden wir die Matrix B MA (L) = A = (aij ). Es ist eine
Matrix vom Typ m × n. Die von der Matrix induzierte Abbildung stimmt mit der
Abbildung L überein, denn L(v) = L(x1 v1 + · · · + xn vn ) = x1 L(v1 ) + · · · + xn L(vn )
und daher
L(v) = x1
m
X
i=1
ai1 wi + · · · + xn
m
X
i=1
ain wi =
n X
m
X
j=1 i=1
m X
n
X
xj aij wi =
(
aij xj )wi .
i=1 j=1
2.1. Lineare Abbildungen
33
Also folgt

a11 x1 + · · · + a1n xn
..
 = A · Koeff A (v)
Koeff B (L(v)) = 
.
am1 x1 + · · · + amn xn

für alle v ∈ V .
q.e.d.
2.10 Beispiel Sei V die Ebene durch 0, erzeugt von zwei linear unabhängigen
Vektoren u, v in R3 . Die Abbildung L: V → V sei festgelegt durch L(u) = 2u und
L(v)
= u + v. Dann wählen
wir
als Basis A = (u, v) und lesen ab Koeff A (L(u)) =
2
1
und Koeff A (L(v)) =
. Also wird L bezogen auf die Basis A hier durch die
0
1
2 1
Matrix
beschrieben. Denn L(xu + yv) = x(2u) + y(u + v) = (2x + y)u + yv.
0 1
Wichtige Spezialfälle:
• Sind V = Rn , W = Rm und A und B die kanonischen Basen, erhalten wir die
in Satz 1.24 gegebene Beschreibung wieder zurück.
• Ist V = W , wählt man üblicherweise A = B. Die linearen Selbstabbildungen
werden auch als Endomorphismen bezeichnet und entsprechen quadratischen
Matrizen.
2.11 Beispiele (a) Sei V der Raum der Polynome von Höchstgrad 3 mit der
Basis A = (1, x, x2 , x3 ) und W der Raum der Polynome von Höchstgrad 2
mit Basis B = (1, x, x2 ). Die lineare Abbildung L: V → W sei definiert durch
die Ableitung L(p) := p′ für p ∈ V . Offenbar ist dann L(1) = 0, L(x) = 1,
L(x2 ) = 2x, L(x3 ) = 3x2 . Daraus können wir die Matrix von L ablesen. Sie
lautet:


0 1 0 0
0 0 2 0 .
B MA (L) =
0 0 0 3
(b) Sei V = W = R3 und L eine Drehung um die Achse g durch den Nullpunkt
und um den Winkel α. Wir wählen für V eine Basis A = (v1 , v2 , v3 ), so dass
v1 in Richtung der Drehachse g zeigt, v2 , v3 in der zu g senkrechten Ebene
einen Winkel von 90 Grad bilden und beide dieselbe Länge haben. Bezogen
auf dieses Koordinatensystem lautet die Matrix von L:


1
0
0
MA (L) =  0 cos α − sin α  .
0 sin α cos α
34
Kapitel 2. Lineare Algebra II
4
(c) Sei V = W = R2 und L die Spiegelung an der Geraden g = {λ
| λ ∈ R}.
1
4
−1
Wir wählen A = B = (v1 , v2 ), wobei v1 =
und v2 =
. Da v1 ∈ g,
1
4
gilt L(v1 ) = v1 . Ausserdem ist L(v2 ) = −v2 , da v2 ⊥ v1 . Wir lesen daraus ab:
1 0
MA (L) =
.
0 −1
Das bedeutet, dass ein Vektor der Form v = αv1 + βv2 auf den Vektor L(v) =
αv1 − βv2 abgebildet wird.
Herunterladen