Kapitel 2 Lineare Algebra II 2.1 Lineare Abbildungen

Werbung
Kapitel 2
Lineare Algebra II
2.1
Lineare Abbildungen
Die mit der Vektorraumstruktur verträglichen Abbildungen zwischen Vektorräumen
werden als linear bezeichnet. Genauer definiert man:
2.1 Definition Eine Abbildung L: V → W zwischen zwei reellen Vektorräumen
V und W heisst linear , wenn für alle v, w ∈ V , λ ∈ R, folgendes gilt:
1. L(v + w) = L(v) + L(w).
2. L(λv) = λL(v).
2.2 Bemerkung Für jede lineare Abbildung L: V → W gilt L(0) = 0, das heisst
L bildet den Nullvektor aus V auf den Nullvektor aus W ab.
Beweis. Denn sei v ∈ V gewählt. Dann folgt aus der zweiten Bedingung L(0) =
L(0 · v) = 0 · L(v) = 0.
q.e.d.
2.3 Beispiele (a) Sämtliche Drehungen des R2 um den Nullpunkt um einen beliebigen Winkel α ∈ [0, 2π] sind linear, sie sind sogar längentreu und bilden
Dreiecke auf kongruente Dreiecke ab. Entsprechend ist jede räumliche Drehung
um eine Achse durch den Nullpunkt eine lineare Selbstabbildung von R3 .
(b) Jede Spiegelung des R2 an einer Gerade durch den Nullpunkt ist linear. Aber
die Spiegelungen, deren Spiegelachsen nicht durch den Nullpunkt gehen, sind
nicht linear, weil sie den Nullpunkt nicht festlassen.
(c) Die Projektion p: R3 → R2 , (x, y, z) 7→ (x, y) ist linear, wie man direkt nachrechnet. Auch jede andere orthogonale Projektion des Raumes auf eine Ebene, wie
sie verwendet werden, um Grundrisse, Aufrisse, Seitenansichten von Gebäuden
zu zeichnen, sind linear.
(d) Ein Zoom, also eine Streckung Einheiten um einen bestimmten Vergrosserungsfaktor ist linear. Dasselbe gilt für die Reskalierung von Koordinaten mit unterschiedlichen Faktoren, also im zweidimensionalen zum Beispiel in x-Richtung
um Faktor 2 und in y-Richtung um Faktor 3.
(e) Der Ableitungsoperator D: C 1 [a, b] → C 0 [a, b], der einer stetig differenzierbaren
Funktion f auf [a, b] jeweils ihre Ableitung f ′ zuordnet, ist linear.
2.1. Lineare Abbildungen
29
Rb
(f) Auch der Integraloperator I: C 0 [a, b] → R, definiert durch I(f ) := a f (x)dx
für f ∈ C 0 [a, b], ist linear, weil Integration mit Summenbildung und Skalarmultiplikation vertauschbar ist.
Drehungen, Spiegelungen und senkrechte Projektionen haben die Eigenschaft,
sämtliche affinen Geraden wieder auf affine Geraden oder Punkte abzubilden. Das
gilt auch für jede beliebige lineare Abbildung des R2 und daher der Name.
Lineare Abbildungen lassen sich durch Matrizen beschreiben. Hier ein erstes
Beispiel.
2.4 Beispiel Die folgende Abbildung L: R2 → R3 ist definiert durch die Multiplikation von ebenen Vektoren mit einer festgewählten 3 × 2-Matrix:




1
2
x + 2y
x
x
L(
) :=  −1 1  ·
=  −x + y  .
y
y
3 −2
3x − 2y
Man kann leicht nachrechnen, dass diese Abbildung linear ist.
Allgemeiner gilt folgendes:
2.5 Satz Jede Matrix A vom Typ m × n definiert eine lineare Abbildung
LA : Rn → Rm ,
v 7→ A · v .
Umgekehrt gibt es zu jeder linearen Abbildung L: Rn → Rm eine m×n-Matrix A mit
L = LA . An den Spalten von A können wir die Bilder der kanonischen Basisvektoren
ej ∈ Rn unter L ablesen.
Beweis. Man kann direkt nachrechnen, dass die Multiplikation von Spaltenvektoren
mit einer festen Matrix eine lineare Abbildung liefert.
Sei jetzt umgekehrt eine lineare Abbildung L: Rn → Rm vorgegeben. Um die
entsprechende Matrix zu finden, schreiben wir zunächst die Bilder der kanonischen
Basisvektoren e1 , . . . , en des Rn als Spaltenvektoren in Rm auf:




a1n
a11
.
.
L(e1 ) =  ..  , . . . , L(en ) =  ..  .
amn
am1
Aus diesen n Spaltenvektoren bilden wir eine Matrix


a11
a1n
.
.
A :=  .. . . . ..  .
am1
amn
Diese Matrix leistet das Gewünschte, denn es gilt:
 
 
x1
x1
.. 
.. 



= L(x1 e1 + · · · + xn en ) = x1 L(e1 ) + · · · + xn L(en ) = A ·
L
.
.
xn
xn
für alle x1 , . . . , xn ∈ R.
q.e.d.
30
Kapitel 2. Lineare Algebra II
2.6 Beispiele (a) Die Matrix zur Drehung des R2 um den Nullpunkt um den
Winkel α lautet:
cos α − sin α
.
sin α
cos α
x
Das bedeutet, ist v =
, so ist
y
Dα (v) =
cos α − sin α
sin α
cos α
x
x cos α − y sin α
·
=
.
y
x sin α + y cos α
(b) Die Spiegelung des R2 an der Winkelhalbierenden wird durch folgende Matrix
beschrieben:
0 1
.
1 0
5 1
(c) Die durch Multiplikation mit der Matrix
definierte lineare Abbildung
1 2
hat folgende Wirkung auf das markierte Einheitsquadrat:
y
L(v)
L(e2 )
e2
v
b
L(e )
L(e1 ) 1
b
e1
x
(d) Die Projektion p: R3 → R2 , (x, y, z) →
7 (x, y) wird durch die folgende Matrix
induziert:
1 0 0
.
0 1 0
2.1. Lineare Abbildungen
31
2.7 Bemerkung Die Komposition (oder Hintereinanderausführung) von zwei linearen Abbildungen L1 : Kn → Ks und L2 : Ks → Km ist definiert durch L2 ◦ L1 (v) =
L2 (L1 (v)) für alle v ∈ Kn . Ist L1 durch die Multiplikation mit der Matrix B gegeben
und L2 durch die Multiplikation mit der Matrix A, so entspricht L2 ◦L1 der Multiplikation mit der Produktmatrix C = AB. Denn L2 (L1 (v)) = A(Bv) = (AB)v = Cv
für alle v ∈ Kn .
2.8 Beispiel Schauen wir uns an, welchen Effekt es hat, wenn wir die Koordinatenebene R2 zunächst um den Winkel −α drehen, dann an der x-Achse spiegeln
und schliesslich um den Winkel α zurückdrehen. Das Produkt der entsprechenden
Matrizen lautet:
cos α − sin α
1 0
cos α sin α
cos(2α) sin(2α)
C :=
=
.
sin α cos α
0 −1
− sin α cos α
sin(2α) − cos(2α)
Durch die Multiplikation mit der Produktmatrix C wird eine Spiegelung an derjenigen Geraden beschrieben, die mit der x-Achse den Winkel α bildet.
Allgemeiner kann man jede lineare Abbildung zwischen endlichdimensionalen
Vektorräumen durch eine Matrix beschreiben. Dazu muss man aber zunächst Basen
und damit Koordinatensysteme für die Vektorräume wählen. Ist A = (v1 , . . . , vn )
eine Basis von V , lässt sich jeder Vektor v ∈ V in eindeutiger Weise als Linearkombination der vj schreiben:
v = x1 v1 + · · · + xn vn .
v
x2 v2
x1 v1
v2
b
b
v1
32
Kapitel 2. Lineare Algebra II
Die Zahlen x1 , . . . , xn sind die Koordinaten von v bezogen auf die Basis A. Den
Spaltenvektor, gebildet aus den Koordinaten oder den Koeffizienten xj , bezeichnen
wir als den Koeffizientenvektor von v bezüglich der Basis A:
 
x1
.
Koeff A (v) :=  ..  .
xn
2.9 Satz Sei V ein Vektorraum mit Basis A = (v1 , . . . , vn ) und W ein Vektorraum
mit Basis B = (w1 , . . . , wm ). Jede Matrix A vom Typ m × n definiert eine lineare
Abbildung L: V → W , die dadurch bestimmt ist, dass
Koeff B (L(v)) = A · Koeff A (v) .
Umgekehrt gibt es zu jeder linearen Abbildung L: V → W eine m × n-Matrix
B MA (L), die L induziert. Die Spalten dieser Matrix geben die Koeffizienten der
Bildvektoren L(vj ) bezüglich der Basis B von W an. Ist V = W , verwendet man
üblicherweise dieselbe Basis für Ausgangs- und Bildraum.
Beweis. Sei zunächst A eine vorgegebene m × n-Matrix und sei v = x1 v1 + · · · +
xn vn ∈ V . Aus den Koeffizienten x1 , . . . , xn bilden wir den Spaltenvektor Koeff A (v),
multiplizieren diesen Vektor mit der Matrix A und erhalten einen Spaltenvektor mit
Einträgen y1 , . . . , ym , weil A aus m Zeilen besteht. Diese Einträge verwenden wir
nun als Koeffizienten für L(v), das heisst wir setzen fest:
L(v) := y1 w1 + · · · + ym wm .
Auf diese Weise wird eine lineare Abbildung erklärt. Denn jeder einzelne Schritt ist
mit Addition und Skalarmultiplikation verträglich. Überprüfen wir hier exemplarisch
die Verträglichkeit mit Skalarmultiplikation. Für λ ∈ R gilt: λv = (λx1 )v1 + · · · +
(λxn )vn . Das heisst Koeff A (λv) = λ Koeff A (v). Daraus folgt A · Koeff A (λv) = λA ·
Koeff A (v) und daher schliesslich L(λv) = λL(v).
Sei jetzt umgekehrt L: V → W vorgegeben. Dann schreiben wir die Bildvektoren
Pm L(v1 ), . . . , L(vn ) als Linearkombinationen der Basis B in der Form L(vj ) =
i=1 aij wi . Die Koeffizientenvektoren lauten also:




a1n
a11
.
.
Koeff B (L(v1 )) =  ..  , . . . , Koeff B (L(vn )) =  ..  .
amn
am1
Aus diesen Spaltenvektoren bilden wir die Matrix B MA (L) = A = (aij ). Es ist eine
Matrix vom Typ m × n. Die von der Matrix induzierte Abbildung stimmt mit der
Abbildung L überein, denn L(v) = L(x1 v1 + · · · + xn vn ) = x1 L(v1 ) + · · · + xn L(vn )
und daher
L(v) = x1
m
X
i=1
ai1 wi + · · · + xn
m
X
i=1
ain wi =
n X
m
X
j=1 i=1
m X
n
X
xj aij wi =
(
aij xj )wi .
i=1 j=1
2.1. Lineare Abbildungen
33
Also folgt

a11 x1 + · · · + a1n xn
..
 = A · Koeff A (v)
Koeff B (L(v)) = 
.
am1 x1 + · · · + amn xn

für alle v ∈ V .
q.e.d.
2.10 Beispiel Sei V die Ebene durch 0, erzeugt von zwei linear unabhängigen
Vektoren u, v in R3 . Die Abbildung L: V → V sei festgelegt durch L(u) = 2u und
L(v)
= u + v. Dann wählen
wir
als Basis A = (u, v) und lesen ab Koeff A (L(u)) =
2
1
und Koeff A (L(v)) =
. Also wird L bezogen auf die Basis A hier durch die
0
1
2 1
Matrix
beschrieben. Denn L(xu + yv) = x(2u) + y(u + v) = (2x + y)u + yv.
0 1
Wichtige Spezialfälle:
• Sind V = Rn , W = Rm und A und B die kanonischen Basen, erhalten wir die
in Satz 1.24 gegebene Beschreibung wieder zurück.
• Ist V = W , wählt man üblicherweise A = B. Die linearen Selbstabbildungen
werden auch als Endomorphismen bezeichnet und entsprechen quadratischen
Matrizen.
2.11 Beispiele (a) Sei V der Raum der Polynome von Höchstgrad 3 mit der
Basis A = (1, x, x2 , x3 ) und W der Raum der Polynome von Höchstgrad 2
mit Basis B = (1, x, x2 ). Die lineare Abbildung L: V → W sei definiert durch
die Ableitung L(p) := p′ für p ∈ V . Offenbar ist dann L(1) = 0, L(x) = 1,
L(x2 ) = 2x, L(x3 ) = 3x2 . Daraus können wir die Matrix von L ablesen. Sie
lautet:


0 1 0 0
0 0 2 0 .
B MA (L) =
0 0 0 3
(b) Sei V = W = R3 und L eine Drehung um die Achse g durch den Nullpunkt
und um den Winkel α. Wir wählen für V eine Basis A = (v1 , v2 , v3 ), so dass
v1 in Richtung der Drehachse g zeigt, v2 , v3 in der zu g senkrechten Ebene
einen Winkel von 90 Grad bilden und beide dieselbe Länge haben. Bezogen
auf dieses Koordinatensystem lautet die Matrix von L:


1
0
0
MA (L) =  0 cos α − sin α  .
0 sin α cos α
34
Kapitel 2. Lineare Algebra II
4
(c) Sei V = W = R2 und L die Spiegelung an der Geraden g = {λ
| λ ∈ R}.
1
4
−1
Wir wählen A = B = (v1 , v2 ), wobei v1 =
und v2 =
. Da v1 ∈ g,
1
4
gilt L(v1 ) = v1 . Ausserdem ist L(v2 ) = −v2 , da v2 ⊥ v1 . Wir lesen daraus ab:
1 0
MA (L) =
.
0 −1
Das bedeutet, dass ein Vektor der Form v = αv1 + βv2 auf den Vektor L(v) =
αv1 − βv2 abgebildet wird.
Jede lineare Abbildung definiert charakteristische Unterräume, sowohl im Ausgangsraum als auch im Bildraum.
2.12 Satz Sei L: V → W eine lineare Abbildung. Dann gilt:
1. Das Bild(L) := {L(v) | v ∈ V } ist ein linearer Unterraum von W .
2. Der Kern(L) := {v ∈ V | L(v) = 0} ist ein linearer Unterraum von V .
3. L ist genau dann injektiv, wenn Kern(L) = {0}.
Beweis. Zu 1. Das Bild von L ist nichtleer, denn wegen L(0) = 0, enthält es zumindest den Nullvektor von W . Nehmen wir jetzt an w1 , w2 ∈ Bild(L). Dann gibt
es Vektoren v1 , v2 ∈ V mit L(v1 ) = w1 und L(v2 ) = w2 . Aus der Linearität von L
folgt L(v1 + v2 ) = L(v1 ) + L(v2 ) = w1 + w2 . Also ist auch w1 + w2 im Bild von L
enthalten. Schliesslich gilt für alle λ ∈ R: L(λv1 ) = λL(v1 ) = λw1 ∈ Bild(L).
zu 2. Diesen Beweisteil lassen wir als Übung.
zu 3. Ist L injektiv, so ist L(v) = 0 nur für v = 0 möglich. Das heisst Kern(L) =
{0}. Sei jetzt umgekehrt Kern(L) = {0} und nehmen wir an, es sei L(v1 ) = L(v2 ) für
v1 , v2 ∈ V . Dann folgt L(v1 − v2 ) = L(v1 ) − L(v2 ) = 0 und daher v1 − v2 ∈ Kern(L).
Also muss v1 = v2 sein.
q.e.d.
2.13 Beispiele
• Sei L: R3 → R3 die orthogonale Projektion des Raumes auf
eine Ebene E in R3 durch den Nullpunkt. Dann ist das Bild von L hier die
Ebene E, und der Kern besteht aus allen Vektoren, die auf E senkrecht stehen.


1
2
• Sei A =  −1 1 . Das Bild der Abbildung LA : R2 → R3 , definiert durch
3 −2
Multiplikation mit der Matrix A, ist diejenige Ebene in R3 , die von den beiden
Spalten von A erzeugt wird. Der Kern besteht hier nur aus dem Nullvektor.
2 −6 1
• Sei A =
. Hier definiert die Multiplikation mit A eine Ab1 −3 −1
2
bildung LA : R3 → R2 . Das
 Bildist ganz R und der Kern besteht aus allen
3α
Vektoren in R3 der Form  α  (α ∈ R).
0
2.1. Lineare Abbildungen
35
Es gilt der folgende Zusammenhang zwischen den Dimensionen von Kern und
Bild:
2.14 Satz (Dimensionsformel ) Sei L: V → W linear und dim V = n. Dann gilt:
dim Kern(L) + dim Bild(L) = n .
Wir wollen diese Aussage zunächst für Matrizen interpretieren. Sei also A eine
m × n-Matrix und LA : Rn → Rm die durch Multiplikation mit A definierte lineare
Abbildung. Dann gilt Kern(LA ) = {v ∈ V | A·v = 0}. Der Kern von LA stimmt also
mit der Lösungsmenge L des durch A beschriebenen homogenen Gleichungssystems
überein.
Weiter kann man zeigen, dass folgendes gilt: Bild(LA ) = lin(LA (e1 ), . . . , LA (en )).
Das Bild von LA ist also gerade derjenige Unterraum von Rm , der von den Spaltenvektoren von A erzeugt wird. Die Dimension dieses Unterraums stimmt überein mit
der maximalen Anzahl linear unabhängiger Spalten von A, man nennt diese Zahl
auch den Spaltenrang Rang(A).
Die Dimensionsformel liefert jetzt folgende Beziehung:
dim L = n − Rang(A) .
Bereits im ersten Paragraphen hatten wir im Zusammenhang mit dem Gaussschen
Eliminationsverfahren eine ähnliche Beziehung für die Dimension des Lösungsraumes gefunden, nämlich dim L = n − r, wobei r der Rang der durch elementare
Zeilenumformungen auf Zeilenstufenform transformierten Matrix A′ war. Der Rang
einer Matrix in Zeilenstufenform gibt die Anzahl der Nichtnullzeilen an und stimmt
überein mit der maximalen Anzahl linear unabhängiger Zeilen, also dem Zeilenrang
von A′ . Nun bleibt der Zeilenrang einer Matrix bei elementaren Zeilenumformungen
aber unverändert. Wir erhalten also folgendes Ergebnis:
2.15 Folgerung Der Zeilen- und der Spaltenrang einer Matrix stimmen miteinander überein. Man spricht deshalb kurz vom Rang einer Matrix. Der Rang gibt sowohl
die Anzahl linear unabhängiger Spalten als auch die Anzahl linear unabhängiger Zeilen der Matrix an.
Beweis der Dimensionsformel. Weil der Kern von L ein Unterraum von V ist, gilt
sicher k := dim(Kern(L)) ≤ n. Ausserdem können wir eine Basis (v1 , . . . , vk ) von
Kern(L) wählen und zu einer Basis (v1 , . . . , vk , vk+1, . . . , vn ) von V ergänzen. Es
reicht jetzt, folgende Behauptung zu beweisen:
(L(vk+1 ), . . . , L(vn )) ist eine Basis für das Bild von L.
Dazu zeigen wir zunächst, dass die Menge ein Erzeugendensystem für das Bild ist.
Sei also w ∈ Bild(L). Dann gibt es ein v ∈ V mit L(v) P
= w. Wir schreiben v als
n
LinearkombinationPder Basiselemente
in
der
Form
v
=
i=1 αi vi (αi ∈ R). Dann
Pn
n
folgt w = L(v) = i=1 αi L(vi ) = k+1 αi L(vi ), weil L(vi ) = 0 für alle i ≤ k. Also
liegt w in der linearen Hülle von (L(vk+1 ), . . . , L(vn )).
36
Kapitel 2. Lineare Algebra II
Im zweiten Schritt zeigen wir jetzt, dass die Menge linear unabhängig ist. Angenommen
n
n
X
X
αi vi ) .
αi L(vi ) = L(
0=
i=k+1
i=k+1
Pn
Das bedeutet, der Vektor u := i=k+1 αi vi liegt im Kern der Abbildung L, lässt sich
also in der Basis (v1 , . . . , vk ) schreiben. Das heisst, es gibt Zahlen β1 , . . . , βk mit
u=
k
X
βi vi =
i=1
n
X
αi vi .
i=k+1
Daraus folgt die Relation β1 v1 + · · · + βk vk − αk+1 vk+1 − · · · − αn vn = 0 . Da
(v1 , . . . , vn ) linear unabhängig gewählt waren, folgt β1 = · · · = βk = αk+1 = · · · =
αn = 0.
q.e.d.
2.16 Folgerung Seien V , W endlichdimensionale Vektorräume und L: V → W
linear. Dann gilt: L ist genau dann bijektiv, wenn dim V = dim W und Kern(L) =
{0}. In diesem Fall ist auch die Umkehrabbildung von L linear und man bezeichnet
L als Vektorraumisomorphismus.
2.17 Beispiel Sei V ein Vektorraum der Dimension n und A eine Basis für V .
Dann ist die Zuordnung
V → Rn ,
v 7→ Koeff A (v)
ein Vektorraumisomorphismus. Das bedeutet, jeder endlichdimensionale Vektorraum
ist zu einem der Räume Rn (n ∈ N0 ) isomorph.
2.18 Beispiel Eine quadratische Matrix A definiert genau dann eine bijektive lineare Abbildung LA : Kn → Kn , wenn A invertierbar ist, wenn also det A 6= 0 ist. Ist
dies der Fall, wird die Umkehrabbildung durch die Multiplikation mit der inversen
Matrix A−1 beschrieben.
Die Matrix, die eine lineare Abbildung beschreibt, hängt wesentlich von der Wahl
der Basen — also der Koordinatensysteme — ab! Hierzu ein einfaches Beispiel. Sei L
die Spiegelung des R2 an der Winkelhalbierenden. Wie schon früher erwähnt, lautet
die Matrix von L bezüglich der kanonischen Basis (weil L(e1 ) = e2 und L(e2 ) = e1
ist):
0 1
M(e1 ,e2 ) (L) =
.
1 0
1
−1
Wählt man dagegen die Basis aus v1 =
und v2 =
, dann ist L(v1 ) = v1
1
1
und L(v2 ) = −v2 und daher lautet die zugehörige Matrix:
1 0
M(v1 ,v2 ) (L) =
.
0 −1
2.1. Lineare Abbildungen
37
Man kann durch Wahl einer günstigen Basis versuchen, die Abbildung durch eine möglichst einfache Matrix zu beschreiben, an der sich wichtige Eigenschaften
möglichst direkt ablesen lassen. Dazu sei hier noch beschrieben, wie sich die Matrix
eines Endomorphismus bei einem Basiswechsel ändert.
2.19 Satz Sei L: V → V ein Endomorphismus des Vektorraums V . Seien weiter A,
B Basen von V und seien A := MA (L) und B := MB (L) die zugehörigen Matrizen.
Dann gilt:
B = T −1 AT , wobei
die Transformationsmatrix T den Basiswechsel von B nach A beschreibt, das heisst,
die Spalten von T sind die Koeffizientenvektoren der Vektoren aus B, ausgedrückt in
der Basis A. Ist speziell V = Kn und A die kanonische Basis, erhält man T einfach,
indem man die Elemente von B als Spalten zu einer Matrix zusammenfügt.
Beweis. Nach Wahl der Transformationsmatrix gilt für jedes v ∈ V :
T · Koeff B (v) = Koeff A (v) .
Daraus folgt
AT Koeff B (v) = Koeff A (Lv), und das liefert, wie behauptet
T −1 AT · Koeff B (v) = Koeff B (Lv) .
q.e.d.
2.20 Beispiel Sei V = R2 , A = (e1 , e2 ), L die Spiegelung an der Winkelhalbie
1
−1
renden und sei B die Basis, gebildet aus den Vektoren u =
und w =
.
1
1
0 1
1 −1
1 1
Dann ist A =
und T =
. Wegen T −1 = 12
, erhalten
1 0
1 1
−1 1
wir:
1 0
−1
B = T AT =
.
0 −1
Hier ist noch ein weiteres Beispiel:
2.21 Beispiel Sei wiederum V = R2 , A = (e1 , e2 ), und sei L die lineare
Abbildung,
1 4
. Sei
festgelegt durch L(e1 ) = e1 + 2e2 und L(e2 ) = 4e1 + 3e2 . Dann ist A =
2
3
1
−2
weiter B die Basis, gebildet aus den Vektoren u =
und w =
. Also ist
1
1
1 −2
1 2
1 2
1
hier T =
und T −1 = det(T
= 31
. Die Matrix von L
)
1 1
−1 1
−1 1
bezogen auf die Basis B lautet daher:
5 0
−1
B = T AT =
.
0 −1
Das bedeutet, wenn wir einen Vektor durch die Basis B ausdrücken in der Form
v = x̃u + ỹw, dann ist L(v) = 5x̃u − ỹw.
38
Kapitel 2. Lineare Algebra II
y
x̃
L(u)
4
b
b
L(v)
v
ỹ
b
b
2
b
u
w
7
−1
b
L(w)
x
Zugehörige Unterlagen
Herunterladen