Universität Stuttgart Höhere Mathematik I 1 Lineare Abbildungen

Werbung
Prof. Dr. C. Hesse
PD Dr. P. H. Lesky
Dipl. Math. D. Zimmermann
Msc. J. Köllner
Universität Stuttgart
Fachbereich Mathematik
Höhere Mathematik I
FAQ 4
17.01.2014
el, kyb, mecha, phys
1
1.1
Lineare Abbildungen und Matrizen
Um was geht es?
Anhand eines einfachen, aber nicht trivialen Beispiels wollen wir nachvollziehen, in welcher Weise eine geeignete
Matrix zu einer linearen Abbildung assoziiert ist, und welche Vorteile dies mit sich bringt.
Wir betrachten dafür unseren Lieblingsvektorraum, den Raum Kn [x] aller Polynome vom Grad kleiner oder
gleich n, hier, der Einfachheit halber, mit n = 3. Auf diesem Vektorraum ist durch
B = (1, x, x2 , x3 )
eine Basis1 gegeben, d.h. ein Element p(x) ∈ K3 [x] besitzt bzgl. dieser Basis eine eindeutige Darstellung
B (p(x))
= a0 + a1 x + a2 x2 + a3 x3 .
Dabei hängen die Zahlen a0 , a1 , a2 , a3 natürlich von der gewählten Basis ab. Um dies kenntlich zu machen
versehen wir die Größe p(x) auf der linken Seite des Gleichheitszeichens mit dem Index B, welcher links unten
geschrieben wird. Warum gerade diese Position für den Index gwählt wird, werden wir unten sehen.
Betrachten wir gleichzeitig den R4 zusammen mit der Standardbasis
(1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T , (0, 0, 0, 1)T ,
so sehen wir, dass durch
I
a0 + a1 x + a2 x2 + a3 x3
I −1
 
 
 
 
 
0
a0
0
0
1
a1 
0
0
1
0
  = a0   + a1   + a2   + a3  
0
a2 
1
0
0
1
0
0
a3
0
ein Isomorphismus I, d.h. eine bijektive, lineare Abbildung gegeben ist. Auf diese Weise ist also jedem Polynom
in K3 [x] genau ein Spaltenvektor im R4 und umgekehrt zugeordnet.
Auf unserem Vektorraum geben wir uns nun durch
ϕ : K3 [x] → K3 [x], a0 + a1 x + a2 x2 + a3 x3 7→ a1 + (a0 + a2 )x + (a1 + a3 )x2 + a2 x3
(1)
4
eine lineare Abbildung vor. Auf dem R definieren wir eine lineare Abbildung durch
 

   

a0
a1
a0
0 1 0 0
a1 
1 0 1 0 a1  a0 + a2 

   


Φ: 
a2  7→ 0 1 0 1 · a2  = a1 + a3  .
0 0 1 0
a3
a2
a3
Dabei bemerken wir, dass
(I −1 ◦ Φ ◦ I)(a0 + a1 x + a2 x2 + a3 x3 )
=
 


a0
a1
a1 


−1 a0 + a2 

(I −1 ◦ Φ) 
a2  = I a1 + a3 
a3
a2
= a1 + (a0 + a2 )x + (a1 + a3 )x2 + a2 x3
= ϕ(a0 + a1 x + a2 x2 + a3 x3 )
und damit einfach I −1 ◦ Φ ◦ I = ϕ gilt. Dank des Isomorphismus I können wir also anstelle mit Polynomen und
der recht komplizierten Abbildung ϕ einfacher mit Spaltenvektoren und einer Matrixmultiplikation Φ rechnen
und erhalten dabei dieselbe Abbildung. Bildlich lässt sich dieser Sachverhalt wie folgt verdeutlichen:
1 In einer Basis stehen die Elemente stets in einer fest gewählten Reihenfolge, um dies zu betonen schreiben wir hier anstelle der
geschweiften Mengenklammern {...} wie bei Koordinaten, die ja ebenfalls in einer festen Reihenfolge stehen, runde Klammern (...).
1
ϕ
K3 [x]
K3 [x]
I
I −1
I
I −1
Φ
R4
R4
Um das Bild eines Polynoms aus K3 [x] unter der Abbildung ϕ zu bestimmen kann man also entweder den
“direkten Weg” gehen oder einen “Umweg” über den R4 machen.
1.2
Das Ganze nochmal allgemeiner
Ist V ein (reller) Vektorraum mit dim (V ) = n < ∞ und Basis B = (e1 , e2 , . . . , en ), so besitzt jedes Element
v ∈ V eine eindeutige Darstellung
Bv =
n
X
vi e i ,
i=1
und es ist durch


v1
n
 v2 
X
 
I : V → Rn ,
vi ei 7→  .  ;
 .. 

I −1
i=1

v1
n
 v2 
X
 
: Rn → V,  .  7→
vi ei
 .. 
i=1
vn
vn
ein Isomorphismus gegeben.
Betrachten wir nun zusätzlich einen zweiten Vektorraum Ṽ mit dim (Ṽ ) = m < ∞ und Basis B̃ und eine lineare
Abbildung ϕ : V → Ṽ , so lässt sich dieser eindeutig eine (m × n)-Matrix Rm Mϕ
Rn und eine zugehörige lineare
Abbildung
 
 
 
v1
ṽ1
v1
 .. 
ϕ  . 
n
m  .. 
Φ : R → R ,  .  7→  .  = Rm MRn  .. 
vn
ṽm
vn
finden, sodass man das Diagramm
ϕ
V
Ṽ
I˜
I
Rn
Φ
Rm
erhält. Die Wirkung einer abstrakten linearen Abbildung zwischen abstrakten Vektorräumen ist somit auf eine
einfache Matrizenmultiplikation im Rn zurückgeführt. Daraus ergeben sich direkt zwei weitere Fragen:
• Wie findet man die zu einer linearen Abbildung gehörige Matrix?
• Gibt es Zusammenhänge zwischen weiteren Eigenschaften der linearen Abbildungen und Eigenschaften
einer Matrix?
1.3
Wie findet man die zu einer linearen Abbildung gehörige Matrix?
Wir beginnen mit einer
Beobachtung: Sei wieder V ein (reller) Vektorraum mit Basis B = (e1 , e2 , . . . , en )
Pallgemeinen
n
und v ∈ V mit B v = i=1 vi ei . Dann folgt aus der Linearität der Abbildung ϕ, dass
!
n
n
X
X
ϕ(B v) = ϕ
vi e i =
vi ϕ(ei ).
(2)
i=1
i=1
2
D.h. die Wirkung einer linearen Abbildung ist eindeutig durch ihre Wirkung auf einer Basis bestimmt. Um
das Bild eines beliebigen Vektors zu berechnen genügt es also die Bilder der Basisvektoren zu kennen. Diese
sind selbst Elemente des Vektorraums Ṽ und haben somit bzgl. der Basis B̃ = (ẽ1 , ẽ2 , . . . , ẽm ) eine eindeutige
Darstellung
B̃ (ϕ(ei )) =
m
X
aji ẽj .
(3)
j=1
Mit aji bezeichnen wir also die j-te Koordinate des Bildes des i-ten Basisvektors aus B bzgl. B̃. Setzen wir (3)
in (2) ein und vertauschen die Summationsreihenfolge, so erhalten wir die Darstellung
!
n
m
m
n
X
X
X
X
vi
aji ẽj =
aji vi ẽj .
B̃ (ϕ(B v)) =
i=1
j=1
j=1
i=1
|
{z
=:ṽj
}
Aus den Koordinaten v1 , . . . , vn von v ∈ V bzgl. der Basis B erhält man also die Koordinaten ṽ1 , . . . , ṽm von
ϕ(v) bzgl. der Basis B̃ durch
ṽj =
n
X
aji vi .
i=1
Letzteres können wir auch in Matrizenform schreiben:
  
ṽ1
a11 . . .
 ..   ..
..
 . = .
.
ṽm
am1
...
  
a1n
v1
..  ·  ..  .
.  .
amn
(4)
vn
Betrachten man obige Isomorphismen I : V → Rn , I˜ : Ṽ → Rm näher, so sieht man, dass die Matrix auf der
rechten Seite in (4) gerade der gesuchten Matrix Rm Mϕ
Rn entspricht.
1 Beispiel. Zurück zu obigem Beispiel in K3 [x]. Hier sind die Basisvektoren gerade 1, x, x2 , x3 und wir berechnen
deren Bilder unter der Abbildung ϕ:
7→
x
=
0 · 1 + 1 · x + 0 · x2 + 0 · x3
x 7→
1 + x2
=
1 · 1 + 0 · x + 1 · x2 + 0 · x3
x2
7→ x + x3
=
0 · 1 + 1 · x + 0 · x2 + 1 · x3
x3
7→
x2
=
0 · 1 + 0 · x + 1 · x2 + 0 · x3
1
 
0
1
 
0
0
 
1
0
 
1
0
 
0
1
 
0
1
 
0
0
 
1
0
Die erhaltenen Vektoren werden entspreched der Reihenfolge der Basiselemente in eine Matrix geschrieben,
wodurch wir wieder obige Matrix


0 1 0 0
 1 0 1 0
ϕ


Rm MRn = 0 1 0 1
0 0 1 0
erhalten.
1.4
Elementare Zusammenhänge
In diesem Abschnitt fassen wir zusammen welche Bedeutung die in der Vorlesung eingeführten Begriffe im
Zusammenhang mit Matrizen für die linearen Abbildungen haben.
Im Folgenden bezeichnen ϕ : U → V , ψ : V → W lineare Abbildungen auf Vektorräumen U , V und W der
Dimensionen n, m, l < ∞.
1.4.1
Komposition von Abbildungen – Matrizenprodukt
Wie oben finden wir die zugehörigen linearen Abbildungen Φ : Rn → Rm und Ψ : Rm → Rl , sodass wir folgendes
Diagramm erhalten:
3
ϕ
U
ψ
V
Φ
Rn
W
Ψ
Rm
Rl
Wir sehen nun, dass die zugehörige Abbildung zur Komposition ψ ◦ ϕ : U → W durch Ψ ◦ Φ : Rn → Rl gegeben
ist, die zugehörigen Matrizen werden also einfach miteinander multipliziert:
(Ψ ◦ Φ)(v) = Ψ(Φ(v)) =
1.4.2
ψ
ϕ
Rl MRm Rm MRn
v.
Invertierbarkeit – Determinante
Wir wissen, dass eine Matrix genau dann invertierbar ist, wenn ihre Determinante nicht Null ist. Ist aber eine
ϕ
n
m
Matrix Rm Mϕ
Rn invertierbar, so auch die Abbildung Φ : R → R , v 7→ Rm MRn v, bzw. die Abbildung ϕ : U → V
(vgl. Diagramm).
Wir haben somit ein einfaches Kriterium dafür gefunden, wann eine lineare Abbildung ϕ : U → V invertierbar
ist, nämlich genau dann wenn die Determinante der zugehörigen Matrix Rm Mϕ
Rn ungleich Null ist.
2 Beispiel. In obigem Beispiel war
ϕ
Rm MRn

0
1
=
0
0
1
0
1
0

0
0
.
1
0
0
1
0
1
Die Determinante dieser Matrix lässt sich einfach mit dem Laplace’schen Entwicklungssatz berechnen, Entwicklung nach der ersten Spalte liefert z.B.




0 1 0 0
1 0 0
1 0 1 0



det 
0 1 0 1 = − det 1 0 1 = 1.
0 1 0
0 0 1 0
Die Abbildung ϕ wie in (1) definiert ist also invertierbar.
Um die inverse Abbildung ϕ−1 zu berechnen invertieren wir
und erhalten
−1 

0
0 1 0 0
1
1 0 1 0



0 1 0 1 =  0
0 0 1 0
−1
die Matrix (z.B. mit dem Gauß-Jordan-Verfahren)

1 0 −1
0 0 0
.
0 0 1
0 1 0
Dies ist gerade die zur inversen Abbildung ϕ−1 zugehörige Matrix
ϕ−1
Rn MRm ,
d.h. ϕ−1 ist gegeben durch
ϕ−1 : K3 [x] → K3 [x], a0 + a1 x + a2 x2 + a3 x3 7→ (a1 − a3 ) + a0 x + a3 x2 + (a3 − a0 )x3 .
1.4.3
Injektivität – Kern
Aus unserem Diagramm
ϕ
V
U
I −1
Rn I
J −1
Φ
Rm
erhalten wir, dass ϕ = J −1 ΦI mit einer bijektiven Abbildung I. D.h. ϕ ist injektiv genau dann, wenn Φ injektiv
ist.
Nach Satz 3.8.18 im Vorlesungsskript “Lineare Algebra und Geometrie” von W. Kimmerle und M. Stroppel ist
ϕ
die Abbildung Φ : Rn → Rm , v 7→ Rm Mϕ
Rn v aber genau dann injektiv, wenn der Kern der Matrix Rm MRn nur
die Null enthält. Wir haben also ein einfaches Kriterium für die Injektivität einer Abbildung ϕ gefunden.
4
3 Beispiel. Um den Kern der Matrix

0 1
1 0

0 1
0 0
ϕ−1
Rn MRm
0
1
0
1
zu bestimmen betrachten wir
   
  
a0
a1
0
0
a1  a0 + a2  ! 0
0
= 
· =
1 a2  a1 + a3  0
a3
a2
0
0
aus der ersten und letzten Zeile folgt sofort a1 = a2 = 0. Dies in die mittleren beiden Zeilen eingesetzt ergibt
a0 = a3 = 0, d.h. es ist
−1
= {0}.
ker Rn Mϕ
m
R
1.4.4
Surjektivität – Rang
Wegen ϕ = I −1 ΦI und der Bijektivität von I ist Surjektivität von ϕ äquivalent zur Surjektivität von Φ. Nach
Lemma 3.10.6 (2 und 5) aus dem Vorlesungsskript ist die Abbildung Φ : Rn → Rm , v 7→ Rm Mϕ
Rn v aber genau
den
vollen
(Zeilen-)Rang
besitzt.
Damit
haben
wir
ein
einfaches
Kriterium
für die
dann surjektiv, wenn Rm Mϕ
n
R
Surjektivität einer Abbildung ϕ gefunden.
4 Beispiel. Wir bestimmen den Rang von Rm Mϕ
Rn durch Anwendung



0 1 0
0 1 0 0
1 0 0
1 0 1 0



Z3-Z1
0 1 0 1 Z2-Z4,
−−−−−−→ 0 0 0
0 0 1
0 0 1 0
Man erhält 4 linear unabhängige Zeilen, d.h. es ist
rang
ϕ Rm MRn
5
= {0}.
elementarer Zeilenumformungen:

0
0
.
1
0
Herunterladen