Prof. Dr. C. Hesse PD Dr. P. H. Lesky Dipl. Math. D. Zimmermann Msc. J. Köllner Universität Stuttgart Fachbereich Mathematik Höhere Mathematik I FAQ 4 17.01.2014 el, kyb, mecha, phys 1 1.1 Lineare Abbildungen und Matrizen Um was geht es? Anhand eines einfachen, aber nicht trivialen Beispiels wollen wir nachvollziehen, in welcher Weise eine geeignete Matrix zu einer linearen Abbildung assoziiert ist, und welche Vorteile dies mit sich bringt. Wir betrachten dafür unseren Lieblingsvektorraum, den Raum Kn [x] aller Polynome vom Grad kleiner oder gleich n, hier, der Einfachheit halber, mit n = 3. Auf diesem Vektorraum ist durch B = (1, x, x2 , x3 ) eine Basis1 gegeben, d.h. ein Element p(x) ∈ K3 [x] besitzt bzgl. dieser Basis eine eindeutige Darstellung B (p(x)) = a0 + a1 x + a2 x2 + a3 x3 . Dabei hängen die Zahlen a0 , a1 , a2 , a3 natürlich von der gewählten Basis ab. Um dies kenntlich zu machen versehen wir die Größe p(x) auf der linken Seite des Gleichheitszeichens mit dem Index B, welcher links unten geschrieben wird. Warum gerade diese Position für den Index gwählt wird, werden wir unten sehen. Betrachten wir gleichzeitig den R4 zusammen mit der Standardbasis (1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T , (0, 0, 0, 1)T , so sehen wir, dass durch I a0 + a1 x + a2 x2 + a3 x3 I −1 0 a0 0 0 1 a1 0 0 1 0 = a0 + a1 + a2 + a3 0 a2 1 0 0 1 0 0 a3 0 ein Isomorphismus I, d.h. eine bijektive, lineare Abbildung gegeben ist. Auf diese Weise ist also jedem Polynom in K3 [x] genau ein Spaltenvektor im R4 und umgekehrt zugeordnet. Auf unserem Vektorraum geben wir uns nun durch ϕ : K3 [x] → K3 [x], a0 + a1 x + a2 x2 + a3 x3 7→ a1 + (a0 + a2 )x + (a1 + a3 )x2 + a2 x3 (1) 4 eine lineare Abbildung vor. Auf dem R definieren wir eine lineare Abbildung durch a0 a1 a0 0 1 0 0 a1 1 0 1 0 a1 a0 + a2 Φ: a2 7→ 0 1 0 1 · a2 = a1 + a3 . 0 0 1 0 a3 a2 a3 Dabei bemerken wir, dass (I −1 ◦ Φ ◦ I)(a0 + a1 x + a2 x2 + a3 x3 ) = a0 a1 a1 −1 a0 + a2 (I −1 ◦ Φ) a2 = I a1 + a3 a3 a2 = a1 + (a0 + a2 )x + (a1 + a3 )x2 + a2 x3 = ϕ(a0 + a1 x + a2 x2 + a3 x3 ) und damit einfach I −1 ◦ Φ ◦ I = ϕ gilt. Dank des Isomorphismus I können wir also anstelle mit Polynomen und der recht komplizierten Abbildung ϕ einfacher mit Spaltenvektoren und einer Matrixmultiplikation Φ rechnen und erhalten dabei dieselbe Abbildung. Bildlich lässt sich dieser Sachverhalt wie folgt verdeutlichen: 1 In einer Basis stehen die Elemente stets in einer fest gewählten Reihenfolge, um dies zu betonen schreiben wir hier anstelle der geschweiften Mengenklammern {...} wie bei Koordinaten, die ja ebenfalls in einer festen Reihenfolge stehen, runde Klammern (...). 1 ϕ K3 [x] K3 [x] I I −1 I I −1 Φ R4 R4 Um das Bild eines Polynoms aus K3 [x] unter der Abbildung ϕ zu bestimmen kann man also entweder den “direkten Weg” gehen oder einen “Umweg” über den R4 machen. 1.2 Das Ganze nochmal allgemeiner Ist V ein (reller) Vektorraum mit dim (V ) = n < ∞ und Basis B = (e1 , e2 , . . . , en ), so besitzt jedes Element v ∈ V eine eindeutige Darstellung Bv = n X vi e i , i=1 und es ist durch v1 n v2 X I : V → Rn , vi ei 7→ . ; .. I −1 i=1 v1 n v2 X : Rn → V, . 7→ vi ei .. i=1 vn vn ein Isomorphismus gegeben. Betrachten wir nun zusätzlich einen zweiten Vektorraum Ṽ mit dim (Ṽ ) = m < ∞ und Basis B̃ und eine lineare Abbildung ϕ : V → Ṽ , so lässt sich dieser eindeutig eine (m × n)-Matrix Rm Mϕ Rn und eine zugehörige lineare Abbildung v1 ṽ1 v1 .. ϕ . n m .. Φ : R → R , . 7→ . = Rm MRn .. vn ṽm vn finden, sodass man das Diagramm ϕ V Ṽ I˜ I Rn Φ Rm erhält. Die Wirkung einer abstrakten linearen Abbildung zwischen abstrakten Vektorräumen ist somit auf eine einfache Matrizenmultiplikation im Rn zurückgeführt. Daraus ergeben sich direkt zwei weitere Fragen: • Wie findet man die zu einer linearen Abbildung gehörige Matrix? • Gibt es Zusammenhänge zwischen weiteren Eigenschaften der linearen Abbildungen und Eigenschaften einer Matrix? 1.3 Wie findet man die zu einer linearen Abbildung gehörige Matrix? Wir beginnen mit einer Beobachtung: Sei wieder V ein (reller) Vektorraum mit Basis B = (e1 , e2 , . . . , en ) Pallgemeinen n und v ∈ V mit B v = i=1 vi ei . Dann folgt aus der Linearität der Abbildung ϕ, dass ! n n X X ϕ(B v) = ϕ vi e i = vi ϕ(ei ). (2) i=1 i=1 2 D.h. die Wirkung einer linearen Abbildung ist eindeutig durch ihre Wirkung auf einer Basis bestimmt. Um das Bild eines beliebigen Vektors zu berechnen genügt es also die Bilder der Basisvektoren zu kennen. Diese sind selbst Elemente des Vektorraums Ṽ und haben somit bzgl. der Basis B̃ = (ẽ1 , ẽ2 , . . . , ẽm ) eine eindeutige Darstellung B̃ (ϕ(ei )) = m X aji ẽj . (3) j=1 Mit aji bezeichnen wir also die j-te Koordinate des Bildes des i-ten Basisvektors aus B bzgl. B̃. Setzen wir (3) in (2) ein und vertauschen die Summationsreihenfolge, so erhalten wir die Darstellung ! n m m n X X X X vi aji ẽj = aji vi ẽj . B̃ (ϕ(B v)) = i=1 j=1 j=1 i=1 | {z =:ṽj } Aus den Koordinaten v1 , . . . , vn von v ∈ V bzgl. der Basis B erhält man also die Koordinaten ṽ1 , . . . , ṽm von ϕ(v) bzgl. der Basis B̃ durch ṽj = n X aji vi . i=1 Letzteres können wir auch in Matrizenform schreiben: ṽ1 a11 . . . .. .. .. . = . . ṽm am1 ... a1n v1 .. · .. . . . amn (4) vn Betrachten man obige Isomorphismen I : V → Rn , I˜ : Ṽ → Rm näher, so sieht man, dass die Matrix auf der rechten Seite in (4) gerade der gesuchten Matrix Rm Mϕ Rn entspricht. 1 Beispiel. Zurück zu obigem Beispiel in K3 [x]. Hier sind die Basisvektoren gerade 1, x, x2 , x3 und wir berechnen deren Bilder unter der Abbildung ϕ: 7→ x = 0 · 1 + 1 · x + 0 · x2 + 0 · x3 x 7→ 1 + x2 = 1 · 1 + 0 · x + 1 · x2 + 0 · x3 x2 7→ x + x3 = 0 · 1 + 1 · x + 0 · x2 + 1 · x3 x3 7→ x2 = 0 · 1 + 0 · x + 1 · x2 + 0 · x3 1 0 1 0 0 1 0 1 0 0 1 0 1 0 0 1 0 Die erhaltenen Vektoren werden entspreched der Reihenfolge der Basiselemente in eine Matrix geschrieben, wodurch wir wieder obige Matrix 0 1 0 0 1 0 1 0 ϕ Rm MRn = 0 1 0 1 0 0 1 0 erhalten. 1.4 Elementare Zusammenhänge In diesem Abschnitt fassen wir zusammen welche Bedeutung die in der Vorlesung eingeführten Begriffe im Zusammenhang mit Matrizen für die linearen Abbildungen haben. Im Folgenden bezeichnen ϕ : U → V , ψ : V → W lineare Abbildungen auf Vektorräumen U , V und W der Dimensionen n, m, l < ∞. 1.4.1 Komposition von Abbildungen – Matrizenprodukt Wie oben finden wir die zugehörigen linearen Abbildungen Φ : Rn → Rm und Ψ : Rm → Rl , sodass wir folgendes Diagramm erhalten: 3 ϕ U ψ V Φ Rn W Ψ Rm Rl Wir sehen nun, dass die zugehörige Abbildung zur Komposition ψ ◦ ϕ : U → W durch Ψ ◦ Φ : Rn → Rl gegeben ist, die zugehörigen Matrizen werden also einfach miteinander multipliziert: (Ψ ◦ Φ)(v) = Ψ(Φ(v)) = 1.4.2 ψ ϕ Rl MRm Rm MRn v. Invertierbarkeit – Determinante Wir wissen, dass eine Matrix genau dann invertierbar ist, wenn ihre Determinante nicht Null ist. Ist aber eine ϕ n m Matrix Rm Mϕ Rn invertierbar, so auch die Abbildung Φ : R → R , v 7→ Rm MRn v, bzw. die Abbildung ϕ : U → V (vgl. Diagramm). Wir haben somit ein einfaches Kriterium dafür gefunden, wann eine lineare Abbildung ϕ : U → V invertierbar ist, nämlich genau dann wenn die Determinante der zugehörigen Matrix Rm Mϕ Rn ungleich Null ist. 2 Beispiel. In obigem Beispiel war ϕ Rm MRn 0 1 = 0 0 1 0 1 0 0 0 . 1 0 0 1 0 1 Die Determinante dieser Matrix lässt sich einfach mit dem Laplace’schen Entwicklungssatz berechnen, Entwicklung nach der ersten Spalte liefert z.B. 0 1 0 0 1 0 0 1 0 1 0 det 0 1 0 1 = − det 1 0 1 = 1. 0 1 0 0 0 1 0 Die Abbildung ϕ wie in (1) definiert ist also invertierbar. Um die inverse Abbildung ϕ−1 zu berechnen invertieren wir und erhalten −1 0 0 1 0 0 1 1 0 1 0 0 1 0 1 = 0 0 0 1 0 −1 die Matrix (z.B. mit dem Gauß-Jordan-Verfahren) 1 0 −1 0 0 0 . 0 0 1 0 1 0 Dies ist gerade die zur inversen Abbildung ϕ−1 zugehörige Matrix ϕ−1 Rn MRm , d.h. ϕ−1 ist gegeben durch ϕ−1 : K3 [x] → K3 [x], a0 + a1 x + a2 x2 + a3 x3 7→ (a1 − a3 ) + a0 x + a3 x2 + (a3 − a0 )x3 . 1.4.3 Injektivität – Kern Aus unserem Diagramm ϕ V U I −1 Rn I J −1 Φ Rm erhalten wir, dass ϕ = J −1 ΦI mit einer bijektiven Abbildung I. D.h. ϕ ist injektiv genau dann, wenn Φ injektiv ist. Nach Satz 3.8.18 im Vorlesungsskript “Lineare Algebra und Geometrie” von W. Kimmerle und M. Stroppel ist ϕ die Abbildung Φ : Rn → Rm , v 7→ Rm Mϕ Rn v aber genau dann injektiv, wenn der Kern der Matrix Rm MRn nur die Null enthält. Wir haben also ein einfaches Kriterium für die Injektivität einer Abbildung ϕ gefunden. 4 3 Beispiel. Um den Kern der Matrix 0 1 1 0 0 1 0 0 ϕ−1 Rn MRm 0 1 0 1 zu bestimmen betrachten wir a0 a1 0 0 a1 a0 + a2 ! 0 0 = · = 1 a2 a1 + a3 0 a3 a2 0 0 aus der ersten und letzten Zeile folgt sofort a1 = a2 = 0. Dies in die mittleren beiden Zeilen eingesetzt ergibt a0 = a3 = 0, d.h. es ist −1 = {0}. ker Rn Mϕ m R 1.4.4 Surjektivität – Rang Wegen ϕ = I −1 ΦI und der Bijektivität von I ist Surjektivität von ϕ äquivalent zur Surjektivität von Φ. Nach Lemma 3.10.6 (2 und 5) aus dem Vorlesungsskript ist die Abbildung Φ : Rn → Rm , v 7→ Rm Mϕ Rn v aber genau den vollen (Zeilen-)Rang besitzt. Damit haben wir ein einfaches Kriterium für die dann surjektiv, wenn Rm Mϕ n R Surjektivität einer Abbildung ϕ gefunden. 4 Beispiel. Wir bestimmen den Rang von Rm Mϕ Rn durch Anwendung 0 1 0 0 1 0 0 1 0 0 1 0 1 0 Z3-Z1 0 1 0 1 Z2-Z4, −−−−−−→ 0 0 0 0 0 1 0 0 1 0 Man erhält 4 linear unabhängige Zeilen, d.h. es ist rang ϕ Rm MRn 5 = {0}. elementarer Zeilenumformungen: 0 0 . 1 0