Kapitel 2 Lineare Algebra II 2.1 Lineare Abbildungen Die mit der Vektorraumstruktur verträglichen Abbildungen zwischen Vektorräumen werden als linear bezeichnet. Genauer definiert man: 2.1 Definition Eine Abbildung L: V → W zwischen zwei reellen Vektorräumen V und W heisst linear , wenn für alle v, w ∈ V , λ ∈ R, folgendes gilt: 1. L(v + w) = L(v) + L(w). 2. L(λv) = λL(v). 2.2 Bemerkung Für jede lineare Abbildung L: V → W gilt L(0) = 0, das heisst L bildet den Nullvektor aus V auf den Nullvektor aus W ab. Beweis. Denn sei v ∈ V gewählt. Dann folgt aus der zweiten Bedingung L(0) = L(0 · v) = 0 · L(v) = 0. q.e.d. 2.3 Beispiele (a) Sämtliche Drehungen des R2 um den Nullpunkt um einen beliebigen Winkel α ∈ [0, 2π] sind linear, sie sind sogar längentreu und bilden Dreiecke auf kongruente Dreiecke ab. Entsprechend ist jede räumliche Drehung um eine Achse durch den Nullpunkt eine lineare Selbstabbildung von R3 . (b) Jede Spiegelung des R2 an einer Gerade durch den Nullpunkt ist linear. Aber die Spiegelungen, deren Spiegelachsen nicht durch den Nullpunkt gehen, sind nicht linear, weil sie den Nullpunkt nicht festlassen. (c) Die Projektion p: R3 → R2 , (x, y, z) 7→ (x, y) ist linear, wie man direkt nachrechnet. Auch jede andere orthogonale Projektion des Raumes auf eine Ebene, wie sie verwendet werden, um Grundrisse, Aufrisse, Seitenansichten von Gebäuden zu zeichnen, sind linear. (d) Ein Zoom, also eine Streckung Einheiten um einen bestimmten Vergrosserungsfaktor ist linear. Dasselbe gilt für die Reskalierung von Koordinaten mit unterschiedlichen Faktoren, also im zweidimensionalen zum Beispiel in x-Richtung um Faktor 2 und in y-Richtung um Faktor 3. (e) Der Ableitungsoperator D: C 1 [a, b] → C 0 [a, b], der einer stetig differenzierbaren Funktion f auf [a, b] jeweils ihre Ableitung f ′ zuordnet, ist linear. 2.1. Lineare Abbildungen 29 Rb (f) Auch der Integraloperator I: C 0 [a, b] → R, definiert durch I(f ) := a f (x)dx für f ∈ C 0 [a, b], ist linear, weil Integration mit Summenbildung und Skalarmultiplikation vertauschbar ist. Drehungen, Spiegelungen und senkrechte Projektionen haben die Eigenschaft, sämtliche affinen Geraden wieder auf affine Geraden oder Punkte abzubilden. Das gilt auch für jede beliebige lineare Abbildung des R2 und daher der Name. Lineare Abbildungen lassen sich durch Matrizen beschreiben. Hier ein erstes Beispiel. 2.4 Beispiel Die folgende Abbildung L: R2 → R3 ist definiert durch die Multiplikation von ebenen Vektoren mit einer festgewählten 3 × 2-Matrix: 1 2 x + 2y x x L( ) := −1 1 · = −x + y . y y 3 −2 3x − 2y Man kann leicht nachrechnen, dass diese Abbildung linear ist. Allgemeiner gilt folgendes: 2.5 Satz Jede Matrix A vom Typ m × n definiert eine lineare Abbildung LA : Rn → Rm , v 7→ A · v . Umgekehrt gibt es zu jeder linearen Abbildung L: Rn → Rm eine m×n-Matrix A mit L = LA . An den Spalten von A können wir die Bilder der kanonischen Basisvektoren ej ∈ Rn unter L ablesen. Beweis. Man kann direkt nachrechnen, dass die Multiplikation von Spaltenvektoren mit einer festen Matrix eine lineare Abbildung liefert. Sei jetzt umgekehrt eine lineare Abbildung L: Rn → Rm vorgegeben. Um die entsprechende Matrix zu finden, schreiben wir zunächst die Bilder der kanonischen Basisvektoren e1 , . . . , en des Rn als Spaltenvektoren in Rm auf: a1n a11 . . L(e1 ) = .. , . . . , L(en ) = .. . amn am1 Aus diesen n Spaltenvektoren bilden wir eine Matrix a11 a1n . . A := .. . . . .. . am1 amn Diese Matrix leistet das Gewünschte, denn es gilt: x1 x1 .. .. = L(x1 e1 + · · · + xn en ) = x1 L(e1 ) + · · · + xn L(en ) = A · L . . xn xn für alle x1 , . . . , xn ∈ R. q.e.d. 30 Kapitel 2. Lineare Algebra II 2.6 Beispiele (a) Die Matrix zur Drehung des R2 um den Nullpunkt um den Winkel α lautet: cos α − sin α . sin α cos α x Das bedeutet, ist v = , so ist y Dα (v) = cos α − sin α sin α cos α x x cos α − y sin α · = . y x sin α + y cos α (b) Die Spiegelung des R2 an der Winkelhalbierenden wird durch folgende Matrix beschrieben: 0 1 . 1 0 5 1 (c) Die durch Multiplikation mit der Matrix definierte lineare Abbildung 1 2 hat folgende Wirkung auf das markierte Einheitsquadrat: y L(v) L(e2 ) e2 v b L(e ) L(e1 ) 1 b e1 x (d) Die Projektion p: R3 → R2 , (x, y, z) → 7 (x, y) wird durch die folgende Matrix induziert: 1 0 0 . 0 1 0 2.1. Lineare Abbildungen 31 2.7 Bemerkung Die Komposition (oder Hintereinanderausführung) von zwei linearen Abbildungen L1 : Kn → Ks und L2 : Ks → Km ist definiert durch L2 ◦ L1 (v) = L2 (L1 (v)) für alle v ∈ Kn . Ist L1 durch die Multiplikation mit der Matrix B gegeben und L2 durch die Multiplikation mit der Matrix A, so entspricht L2 ◦L1 der Multiplikation mit der Produktmatrix C = AB. Denn L2 (L1 (v)) = A(Bv) = (AB)v = Cv für alle v ∈ Kn . 2.8 Beispiel Schauen wir uns an, welchen Effekt es hat, wenn wir die Koordinatenebene R2 zunächst um den Winkel −α drehen, dann an der x-Achse spiegeln und schliesslich um den Winkel α zurückdrehen. Das Produkt der entsprechenden Matrizen lautet: cos α − sin α 1 0 cos α sin α cos(2α) sin(2α) C := = . sin α cos α 0 −1 − sin α cos α sin(2α) − cos(2α) Durch die Multiplikation mit der Produktmatrix C wird eine Spiegelung an derjenigen Geraden beschrieben, die mit der x-Achse den Winkel α bildet. Allgemeiner kann man jede lineare Abbildung zwischen endlichdimensionalen Vektorräumen durch eine Matrix beschreiben. Dazu muss man aber zunächst Basen und damit Koordinatensysteme für die Vektorräume wählen. Ist A = (v1 , . . . , vn ) eine Basis von V , lässt sich jeder Vektor v ∈ V in eindeutiger Weise als Linearkombination der vj schreiben: v = x1 v1 + · · · + xn vn . v x2 v2 x1 v1 v2 b b v1 32 Kapitel 2. Lineare Algebra II Die Zahlen x1 , . . . , xn sind die Koordinaten von v bezogen auf die Basis A. Den Spaltenvektor, gebildet aus den Koordinaten oder den Koeffizienten xj , bezeichnen wir als den Koeffizientenvektor von v bezüglich der Basis A: x1 . Koeff A (v) := .. . xn 2.9 Satz Sei V ein Vektorraum mit Basis A = (v1 , . . . , vn ) und W ein Vektorraum mit Basis B = (w1 , . . . , wm ). Jede Matrix A vom Typ m × n definiert eine lineare Abbildung L: V → W , die dadurch bestimmt ist, dass Koeff B (L(v)) = A · Koeff A (v) . Umgekehrt gibt es zu jeder linearen Abbildung L: V → W eine m × n-Matrix B MA (L), die L induziert. Die Spalten dieser Matrix geben die Koeffizienten der Bildvektoren L(vj ) bezüglich der Basis B von W an. Ist V = W , verwendet man üblicherweise dieselbe Basis für Ausgangs- und Bildraum. Beweis. Sei zunächst A eine vorgegebene m × n-Matrix und sei v = x1 v1 + · · · + xn vn ∈ V . Aus den Koeffizienten x1 , . . . , xn bilden wir den Spaltenvektor Koeff A (v), multiplizieren diesen Vektor mit der Matrix A und erhalten einen Spaltenvektor mit Einträgen y1 , . . . , ym , weil A aus m Zeilen besteht. Diese Einträge verwenden wir nun als Koeffizienten für L(v), das heisst wir setzen fest: L(v) := y1 w1 + · · · + ym wm . Auf diese Weise wird eine lineare Abbildung erklärt. Denn jeder einzelne Schritt ist mit Addition und Skalarmultiplikation verträglich. Überprüfen wir hier exemplarisch die Verträglichkeit mit Skalarmultiplikation. Für λ ∈ R gilt: λv = (λx1 )v1 + · · · + (λxn )vn . Das heisst Koeff A (λv) = λ Koeff A (v). Daraus folgt A · Koeff A (λv) = λA · Koeff A (v) und daher schliesslich L(λv) = λL(v). Sei jetzt umgekehrt L: V → W vorgegeben. Dann schreiben wir die Bildvektoren Pm L(v1 ), . . . , L(vn ) als Linearkombinationen der Basis B in der Form L(vj ) = i=1 aij wi . Die Koeffizientenvektoren lauten also: a1n a11 . . Koeff B (L(v1 )) = .. , . . . , Koeff B (L(vn )) = .. . amn am1 Aus diesen Spaltenvektoren bilden wir die Matrix B MA (L) = A = (aij ). Es ist eine Matrix vom Typ m × n. Die von der Matrix induzierte Abbildung stimmt mit der Abbildung L überein, denn L(v) = L(x1 v1 + · · · + xn vn ) = x1 L(v1 ) + · · · + xn L(vn ) und daher L(v) = x1 m X i=1 ai1 wi + · · · + xn m X i=1 ain wi = n X m X j=1 i=1 m X n X xj aij wi = ( aij xj )wi . i=1 j=1 2.1. Lineare Abbildungen 33 Also folgt a11 x1 + · · · + a1n xn .. = A · Koeff A (v) Koeff B (L(v)) = . am1 x1 + · · · + amn xn für alle v ∈ V . q.e.d. 2.10 Beispiel Sei V die Ebene durch 0, erzeugt von zwei linear unabhängigen Vektoren u, v in R3 . Die Abbildung L: V → V sei festgelegt durch L(u) = 2u und L(v) = u + v. Dann wählen wir als Basis A = (u, v) und lesen ab Koeff A (L(u)) = 2 1 und Koeff A (L(v)) = . Also wird L bezogen auf die Basis A hier durch die 0 1 2 1 Matrix beschrieben. Denn L(xu + yv) = x(2u) + y(u + v) = (2x + y)u + yv. 0 1 Wichtige Spezialfälle: • Sind V = Rn , W = Rm und A und B die kanonischen Basen, erhalten wir die in Satz 1.24 gegebene Beschreibung wieder zurück. • Ist V = W , wählt man üblicherweise A = B. Die linearen Selbstabbildungen werden auch als Endomorphismen bezeichnet und entsprechen quadratischen Matrizen. 2.11 Beispiele (a) Sei V der Raum der Polynome von Höchstgrad 3 mit der Basis A = (1, x, x2 , x3 ) und W der Raum der Polynome von Höchstgrad 2 mit Basis B = (1, x, x2 ). Die lineare Abbildung L: V → W sei definiert durch die Ableitung L(p) := p′ für p ∈ V . Offenbar ist dann L(1) = 0, L(x) = 1, L(x2 ) = 2x, L(x3 ) = 3x2 . Daraus können wir die Matrix von L ablesen. Sie lautet: 0 1 0 0 0 0 2 0 . B MA (L) = 0 0 0 3 (b) Sei V = W = R3 und L eine Drehung um die Achse g durch den Nullpunkt und um den Winkel α. Wir wählen für V eine Basis A = (v1 , v2 , v3 ), so dass v1 in Richtung der Drehachse g zeigt, v2 , v3 in der zu g senkrechten Ebene einen Winkel von 90 Grad bilden und beide dieselbe Länge haben. Bezogen auf dieses Koordinatensystem lautet die Matrix von L: 1 0 0 MA (L) = 0 cos α − sin α . 0 sin α cos α 34 Kapitel 2. Lineare Algebra II 4 (c) Sei V = W = R2 und L die Spiegelung an der Geraden g = {λ | λ ∈ R}. 1 4 −1 Wir wählen A = B = (v1 , v2 ), wobei v1 = und v2 = . Da v1 ∈ g, 1 4 gilt L(v1 ) = v1 . Ausserdem ist L(v2 ) = −v2 , da v2 ⊥ v1 . Wir lesen daraus ab: 1 0 MA (L) = . 0 −1 Das bedeutet, dass ein Vektor der Form v = αv1 + βv2 auf den Vektor L(v) = αv1 − βv2 abgebildet wird. Jede lineare Abbildung definiert charakteristische Unterräume, sowohl im Ausgangsraum als auch im Bildraum. 2.12 Satz Sei L: V → W eine lineare Abbildung. Dann gilt: 1. Das Bild(L) := {L(v) | v ∈ V } ist ein linearer Unterraum von W . 2. Der Kern(L) := {v ∈ V | L(v) = 0} ist ein linearer Unterraum von V . 3. L ist genau dann injektiv, wenn Kern(L) = {0}. Beweis. Zu 1. Das Bild von L ist nichtleer, denn wegen L(0) = 0, enthält es zumindest den Nullvektor von W . Nehmen wir jetzt an w1 , w2 ∈ Bild(L). Dann gibt es Vektoren v1 , v2 ∈ V mit L(v1 ) = w1 und L(v2 ) = w2 . Aus der Linearität von L folgt L(v1 + v2 ) = L(v1 ) + L(v2 ) = w1 + w2 . Also ist auch w1 + w2 im Bild von L enthalten. Schliesslich gilt für alle λ ∈ R: L(λv1 ) = λL(v1 ) = λw1 ∈ Bild(L). zu 2. Diesen Beweisteil lassen wir als Übung. zu 3. Ist L injektiv, so ist L(v) = 0 nur für v = 0 möglich. Das heisst Kern(L) = {0}. Sei jetzt umgekehrt Kern(L) = {0} und nehmen wir an, es sei L(v1 ) = L(v2 ) für v1 , v2 ∈ V . Dann folgt L(v1 − v2 ) = L(v1 ) − L(v2 ) = 0 und daher v1 − v2 ∈ Kern(L). Also muss v1 = v2 sein. q.e.d. 2.13 Beispiele • Sei L: R3 → R3 die orthogonale Projektion des Raumes auf eine Ebene E in R3 durch den Nullpunkt. Dann ist das Bild von L hier die Ebene E, und der Kern besteht aus allen Vektoren, die auf E senkrecht stehen. 1 2 • Sei A = −1 1 . Das Bild der Abbildung LA : R2 → R3 , definiert durch 3 −2 Multiplikation mit der Matrix A, ist diejenige Ebene in R3 , die von den beiden Spalten von A erzeugt wird. Der Kern besteht hier nur aus dem Nullvektor. 2 −6 1 • Sei A = . Hier definiert die Multiplikation mit A eine Ab1 −3 −1 2 bildung LA : R3 → R2 . Das Bildist ganz R und der Kern besteht aus allen 3α Vektoren in R3 der Form α (α ∈ R). 0 2.1. Lineare Abbildungen 35 Es gilt der folgende Zusammenhang zwischen den Dimensionen von Kern und Bild: 2.14 Satz (Dimensionsformel ) Sei L: V → W linear und dim V = n. Dann gilt: dim Kern(L) + dim Bild(L) = n . Wir wollen diese Aussage zunächst für Matrizen interpretieren. Sei also A eine m × n-Matrix und LA : Rn → Rm die durch Multiplikation mit A definierte lineare Abbildung. Dann gilt Kern(LA ) = {v ∈ V | A·v = 0}. Der Kern von LA stimmt also mit der Lösungsmenge L des durch A beschriebenen homogenen Gleichungssystems überein. Weiter kann man zeigen, dass folgendes gilt: Bild(LA ) = lin(LA (e1 ), . . . , LA (en )). Das Bild von LA ist also gerade derjenige Unterraum von Rm , der von den Spaltenvektoren von A erzeugt wird. Die Dimension dieses Unterraums stimmt überein mit der maximalen Anzahl linear unabhängiger Spalten von A, man nennt diese Zahl auch den Spaltenrang Rang(A). Die Dimensionsformel liefert jetzt folgende Beziehung: dim L = n − Rang(A) . Bereits im ersten Paragraphen hatten wir im Zusammenhang mit dem Gaussschen Eliminationsverfahren eine ähnliche Beziehung für die Dimension des Lösungsraumes gefunden, nämlich dim L = n − r, wobei r der Rang der durch elementare Zeilenumformungen auf Zeilenstufenform transformierten Matrix A′ war. Der Rang einer Matrix in Zeilenstufenform gibt die Anzahl der Nichtnullzeilen an und stimmt überein mit der maximalen Anzahl linear unabhängiger Zeilen, also dem Zeilenrang von A′ . Nun bleibt der Zeilenrang einer Matrix bei elementaren Zeilenumformungen aber unverändert. Wir erhalten also folgendes Ergebnis: 2.15 Folgerung Der Zeilen- und der Spaltenrang einer Matrix stimmen miteinander überein. Man spricht deshalb kurz vom Rang einer Matrix. Der Rang gibt sowohl die Anzahl linear unabhängiger Spalten als auch die Anzahl linear unabhängiger Zeilen der Matrix an. Beweis der Dimensionsformel. Weil der Kern von L ein Unterraum von V ist, gilt sicher k := dim(Kern(L)) ≤ n. Ausserdem können wir eine Basis (v1 , . . . , vk ) von Kern(L) wählen und zu einer Basis (v1 , . . . , vk , vk+1, . . . , vn ) von V ergänzen. Es reicht jetzt, folgende Behauptung zu beweisen: (L(vk+1 ), . . . , L(vn )) ist eine Basis für das Bild von L. Dazu zeigen wir zunächst, dass die Menge ein Erzeugendensystem für das Bild ist. Sei also w ∈ Bild(L). Dann gibt es ein v ∈ V mit L(v) P = w. Wir schreiben v als n LinearkombinationPder Basiselemente in der Form v = i=1 αi vi (αi ∈ R). Dann Pn n folgt w = L(v) = i=1 αi L(vi ) = k+1 αi L(vi ), weil L(vi ) = 0 für alle i ≤ k. Also liegt w in der linearen Hülle von (L(vk+1 ), . . . , L(vn )). 36 Kapitel 2. Lineare Algebra II Im zweiten Schritt zeigen wir jetzt, dass die Menge linear unabhängig ist. Angenommen n n X X αi vi ) . αi L(vi ) = L( 0= i=k+1 i=k+1 Pn Das bedeutet, der Vektor u := i=k+1 αi vi liegt im Kern der Abbildung L, lässt sich also in der Basis (v1 , . . . , vk ) schreiben. Das heisst, es gibt Zahlen β1 , . . . , βk mit u= k X βi vi = i=1 n X αi vi . i=k+1 Daraus folgt die Relation β1 v1 + · · · + βk vk − αk+1 vk+1 − · · · − αn vn = 0 . Da (v1 , . . . , vn ) linear unabhängig gewählt waren, folgt β1 = · · · = βk = αk+1 = · · · = αn = 0. q.e.d. 2.16 Folgerung Seien V , W endlichdimensionale Vektorräume und L: V → W linear. Dann gilt: L ist genau dann bijektiv, wenn dim V = dim W und Kern(L) = {0}. In diesem Fall ist auch die Umkehrabbildung von L linear und man bezeichnet L als Vektorraumisomorphismus. 2.17 Beispiel Sei V ein Vektorraum der Dimension n und A eine Basis für V . Dann ist die Zuordnung V → Rn , v 7→ Koeff A (v) ein Vektorraumisomorphismus. Das bedeutet, jeder endlichdimensionale Vektorraum ist zu einem der Räume Rn (n ∈ N0 ) isomorph. 2.18 Beispiel Eine quadratische Matrix A definiert genau dann eine bijektive lineare Abbildung LA : Kn → Kn , wenn A invertierbar ist, wenn also det A 6= 0 ist. Ist dies der Fall, wird die Umkehrabbildung durch die Multiplikation mit der inversen Matrix A−1 beschrieben. Die Matrix, die eine lineare Abbildung beschreibt, hängt wesentlich von der Wahl der Basen — also der Koordinatensysteme — ab! Hierzu ein einfaches Beispiel. Sei L die Spiegelung des R2 an der Winkelhalbierenden. Wie schon früher erwähnt, lautet die Matrix von L bezüglich der kanonischen Basis (weil L(e1 ) = e2 und L(e2 ) = e1 ist): 0 1 M(e1 ,e2 ) (L) = . 1 0 1 −1 Wählt man dagegen die Basis aus v1 = und v2 = , dann ist L(v1 ) = v1 1 1 und L(v2 ) = −v2 und daher lautet die zugehörige Matrix: 1 0 M(v1 ,v2 ) (L) = . 0 −1 2.1. Lineare Abbildungen 37 Man kann durch Wahl einer günstigen Basis versuchen, die Abbildung durch eine möglichst einfache Matrix zu beschreiben, an der sich wichtige Eigenschaften möglichst direkt ablesen lassen. Dazu sei hier noch beschrieben, wie sich die Matrix eines Endomorphismus bei einem Basiswechsel ändert. 2.19 Satz Sei L: V → V ein Endomorphismus des Vektorraums V . Seien weiter A, B Basen von V und seien A := MA (L) und B := MB (L) die zugehörigen Matrizen. Dann gilt: B = T −1 AT , wobei die Transformationsmatrix T den Basiswechsel von B nach A beschreibt, das heisst, die Spalten von T sind die Koeffizientenvektoren der Vektoren aus B, ausgedrückt in der Basis A. Ist speziell V = Kn und A die kanonische Basis, erhält man T einfach, indem man die Elemente von B als Spalten zu einer Matrix zusammenfügt. Beweis. Nach Wahl der Transformationsmatrix gilt für jedes v ∈ V : T · Koeff B (v) = Koeff A (v) . Daraus folgt AT Koeff B (v) = Koeff A (Lv), und das liefert, wie behauptet T −1 AT · Koeff B (v) = Koeff B (Lv) . q.e.d. 2.20 Beispiel Sei V = R2 , A = (e1 , e2 ), L die Spiegelung an der Winkelhalbie 1 −1 renden und sei B die Basis, gebildet aus den Vektoren u = und w = . 1 1 0 1 1 −1 1 1 Dann ist A = und T = . Wegen T −1 = 12 , erhalten 1 0 1 1 −1 1 wir: 1 0 −1 B = T AT = . 0 −1 Hier ist noch ein weiteres Beispiel: 2.21 Beispiel Sei wiederum V = R2 , A = (e1 , e2 ), und sei L die lineare Abbildung, 1 4 . Sei festgelegt durch L(e1 ) = e1 + 2e2 und L(e2 ) = 4e1 + 3e2 . Dann ist A = 2 3 1 −2 weiter B die Basis, gebildet aus den Vektoren u = und w = . Also ist 1 1 1 −2 1 2 1 2 1 hier T = und T −1 = det(T = 31 . Die Matrix von L ) 1 1 −1 1 −1 1 bezogen auf die Basis B lautet daher: 5 0 −1 B = T AT = . 0 −1 Das bedeutet, wenn wir einen Vektor durch die Basis B ausdrücken in der Form v = x̃u + ỹw, dann ist L(v) = 5x̃u − ỹw. 38 Kapitel 2. Lineare Algebra II y x̃ L(u) 4 b b L(v) v ỹ b b 2 b u w 7 −1 b L(w) x