2.5. Lineare Abbildungen 2.5 53 Lineare Abbildungen Die mit der Vektorraumstruktur verträglichen Abbildungen zwischen zwei Vektorräumen über einem Körper K werden als linear bezeichnet. Genauer definiert man: 2.33 Definition Eine Abbildung L: V → W zwischen zwei K-Vektorräumen V und W heisst linear , wenn für alle v, w ∈ V , λ ∈ K, folgendes gilt: 1. L(v + w) = L(v) + L(w). 2. L(λv) = λL(v). 2.34 Bemerkung Für jede lineare Abbildung L: V → W gilt L(0) = 0, das heisst L bildet den Nullvektor aus V auf den Nullvektor aus W ab. Beweis. Denn sei v ∈ V gewählt. Dann folgt aus der zweiten Bedingung L(0) = L(0 · v) = 0 · L(v) = 0. q.e.d. 2.35 Beispiele (a) Sämtliche Drehungen des R2 um den Nullpunkt um einen beliebigen Winkel α ∈ [0, 2π] sind linear, sie sind sogar längentreu und bilden Dreiecke auf kongruente Dreiecke ab. Die Drehung Dα um den Winkel α können wir folgendermassen mithilfe einer Matrix beschreiben: x cos α − sin α x Dα = für alle x, y ∈ R. y sin α cos α y x x cos α − y sin α Denn ist v = , so ist Dα (v) = . y x sin α + y cos α (b) Jede Spiegelung des R2 an einer Gerade durch den Nullpunkt ist linear. Aber die Spiegelungen, deren Spiegelachsen nicht durch den Nullpunkt gehen, sind nicht linear, weil sie den Nullpunkt nicht festlassen. (c) Die Abbildung L: R2 → R3 , definiert durch 1 2 x + 2y x x ) := −1 1 · L( = −x + y , y y 3 −2 3x − 2y ist ebenfalls linear. Die Bezeichnung “linear” stammt daher, dass eine lineare Abbildung von Rn nach Rm die Eigenschaft hat, sämtliche affinen Geraden wieder in affine Geraden (oder eventuell auf Punkte) abzubilden. Denn sei g = {αv + p | α ∈ R} die Gerade mit Richtungsvektor 0 6= v ∈ Rn durch p ∈ Rn . Dann wird g von L auf die Menge L(g) = {αL(v) + L(p) | α ∈ R} ⊂ Rm abgebildet. Ist L(v) 6= 0, so handelt es sich um die Gerade mit Richtungsvektor L(v) ∈ Rm durch L(p) ∈ Rm . Ist L(v) der Nullvektor in Rm , so besteht L(g) nur aus dem einen Element L(p). 54 Kapitel 2. Vektorräume 2.36 Satz Jede Matrix A vom Typ m × n mit Einträgen in K definiert eine lineare Abbildung LA : Kn → Km , v 7→ A · v. Umgekehrt gibt es zu jeder linearen Abbildung L: Kn → Km eine m × n-Matrix A mit Einträgen in K, so dass gilt L = LA . An den Spalten von A können wir die Bilder der kanonischen Basisvektoren ej ∈ Kn unter L ablesen. Beweis. Man kann direkt nachrechnen, dass die Multiplikation von Spaltenvektoren mit einer festen Matrix eine lineare Abbildung liefert. Sei jetzt umgekehrt eine lineare Abbildung L: Kn → Km vorgegeben. Um die entsprechende Matrix zu finden, schreiben wir zunächst die Bilder der kanonischen Basisvektoren e1 , . . . , en des Kn als Spaltenvektoren in Km auf: a11 a1n . . L(e1 ) = .. , . . . , L(en ) = .. . am1 amn Aus diesen n Spaltenvektoren bilden wir eine Matrix (mit Einträgen in K): a1n a11 . . A := .. . . . .. . amn am1 Diese Matrix leistet das Gewünschte, denn es gilt: x1 x1 .. .. L = L(x1 e1 + · · · + xn en ) = x1 L(e1 ) + · · · + xn L(en ) = A · . . xn xn für alle x1 , . . . , xn ∈ K. q.e.d. 2.37 Beispiele (a) Die Matrix zur Drehung des R2 um den Nullpunkt um den Winkel α lautet, wie schon erwähnt: cos α − sin α . sin α cos α (b) Die Spiegelung des R2 an der Winkelhalbierenden wird durch folgende Matrix beschrieben: 0 1 . 1 0 2.38 Bemerkung Die Hintereinanderausführung L2 ◦ L1 von zwei linearen Abbildungen L1 : Kn → Ks und L2 : Ks → Km ist definiert durch L2 ◦ L1 (v) = L2 (L1 (v)) für v ∈ Kn . Ist L1 durch die Multiplikation mit der s × n-Matrix B gegeben und L2 durch die Multiplikation mit der m × s-Matrix A, so entspricht L2 ◦ L1 der Multiplikation mit der Produktmatrix C = AB. Denn L2 (L1 (v)) = A(Bv) = (AB)v = Cv für alle v ∈ Kn . 2.5. Lineare Abbildungen 55 2.39 Beispiel Wir können dieses Prinzip ausnutzen, um die Matrix anzugeben, die eine Spiegelung des R2 an einer Geraden durch 0 beschreibt. Nehmen wir an, die Gerade g bilde mit der x-Achse den Winkel α. Ist α = 0, so handelt es sich um an der x-Achse, die durch die Multiplikation mit der Matrix die Spiegelung 1 0 gegeben ist. Ist α 6= 0, dann können wir die Spiegelung an g in drei 0 −1 Etappen vollziehen, indem wir nämlich zuerst um den Winkel −α drehen, dann an der x-Achse spiegeln und schliesslich um den Winkel α (zurück)drehen. Das Produkt der entsprechenden Matrizen lautet: cos α − sin α 1 0 cos α sin α C := . sin α cos α 0 −1 − sin α cos α Also wird die Spiegelung an der Geraden g durch die Multiplikation mit der Matrix cos α sin α cos α sin α cos(2α) sin(2α) C= = sin α − cos α − sin α cos α sin(2α) − cos(2α) beschrieben. Auch orthogonale Projektionen sind lineare Abbildungen. Erinnern wir dazu an das Skalarprodukt auf R3 , definiert durch 3 v1 w1 X vk wk , falls v = v2 , w = w2 . hv, wi := k=1 v3 w3 Bekanntlich stehen v und w genau dann senkrecht aufeinander, wenn hv, wi = 0 ist, und für die Länge des Vektors v gilt nach dem Satz von Pythagoras: q p ||v|| = v12 + v22 + v32 = hv, vi . Entsprechend setzen wir deshalb für v, w ∈ Rn (und n ∈ N): hv, wi := n X vk wk und ||v|| = k=1 p hv, vi , w1 v1 v2 , w = w.2 . falls v = . .. .. wn vn Für das Skalarprodukt gelten folgende Rechenregeln (jeweils für alle λ ∈ R, u, v, w ∈ Rn ): • hv, wi = hw, vi; • hλv, wi = λhv, wi und hu + v, wi = hu, wi + hv, wi; • hv, vi > 0, falls v 6= 0. 56 Kapitel 2. Vektorräume Sei jetzt E ⊂ R3 eine Ebene durch den Nullpunkt, die von den Vektoren u und w erzeugt werde. Ausserdem gelte ||u|| = ||w|| = 1 und hu, wi = 0. Dann wird durch die Vorschrift P : R3 → E, v 7→ hv, uiu + hv, wiw eine lineare Abbildung erklärt, und zwar handelt es sich um die orthogonale Projektion von R3 auf die Ebene E. (Es könnte also zum Beispiel ein Aufriss oder Grundriss sein.) Die Linearität ist leicht nachzurechnen. Um die geometrische Interpretation einzusehen, betrachten wir zu v ∈ R3 den Vektor v ′ := v − P (v) = v − hv, uiu + hv, wiw . Nachrechnen zeigt, dass hv ′ , ui = 0 und hv ′, wi = 0. Der Vektor v ′ steht also senkrecht auf u und w und damit auf der von beiden erzeugten Ebene E. Das bedeutet, in der Zerlegung v = P (v) + v ′ gibt v ′ die Komponente von v senkrecht zu E und P (v) die Komponente parallel zu E an. Mit anderen Worten, P (v) ist gerade die orthogonale Projektion von v in E. Man kann jede lineare Abbildung zwischen endlichdimensionalen K-Vektorräumen durch eine Matrix mit Einträgen in K beschreiben. Dazu muss man aber zunächst Basen für die Vektorräume wählen. Ist A = (v1 , . . . , vn ) eine Basis von V , lässt sich jeder Vektor v ∈ V in eindeutiger Weise als Linearkombination der vj schreiben: v = x1 v1 + · · · + xn vn . (Denn angenommen, es gäbe zwei verschiedene Arten, den Vektor v als Linearkombination der vj zu schreiben, etwa v = x1 v1 +· · ·+xn vn = y1 v1 +· · · yn vn . Dann folgte 0 = (x1 − y1 )v1 + · · · (xn − yn )vn , und daraus wegen der linearen Unabhängigkeit von A weiter xj = yj für alle j. Also stimmten die Linearkombinationen doch überein.) Den Spaltenvektor, gebildet aus den Koeffizienten xj ∈ K, bezeichnen wir als den Koeffizientenvektor von v bezüglich der Basis A: x1 .. Koeff A (v) := . . xn 2.40 Bemerkung Jede Wahl einer Basis A = (v1 , . . . , vn ) für V liefert eine umkehrbare lineare Abbildung LA : V → Kn , v 7→ Koeff A (v) . Dabei wird vj jeweils auf n −1 n den kanonischen Basisvektor ej ∈ K abgebildet. Die Umkehrabbildung (LA ) : K → x1 .. 7→ x1 v1 + · · · + xn vn , und ist ebenfalls linear. V ist gegeben durch . xn Beweis. Die angegebene Zuordnung ist offenbar bijektiv, weil wir explizit eine Umkehrabbildung angeben können. Überprüfen wir nun die Linearität. Für λ ∈ K gilt λv = (λx1 )v1 + · · ·+ (λxn )vn und damit Koeff A (λv) = λ Koeff A (v). Ist ṽ ein weiterer 2.5. Lineare Abbildungen 57 Vektor aus V der Form ṽ = x̃1 v1 + · · · + x̃n vn , so gilt v + ṽ = (x1 + x̃1 )v1 + · · · + (xn + x̃n )vn und wir erhalten Koeff A (v + ṽ) = Koeff A (v) + Koeff A (ṽ) . Die Linearität der Umkehrabbildung kann man durch Einsetzen ebenfalls direkt nachrechnen. q.e.d. 2.41 Satz Sei K ein Körper, V ein K-Vektorraum mit Basis A = (v1 , . . . , vn ) und W ein K-Vektorraum mit Basis B = (w1 , . . . , wm ). Jede Matrix A vom Typ m×n mit Einträgen in K definiert eine lineare Abbildung L: V → W , die dadurch bestimmt ist, dass Koeff B (L(v)) = A · Koeff A (v) . Umgekehrt gibt es zu jeder linearen Abbildung L: V → W eine m × n-Matrix A, die L induziert. Wir bezeichnen diese Matrix auch mit A = B MA (L). Die Spalten dieser Matrix geben die Koeffizienten der Bildvektoren L(vj ) bezüglich der Basis B von W an. Beweis. Die Wahl der Basen von V und W liefert, wie eben beschrieben, umkehrbare lineare Abbildungen LA : V → Rn , v 7→ Koeff A (v) und LB : W → Rm , w 7→ Koeff B (w) . Wir können auf diese Weise also die abstrakt gegebenen Vektorräume V und W mit den Räumen Rn bzw. Rm identifizieren. Ausserdem erhalten wir eine Möglichkeit, die schon beschriebenen linearen Abbildungen zwischen Rn und Rm in solche zwischen V und W zu übersetzen. Sei dazu A eine vorgegebene m × n-Matrix und bezeichne wie bisher LA : Rn → Rm die durch Multiplikation mit der Matrix A erklärte Abbildung. Dann erhalten wir durch Zusammensetzung eine lineare Abbildung L: V → W , nämlich L = (LB )−1 ◦ LA ◦ LA . Und für jeden Vektor v ∈ V gilt wie behauptet LB (L(v)) = Koeff B (L(v)) = LA (LA (v)) = A · Koeff A (v) . Sei jetzt umgekehrt L: V → W eine lineare Abbildung. Dann ist auch die Zusammensetzung LB ◦ L ◦ (LA )−1 : Rn → Rm linear. Wie wir bereits wissen, wird jede lineare Abbildung von Rn nach Rm durch eine m × n-Matrix A beschrieben. Diese Matrix A ist gerade die Gesuchte. q.e.d. 58 Kapitel 2. Vektorräume Wichtige Spezialfälle: • Sind V = Kn , W = Km und A und B die kanonischen Basen, erhalten wir die in Satz 2.26 gegebene Beschreibung wieder zurück. • Ist V = W , wählt man üblicherweise A = B. Die linearen Selbstabbildungen werden auch als Endomorphismen bezeichnet und entsprechen quadratischen Matrizen. 2.42 Beispiele (a) Sei V = R2 , und sei L: V → V die Spiegelung an der Geraden g durch den Nullpunkt. Wählen wir nun einen Vektor v1 auf der Geraden g und einen weiteren dazu senkrechten Vektor v2 . Dann ist L(v1 ) = v1 und L(v2 ) = −v2 . Daraus lesen wir ab 1 0 . B MB (L) = 0 −1 (b) Sei V = W = R3 und L eine räumliche Drehung um die Achse g durch den Nullpunkt und um den Winkel α. Wir wählen für V eine Basis A = (v1 , v2 , v3 ), so dass v1 in Richtung der Drehachse g zeigt und v2 , v3 in der zu g senkrechten Ebene einen Winkel von 90 Grad bilden und gleichlang sind. Bezogen auf dieses Koordinatensystem lautet die Matrix von L: 1 0 0 0 cos α − sin α . A MA (L) = 0 sin α cos α (c) Sei V = R3 und W ⊂ R3 die Ebene, erzeugt von zwei Vektoren u und w mit ||u|| = ||w|| = 1 und hu, wi = 0. Die orthogonale Projektion von V auf W ist gegeben durch P : V → W, P (v) = hv, uiu + hv, wiw . Wir wählen jetzt die kanonische Basis A = (e1 , e2 , e3 ) für V und B = (u, w) für W . Dann ist offenbar x hv, ui u1 x + u2 y + u3 z Koeff B (P (v)) = = für v = y ∈ V . hv, wi w1 x + w2 y + w3 z z u1 u2 u3 Daraus lesen wir ab . B MA (P ) = w1 w2 w3 (d) Sei V der Raum der Polynome von Höchstgrad 3 mit der Basis A = (1, x, x2 , x3 ) und W der Raum der Polynome von Höchstgrad 2 mit Basis B = (1, x, x2 ). Die lineare Abbildung L: V → W sei definiert durch die Ableitung L(p) := p′ für p ∈ V . Offenbar ist dann L(1) = 0, L(x) = 1, L(x2 ) = 2x, L(x3 ) = 3x2 . Daraus können wir die Matrix von L ablesen. Sie lautet: 0 1 0 0 0 0 2 0 . B MA (L) = 0 0 0 3 2.5. Lineare Abbildungen 59 Seien jetzt wieder V , W endlichdimensionale K-Vektorräume und sei L: V → W eine lineare Abbildung. Ist L bijektiv , d.h. eine 1 : 1-Zuordnung zwischen den Vektoren aus V und den Vektoren aus W , so ist die Abbildung L umkehrbar und die Abbildung in der umgekehrten Richtung ist ebenfalls linear. Man bezeichnet L in diesem Fall als Vektorraumisomorphismus, denn die Struktur der beiden Räume V und W stimmt dann überein. 2.43 Satz Eine lineare Abbildung L: V → W ist genau dann bijektiv, wenn dim V = dim W und L(v) 6= 0 für alle v 6= 0. Beweis. Nehmen wir an, L sei bijektiv. Dann gibt es zu jedem Vektor w ∈ W genau ein v ∈ V mit L(v) = w. Ist v1 , . . . , vn eine Basis von V , so können wir v auf eindeutige Weise als Linearkombination v = α1 v1 + . . . + αn vn schreiben. Daraus folgt w = L(v) = α1 L(v1 ) + . . .+ αn L(vn ). Also bilden die Elemente L(v1 ), . . . , L(vn ) eine Basis von W . Deshalb ist die Dimension von W ebenfalls gleich n. Ausserdem gibt es zu 0 ∈ W nur genau ein v ∈ V mit L(v) = 0, nämlich v = 0. Sei jetzt umgekehrt dim V = dim W = n und L(v) 6= 0 für alle v 6= 0. Sei wieder v1 , . . . , vn eine Basis von V . Dann sind die Vektoren L(v1 ), . . . , L(vn ) linear unabhängig in W . Denn angenommen, α1 L(v1 ) + . . . + αn L(vn ) = 0. Dann folgt L(α1 v1 + . . . + αn vn ) = 0 und daher v := α1 v1 + . . . + αn vn = 0. Weil v1 , . . . , vn linear unabhängig sind, müssen alle αj = 0 sein. Weil nun die Dimension von W gleich n ist, bilden die Vektoren L(v1 ), . . . , L(vn ) bereits eine Basis von W . Das heisst, jeder Vektor w ∈ W lässt sich auf genau eine Art als Linearkombination der Form w = β1 L(v1 ) + . . . + βn L(vn ) schreiben. Also gibt es auch genau ein v ∈ V mit L(v) = w, nämlich v = β1 v1 + . . . + βn vn . q.e.d. 2.44 Folgerung Sei V ein Vektorraum der Dimension n. Dann liefert, wie schon erwähnt, jede Wahl einer Basis A = (v1 , . . . , vn ) von V eine umkehrbare lineare Abbildung V → Kn , v 7→ Koeff A (v). Das bedeutet insbesondere, jeder endlichdimensionale Vektorraum über K ist zu einem der Räume Kn (n ∈ N0 ) isomorph. Die durch Multiplikation mit einer (m×n)-Matrix A definierte lineare Abbildung LA : Rn → Rm ist genau dann umkehrbar, wenn m = n und der Rang von A gleich n ist. Ist dies der Fall, wird die Umkehrung der Abbildung LA durch die Multiplikation mit der Inversen A−1 beschrieben. Zum Abschluss dieses Kapitels sei noch beschrieben, wie sich die Matrix eines Endomorphismus bei einem Basiswechsel ändert. 2.45 Satz Sei L: V → V eine lineare Abbildung eines Vektorraums V der Dimension n in sich. Seien weiter A, B = (w1 , . . . , wn ) Basen von V und A :=A MA (L) bzw. B :=B MB (L) die zugehörigen Matrizen. Dann gilt: B = T −1 AT , wobei T =A MB (id). . Dabei steht id für die identische Abbildung id: V → V , v 7→ v, und die Transformationsmatrix T beschreibt den Basiswechsel von B nach A. Ist speziell V = Kn 60 Kapitel 2. Vektorräume und A die kanonische Basis, so erhält man T , indem man die Elemente von B als Spalten zu einer Matrix zusammenfügt. Beweis. Sei A = (v1 , . . . , vn ) und B = (w1 , . . . , wn ). Nach Definition gilt für die Matrix T =A MB (id) für alle v ∈ V : T · Koeff B (v) = Koeff A (v) . Durch Multiplikation mit T können wir also die B-Koordinaten in die A-Koordinaten umrechnen. Man spricht deshalb auch von der “Transformationsmatrix” T . In der j-ten Spalte von T stehen jeweils die Koeffizienten von wj bezüglich der Basis A. Für T −1 gilt umgekehrt Koeff B (v) = T −1 · Koeff A (v) . Diese Matrix beschreibt den Basiswechsel von A nach B, T −1 =B MA (id). Nun setzen wir zusammen: T −1 AT · Koeff B (v) = T −1 A · Koeff A (v) = T −1 · Koeff A (L(v)) = Koeff B (L(v)) . Daraus folgt, wie behauptet: T −1 AT =B MB (L) = B. q.e.d. 2.46 Beispiel 1 −1 Sei V = R , A = (e1 , e2 ), B = , und L die Spiegelung an der 1 1 0 1 1 −1 Winkelhalbierenden. Dann ist A = und T = . Wegen T −1 = 1 0 1 1 1 1 1 , erhalten wir: 2 −1 1 1 1 0 1 −1 0 1 1 1 −1 . = · · B = T AT = 0 −1 1 1 1 0 2 −1 1 2