Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten 9.5 Basis und Dimension Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 293 / 669 Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten 9.5 Basis und Dimension Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 294 / 669 Vektorräume Definition und Geometrie von Vektoren Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 295 / 669 Vektorräume Definition und Geometrie von Vektoren K -Vektorräume Definition 4.1.1 (K -Vektorraum) Es sei (K , +, ·) ein Körper. Ein K -Vektorraum ist eine Menge V zusammen mit Abbildungen + : V ×V → V · : K ×V → V ~ ) 7→ ~v + w ~ (~v , w (s, ~v ) 7→ s · ~v (Addition) (skalare Mult.) für die die folgenden Regeln gelten: Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 296 / 669 Vektorräume Definition und Geometrie von Vektoren K -Vektorräume (Forts.) Definition 4.1.1 (K -Vektorraum) (i) (V , +) ist kommutative Gruppe; das neutrale Element der Addition ist der Nullvektor ~0. Das inverse Element zu ~v wird mit −~v bezeichnet. (ii) 1 · ~v = ~v für alle ~v ∈ V . (Dabei bezeichnet 1 das Einselement des Körpers K .) (iii) (s · s 0 ) · ~v = s · (s 0 · ~v ) für alle s, s 0 ∈ K , ~v ∈ V . (iv) (s + s 0 ) · ~v = (s · ~v ) + (s 0 · ~v ) für alle s, s 0 ∈ K , ~v ∈ V . ~ ) = (s · ~v ) + (s · w ~ ) für alle s ∈ K , ~v , w ~ ∈ V. (v) s · (~v + w Die Elemente von V heißen Vektoren. Achtung: Die Symbole “+” und “·” werden üblicherweise sowohl für Addition und Multiplikation im Körper K als auch für Addition und Skalarmultiplikation für den Vektorraum V verwendet ! Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 297 / 669 Vektorräume Definition und Geometrie von Vektoren Vektorräume und Module Bemerkung: Ist (K , +, ·) kein Körper, sondern nur ein Ring mit Eins, so spricht man statt von einem K -Vektorraum von einem K -Modul. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 298 / 669 Vektorräume Definition und Geometrie von Vektoren Vektorräume – Beispiel K n Eines der wichtigsten Beispiele ist der Vektorraum K n der n-dimensionalen Spaltenvektoren x1 x2 ~x = . .. xn mit x1 , . . . , xn ∈ K . Addition und Skalarmultiplikation werden hier wie folgt definiert: x1 y1 x1 + y1 x1 s · x1 x2 y2 x2 + y2 x2 s · x2 s ·. = . .. + .. = .. , . . . .. .. xn Prof. Dr. Bernhard Steffen yn xn + yn Mathematik für Informatiker 1 - 2012 xn s · xn 299 / 669 Vektorräume Definition und Geometrie von Vektoren Vektorräume – Beispiel K n Beweis: z.z.: K n ist ein Vektorraum Wiederholung Definition K -Vektorraum Sei (K , +, ·) ein Körper. Ein K Vektorraum ist eine Menge V zusammen mit Abbildungen ~ ∈ V soll gelten: Für s, s 0 ∈ K , ~ v, w (i) (V , +) ist eine kommutative Gruppe. (ii) 1 · ~ v =~ v +:V ×V →V ~ ) 7→ ~ ~ (~ v, w v +w (iii) (s · s 0 ) · ~ v = s · (s 0 · ~ v) ·:K ×V →V (s, ~ v ) 7→ s · ~ v (iv) (s + s 0 ) · ~ v = (s · ~ v ) + (s 0 · ~ v) ~ ) = (s · ~ ~) (v) s · (~ v +w v ) + (s · w z.z.: (K n , +) ist eine kommutative Gruppe: ~x + ~y = ~y + ~x x1 −x1 ~x = ... ⇒ −~x = ... xn −xn (~x + ~y ) + ~z = ~x + (~y + ~z ) ~0 = 0 . . . 0 t Sei ~x ∈ K n . x1 1 · x1 1 - 2012 x1 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 300 / 669 Vektorräume Definition und Geometrie von Vektoren Vektorräume – Beispiele Ebene, Raum Für K = R und n = 2 kann man sich den Vektorraum R2 als Ebene mit üblicher Vektoraddition und skalarer Multiplikation vorstellen. Entsprechend kann man sich den Vektorraum R3 als “normalen” dreidimensionalen Raum vorstellen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 301 / 669 Vektorräume Definition und Geometrie von Vektoren Vektorräume – Beispiele Ebene, Raum (Forts.) ~x + ~y x2 +y2 ~y y2 3 ~ 2x x2 ~x y1 x1 x1 +y1 Figure : Addition und Streckung von Vektoren in der Ebene. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 302 / 669 Vektorräume Definition und Geometrie von Vektoren Vektorräume – Beispiel Matrizen Seien m, n ∈N. Ein Schema der Form a11 a12 · · · a21 a22 · · · A= .. . an1 an2 · · · a1m a2m anm mit aij ∈ K heißt Matrix, genauer n×m-Matrix über K . n ist dabei die Anzahl der Zeilen und m die Anzahl der Spalten. Die Menge aller n × m-Matrizen über K wird mit K n×m bezeichnet. Eine n×1-Matrix ist nichts anderes als ein n-dimensionaler Spaltenvektor. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 303 / 669 Vektorräume Definition und Geometrie von Vektoren Vektorräume – Beispiel Matrizen (Forts.) Seien A, B ∈ K n×m n×m-Matrizen, A = (aij ), B = (bij ). Wir definieren eine Verknüpfung (Addition) “+” auf K n×m wie folgt: A + B := (aij + bij ), d.h. Matrixelemente auf derselben Position werden addiert. Weiterhin definieren wir die skalare Multiplikation “·” wie folgt: Für s ∈ K und A = (aij ) ∈ K n×m sei s · A := (s · aij ), d.h. alle Matrixelemente werden mit dem Skalar s multipliziert. Die Menge K n×m der n × m Matrizen über K ist mit der Matrixaddition und der Skalarmultiplikation ein K -Vektorraum. ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 304 / 669 Vektorräume Definition und Geometrie von Vektoren Vektorräume – Beispiel Funktionenraum Es sei M eine beliebige Menge und K ein beliebiger Körper. Dann wird die Menge K M der Abbildungen von M nach K mit der folgenden Addition und Skalarmultiplikation zu einem Vektorraum: Für f , g ∈ K M und s ∈ K definieren wir (f + g )(x) := f (x) + g (x) (s · f )(x) := s · f (x) für alle x ∈ M, für alle x ∈ M. Der Nullvektor dieses Vektorraums ist die Nullabbildung, d.h. x 7→ 0 für alle x ∈ M. Das Inverse zu f ist die Abbildung −f mit −f (x) := −(f (x)). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 ♣ 305 / 669 Vektorräume Definition und Geometrie von Vektoren Rechnen mit Vektoren Lemma 4.1.2 (Rechenregeln in Vektorräumen) Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt: (i) 0 · ~v = ~0 für alle ~v ∈ V . (ii) s · ~0 = ~0 für alle s ∈ K . (iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0). (iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 306 / 669 Vektorräume Definition und Geometrie von Vektoren Rechnen mit Vektoren Lemma 4.1.2 (Rechenregeln in Vektorräumen) Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt: (i) 0 · ~v = ~0 für alle ~v ∈ V . (ii) s · ~0 = ~0 für alle s ∈ K . (iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0). (iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V . Beweis: (i) Sei ~v ∈ V 0 · ~v = (0 + 0) · ~v = 0 · ~v + 0 · ~v ⇒ 0 · ~v = ~0 Prof. Dr. Bernhard Steffen | − 0 · ~v Mathematik für Informatiker 1 - 2012 307 / 669 Vektorräume Definition und Geometrie von Vektoren Rechnen mit Vektoren Lemma 4.1.2 (Rechenregeln in Vektorräumen) Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt: (i) 0 · ~v = ~0 für alle ~v ∈ V . (ii) s · ~0 = ~0 für alle s ∈ K . (iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0). (iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V . Beweis: (ii) Sei s ∈ K . s · ~0 = s · (~0 + ~0) = s · ~0 + s · ~0 | − s · ~0 ⇒ s · ~0 = ~0 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 308 / 669 Vektorräume Definition und Geometrie von Vektoren Rechnen mit Vektoren Lemma 4.1.2 (Rechenregeln in Vektorräumen) Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt: (i) 0 · ~v = ~0 für alle ~v ∈ V . (ii) s · ~0 = ~0 für alle s ∈ K . (iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0). (iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V . Beweis: (iii) Seien s ∈ K und ~v ∈ V . ”‘⇒”’ Sei s · ~v = ~0. z.z.: s = 0 oder ~v = ~0 s=0X s 6= 0 ⇒ ∃s −1 ∈ K : ~0 = s · ~v | · s −1 ⇔ ~0 = s −1 · (s · ~v ) = (s −1 · s) · ~v = 1 · ~v = ~v . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 309 / 669 Vektorräume Definition und Geometrie von Vektoren Rechnen mit Vektoren Lemma 4.1.2 (Rechenregeln in Vektorräumen) Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt: (i) 0 · ~v = ~0 für alle ~v ∈ V . (ii) s · ~0 = ~0 für alle s ∈ K . (iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0). (iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V . Beweis: (iii) Seien s ∈ K und ~v ∈ V . ”’⇐”’ Klar wegen (i) und (ii). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 310 / 669 Vektorräume Definition und Geometrie von Vektoren Rechnen mit Vektoren Lemma 4.1.2 (Rechenregeln in Vektorräumen) Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Dann gilt: (i) 0 · ~v = ~0 für alle ~v ∈ V . (ii) s · ~0 = ~0 für alle s ∈ K . (iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0). (iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K , ~v ∈ V . Beweis: (iv) Seien s ∈ K , ~v ∈ V . z.z.: (−s) · ~v ist das (additive) Inverse zu s · ~v in K . (−s) · ~v + s · ~v = (−s + s) · ~v = 0 · ~v = ~0 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 311 / 669 Vektorräume Definition und Geometrie von Vektoren Multiplizieren von Matrizen Definition 4.1.3 (Matrixmultiplikation) Es seien l, m, n ∈ N und A = (aik ) ∈ K n×m , B = (bkj ) ∈ K m×l . Dann ist das Produkt A · B ∈ K n×l wie folgt definiert: (A · B)ij := ai1 · b1j + ai2 · b2j + · · · + ain · bnj = m X aik · bkj k=1 Es muss also gelten Spaltenzahl der linken Matrix = Zeilenzahl der rechten Matrix. Wenn l = m = n ist, dann lassen sich je zwei Matrizen derselben Art (also aus K n×n ) miteinander multiplizieren. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 312 / 669 Vektorräume Definition und Geometrie von Vektoren Matrizenring Satz 4.1.4 (Ring der n × n Matrizen) Die Menge K n×n der n × n Matrizen über einem Körper K bilden zusammen mit der oben definierten Addition und Multiplikation einen nicht-kommutativen Ring mit Einselement 1 0 ··· 0 0 1 · · · 0 En = . .. . 0 0 ··· Prof. Dr. Bernhard Steffen 1 Mathematik für Informatiker 1 - 2012 313 / 669 Vektorräume Definition und Geometrie von Vektoren Matrizenring Satz 4.1.4 (Ring der n × n Matrizen) Die Menge K n×n der n × n Matrizen über einem Körper K bilden zusammen mit der oben definierten Addition und Multiplikation einen nicht-kommutativen Ring mit Einselement E n . Beweis: (K n×n , +) ist eine kommutative Gruppe die Eigenschaften der Addition von dem Körper K übertragen sich auf die Addition von Matrizen das neutrale Element ist die Nullmatrix Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 314 / 669 Vektorräume Definition und Geometrie von Vektoren Matrizenring Satz 4.1.4 (Ring der n × n Matrizen) Die Menge K n×n der n × n Matrizen über einem Körper K bilden zusammen mit der oben definierten Addition und Multiplikation einen nicht-kommutativen Ring mit Einselement E n . Beweis: (K n×n , +) ist eine kommutative Gruppe Die Matrixmultiplikation ist assoziativ. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 315 / 669 Vektorräume Definition und Geometrie von Vektoren Matrizenring Die Matrixmultiplikation ist assoziativ: Sei A = (aij ), B = (bij ), C = (cij ) ∈ K n×n . ((A · B) · C )ij = = = n X (A · B)ik · ckj n X n X ( ail · blk ) · ckj k=1 k=1 l=1 n X n X n X n X ail · blk · ckj = k=1 l=1 n X ail · blk · ckj l=1 k=1 n X ail · ( blk · ckj )=(A · (B · C ))ij l=1 |k=1 {z (B·C )lj Prof. Dr. Bernhard Steffen = } Mathematik für Informatiker 1 - 2012 316 / 669 Vektorräume Definition und Geometrie von Vektoren Matrizenring Satz 4.1.4 (Ring der n × n Matrizen) Die Menge K n×n der n × n Matrizen über einem Körper K bilden zusammen mit der oben definierten Addition und Multiplikation einen nicht-kommutativen Ring mit Einselement E n . Beweis: (K n×n , +) ist eine kommutative Gruppe Die Matrixmultiplikation ist assoziativ. Die Matrixmultiplikation ist nicht kommutativ. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 317 / 669 Vektorräume Definition und Geometrie von Vektoren Matrizenring Die Matrixmultiplikation ist nicht kommutativ. Gegenbeispiel: 2 3 1 2 2·1+3·3 = 4 1 3 4 4·1+1·3 11 16 = 7 12 1 2 2 3 1·2+2·4 = 3·2+4·4 3 4 4 1 10 5 = 22 13 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 2·2+3·4 4·2+1·4 1·3+2·1 3·3+4·1 318 / 669 Vektorräume Definition und Geometrie von Vektoren Matrizenring Satz 4.1.4 (Ring der n × n Matrizen) Die Menge K n×n der n × n Matrizen über einem Körper K bilden zusammen mit der oben definierten Addition und Multiplikation einen nicht-kommutativen Ring mit Einselement E n . Beweis: (K n×n , +) ist eine kommutative Gruppe Die Matrixmultiplikation ist assoziativ. Die Matrixmultiplikation ist nicht kommutativ E n ist das neutrale Element bzgl. der Matrixmultiplikation Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 319 / 669 Vektorräume Definition und Geometrie von Vektoren Matrizenring E n ist das neutrale Element bzgl. der Matrixmultiplikation Sei A = (aij ) ∈ K n×n . n X A · E = (aik )(ekj ) = ( aik ekj ) n k=1 = (aij ejj ) = (aij ). Ebenso zeigt man, dass E n · A = (eik )(akj ) = (aij ) ist. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 320 / 669 Vektorräume Definition und Geometrie von Vektoren Matrizenring Satz 4.1.4 (Ring der n × n Matrizen) Die Menge K n×n der n × n Matrizen über einem Körper K bilden zusammen mit der oben definierten Addition und Multiplikation einen nicht-kommutativen Ring mit Einselement E n . Beweis: (K n×n , +) ist eine kommutative Gruppe Die Matrixmultiplikation ist assoziativ. Die Matrixmultiplikation ist nicht kommutativ E n ist das neutrale Element bzgl. der Matrixmultiplikation Matrizen sind im Allgemeinen nicht invertierbar (bezgl. der Matrixmultiplikation). Invertierbare Matrizen in K n×n heißen auch regulär. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 321 / 669 Vektorräume Definition und Geometrie von Vektoren Transponierte Matrizen Manchmal benötigt man Matrizen in einer “umgedrehten” Form, d.h. mit vertauschten Zeilen und Spalten: a11 a21 · · · an1 a11 a12 · · · a1m a21 a22 · · · a2m Transponierung t a12 a22 · · · an2 −→ A = A= .. .. . . a1m a2m · · · anm an1 an2 · · · anm At heißt transponierte Matrix von A. Ist A ∈ K n×m , so ist At ∈ K m×n . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 322 / 669 Vektorräume Definition und Geometrie von Vektoren Skalarprodukt (Spalten)Vektoren aus K n sind n × 1-Matrizen: K n ≡ K n×1 . Kann man Vektoren miteinander multiplizieren? Im Prinzip ja, wenn man einen von ihnen transponiert. x1 y1 x2 y2 ~x = . , ~y = . . .. .. Sei xn yn Dann ist ~x • ~y := ~x t · ~y = x1 y1 + . . . + xn yn ∈ K das Skalarprodukt auf K n . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 323 / 669 Vektorräume Definition und Geometrie von Vektoren Skalarprodukt – Beispiele Beispiele: Betrachte die Vektoren 2 1 u~ = , ~v = , 0 1 2 ~x = , 2 0 ~y = . 2 Es ist u~ ~x u~ ~v Prof. Dr. Bernhard Steffen • • • • ~v ~y ~y ~x = = = = 2 4 0 4 Mathematik für Informatiker 1 - 2012 324 / 669 Vektorräume Definition und Geometrie von Vektoren Geometrie von Vektoren im Rn Definition 4.1.5 (Länge von Vektoren) v1 v2 Die Länge eines Vektors ~v = . ∈ Rn ist definiert als .. vn | ~v |= q v12 + v22 + . . . + vn2 . Es ist also | ~v |= Prof. Dr. Bernhard Steffen √ ~v • ~v . Mathematik für Informatiker 1 - 2012 325 / 669 Vektorräume Definition und Geometrie von Vektoren Geometrie von Vektoren (Forts.) Seien ~x , ~y ∈ Rn , sei ∠(~x , ~y ) der Winkel zwischen diesen Vektoren. Man kann zeigen: Cosinus und Skalarprodukt ~x • ~y =| ~x || ~y | cos ∠(~x , ~y ). 1 | ~a || ~b | Θ cos Θ 1 | ~a || ~b | cos Θ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 326 / 669 Vektorräume Definition und Geometrie von Vektoren Skalarprodukt, Cosinus und Ähnlichkeiten Folgendes Lemma lässt sich leicht beweisen: Lemma 4.1.6 Seien ~x , ~y ∈ Rn Vektoren. Stehen ~x , ~y aufeinander senkrecht, so gilt ~x • ~y = 0. ~x • ~y cos ∠(~x , ~y ) = . | ~x || ~y | Wegen der Beziehung zum Cosinus wird das Skalarprodukt in Anwendungen (z.B. Information Retrieval, Suchmaschinen) oft als Ähnlichkeitsmaß verwendet. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 327 / 669 Vektorräume Definition und Geometrie von Vektoren Cosinus und Ähnlichkeit – Beispiel Betrachte die Vektoren 2 u~ = , 0 Es ist | u~ |= 2, | ~v |= √ 1 ~v = , 1 2 ~x = , 2 0 ~y = . 2 √ 2, | ~x |= 2 2, | ~y |= 2. √1 2 √1 2 u~ • ~v = 2 cos∠(~ u , ~v ) = ~x • ~y = 4 cos∠(~x , ~y ) = u~ • ~y = 0 ~v • ~x = 4 cos∠(~ u , ~y ) = 0 cos∠(~v , ~x ) = 1 orthogonal vollkommen ähnlich! ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 328 / 669 Vektorräume Teilräume Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten 9.5 Basis und Dimension Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 329 / 669 Vektorräume Teilräume Kapitel 9 Vektorräume 9.2 Teilräume Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 330 / 669 Vektorräume Teilräume Untervektorräume Definition 4.2.1 (Teilräume, Untervektorräume) Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Sei U ⊆ V eine Teilmenge von V . U heißt Teilraum oder Untervektorraum von V , wenn es die folgenden Bedingungen erfüllt: (i) U 6= ∅, ~ ∈ U =⇒ (~v + w ~ ) ∈ U, (ii) ~v , w (iii) s ∈ K , ~v ∈ U =⇒ (s · ~v ) ∈ U. Satz 4.2.2 Ein Teilraum U eines K -Vektorraumes (V , +, ·) zusammen mit der Einschränkung der Addition +|U×U und Skalarmultiplikation ·|K ×U auf U ist selbst wieder ein K -Vektorraum. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 331 / 669 Vektorräume Teilräume Untervektorräume Definition 4.2.1 (Teilräume, Untervektorräume) Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Sei U ⊆ V , U heißt Teilraum von V , wenn gilt: (i) U 6= ∅, ~ ∈ U ⇒ (~ ~ ) ∈ U, (ii) ~ v, w v +w (iii) s ∈ K , ~ v ∈ U ⇒ (s · ~ v ) ∈ U. Beweis: Sei U Teilraum eines K -Vektorraumes (V , +, ·). z.z.: (U, +|U×U , ·|K ×U ) ist ein K -Vektorraum Wohldefiniertheit: +|U×U : U × U → U ~ ) 7→ ~v + w ~ (~v , w ·|K ×U : K × U → U (s, ~v ) 7→ s · ~v Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 X(ii) X(iii) 332 / 669 Vektorräume Teilräume Untervektorräume Definition 4.2.1 (Teilräume, Untervektorräume) Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Sei U ⊆ V , U heißt Teilraum von V , wenn gilt: (i) U 6= ∅, ~ ∈ U ⇒ (~ ~ ) ∈ U, (ii) ~ v, w v +w (iii) s ∈ K , ~ v ∈ U ⇒ (s · ~ v ) ∈ U. Beweis: Sei U Teilraum eines K -Vektorraumes (V , +, ·). z.z.: (U, +|U×U , ·|K ×U ) ist ein K -Vektorraum Wohldefiniertheit (U, +) ist eine kommutative Gruppe Kommutativität überträgt sich aus V Assoziativität überträgt sich aus V neutrales Element: U 6= ∅ ⇒ ∃~v ∈ U ⇒ 0 · ~v ∈ U Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 333 / 669 Vektorräume Teilräume Untervektorräume Definition 4.2.1 (Teilräume, Untervektorräume) Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Sei U ⊆ V , U heißt Teilraum von V , wenn gilt: (i) U 6= ∅, ~ ∈ U ⇒ (~ ~ ) ∈ U, (ii) ~ v, w v +w (iii) s ∈ K , ~ v ∈ U ⇒ (s · ~ v ) ∈ U. Beweis: Sei U Teilraum eines K -Vektorraumes (V , +, ·). z.z.: (U, +|U×U , ·|K ×U ) ist ein K -Vektorraum Wohldefiniertheit (U, +) ist eine kommutative Gruppe Kommutativität überträgt sich aus V Assoziativität überträgt sich aus V neutrales Element ~0 ∈ U inverse Elemente : Sei ~v ∈ U. Dann gilt: −~v = −(1 · ~v ) = (−1) · ~v ∈ U Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 334 / 669 Vektorräume Teilräume Untervektorräume Definition 4.2.1 (Teilräume, Untervektorräume) Es sei (K , +, ·) ein Körper und (V , +, ·) ein K -Vektorraum. Sei U ⊆ V , U heißt Teilraum von V , wenn gilt: (i) U 6= ∅, ~ ∈ U ⇒ (~ ~ ) ∈ U, (ii) ~ v, w v +w (iii) s ∈ K , ~ v ∈ U ⇒ (s · ~ v ) ∈ U. Beweis: Sei U Teilraum eines K -Vektorraumes (V , +, ·). z.z.: (U, +|U×U , ·|K ×U ) ist ein K -Vektorraum Wohldefiniertheit (U, +) ist eine kommutative Gruppe 1 · ~v = ~v (s · s 0) ∀~v ∈ V überträgt sich aus V · ~v = s · (s 0 · ~v ) ∀s, s 0 ∈ K , ~v ∈ V überträgt sich aus V (s + s 0 ) · ~v = (s · ~v ) + (s 0 · ~v ) ∀s, s 0 ∈ K , ~v ∈ V überträgt sich aus V ~ ) = (s · ~v ) + (s · w ~ ) ∀s ∈ K , ~v , w ~ ∈ V überträgt sich aus V s · (~v + w Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 335 / 669 Vektorräume Teilräume Charakterisierung von Teilräumen Korollar 4.2.3 (Teilräume und Nullvektor) Zu jedem Teilraum gehört der Nullvektor ~0. Beweis: Sei U ein Teilraum. ⇒ U 6= ∅ ⇒ ∃~v ∈ U ⇒ 0 · ~v = ~0 ∈ U Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 336 / 669 Vektorräume Teilräume Charakterisierung von Teilräumen Lemma 4.2.4 (Charakterisierung von Teilräumen) Es sei (V , +, ·) ein K -Vektorraum. Eine nichtleere Teilmenge U ⊆ V ist genau dann ein Teilraum von V , wenn die folgende Bedingung erfüllt ist: ~ ∈ U ⇒ ((s · ~v ) + w ~ ) ∈ U. s ∈ K , ~v , w Beweis: Seien (V , +, ·) ein K -Vektorraum, U ∈ V und U ⊆ ∅. ~ ∈ U. ”‘⇒”’ Sei U ein Teilraum, s ∈ K und ~v , w ⇒ ((s · ~v ) +~ w) ∈ U | {z } ∈U Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 337 / 669 Vektorräume Teilräume Charakterisierung von Teilräumen Lemma 4.2.4 (Charakterisierung von Teilräumen) Es sei (V , +, ·) ein K -Vektorraum. Eine nichtleere Teilmenge U ⊆ V ist genau dann ein Teilraum von V , wenn die folgende Bedingung erfüllt ist: ~ ∈ U ⇒ ((s · ~v ) + w ~ ) ∈ U. s ∈ K , ~v , w Beweis: Seien (V , +, ·) ein K -Vektorraum, U ⊆ V und U = 6 ∅. ~ ) ∈ U ∀s ∈ K , ~v , w ~ ∈ U. ”‘⇐”’ Sei U ∈ V , U 6= ∅ mit ((s · ~v ) + w z.z.: U ist ein Teilraum von V U 6= ∅ X ~ ∈ U ⇒ (~v + w ~ ) = ((1 · ~v ) + w ~) ∈ U Sei ~v , w Sei s ∈ K , ~v ∈ U ⇒ (s · ~v ) = (s · ~v ) + ~0 ∈ U Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 338 / 669 Vektorräume Teilräume Untervektorräume - Beispiele Geraden/Ebenen Beispiel (Geraden im R2 /R3 ): Jede durch den Ursprung verlaufende Gerade im R2 /R3 ist ein Untervektorraum des (R2 /R3 , +, ·). ♣ Beispiel (Ebenen im R3 ): Alle Ebenen des R3 , die durch den Ursprung verlaufen, sind Untervektorräume des (R3 , +, ·). ♣ Beispiel (Ebene im R3 ): Es sei M ⊆ R3 die Menge M = { (x, y , z) ∈ R3 | z = x + y } M ist ein Untervektorraum des (R3 , +, ·). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 ♣ 339 / 669 Vektorräume Teilräume Untervektorräume - Beispiel Sei A ∈ K n×m eine n × m-Matrix. Sei N(A) ⊆ K m die Menge N(A) = { ~x ∈ K m | A~x = ~0 }. N(A) ist ein Teilvektorraum von (K m , +, ·). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 340 / 669 Vektorräume Teilräume Triviale Untervektorräume Satz 4.2.5 Jeder Vektorraum V enthält auf jeden Fall die trivialen Untervektorräume V (also sich selbst) und den Nullvektorraum {~0}. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 341 / 669 Vektorräume Teilräume Weitere wichtige Teilräume Wir diskutieren als nächstes Teilräume, die aus anderen Teilräumen durch Schnittbildung und Addition entstehen. Lemma 4.2.6 Es sei (V , +, ·) ein K -Vektorraum und U1 , U2 zwei Teilräume von V . Dann sind auch U1 ∩ U2 und U1 + U2 := {~ u1 + u~2 | u~1 ∈ U1 und u~2 ∈ U2 } Teilräume von V . Bemerkung: Ist I eine beliebige Indexmenge T und ist für alle i ∈ I die Menge Ui ein Teilraum von V , so ist auch i∈I Ui ein Teilraum von V . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 342 / 669 Vektorräume Teilräume Weitere wichtige Teilräume Beweis: Seien U1 , U2 Teilräume von V . z.z.: U1 ∩ U2 ist ein Teilraum von V ~0 ∈ U1 ∩ U2 6= ∅ ~ ∈ U1 ∩ U2 . Sei s ∈ K , ~v , w ~ ∈ U1 ∧ ~v , w ~ ∈ U2 ⇒ ~v , w ~ ) ∈ U1 ∧ ((s · ~v ) + w ~ ) ∈ U2 ⇒ ((s · ~v ) + w ~ ) ∈ U1 ∩ U2 ⇒ ((s · ~v ) + w Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 343 / 669 Vektorräume Teilräume Weitere wichtige Teilräume Beweis: Seien U1 , U2 Teilräume von V . z.z.: U1 ∩ U2 ist ein Teilraum von V X z.z.: U1 + U2 ist ein Teilraum von V ~0 = ~0 + ~0 ∈ U1 + U2 6= ∅ ~ ∈ U1 + U2 . Sei s ∈ K , ~v , w ~ =w ~1 + w ~ 2 mit ~v1 , w ~ 1 ∈ U1 , ~v2 , w ~ 2 ∈ U2 ⇒ ~v = ~v1 + ~v2 , w ~ ) = (s · (v~1 + v~2 )) + (w~1 + w~2 ) ⇒ ((s · ~v ) + w = ((s · v~1 ) + (s · v~2 )) + (w~1 + w~2 ) = ((s · v~1 ) + w~1 ) + ((s · v~2 ) + w~2 ) | {z } | {z } ∈U1 ∈U2 ∈ U1 + U2 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 344 / 669 Vektorräume Teilräume Erzeugte Teilräume Es sei V ein K -Vektorraum. Für ~v ∈ V definieren wir h~v i := {s · ~v | s ∈ K }. Dann ist h~v i ein Teilraum von V . Man nennt ihn den von ~v erzeugten Teilraum. 2 2 Beispiel (Geraden im R ): Im R-Vektorraum R kann man sich den von x einem Vektor y 6= ~0 erzeugten Teilraum als die Punkte auf der eindeutigen Geraden durch den Nullpunkt und den Punkt yx vorstellen. ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 345 / 669 Vektorräume Teilräume Erzeugte Teilräume (Forts.) Sind v~1 und v~2 zwei Vektoren in V , so ist (nach Lemma 4.2.6) hv~1 i + hv~2 i = {s1 v~1 + s2 v~2 | s1 , s2 ∈ K } auch ein Teilraum. Solche Teilräume wollen wir uns im Folgenden näher anschauen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 346 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten 9.5 Basis und Dimension Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 347 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Kapitel 9 Vektorräume 9.3 Linearkombinationen und Erzeugendensysteme Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 348 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Erzeugung von Vektorräumen durch Linearkombinationen Eine wichtige Rolle im Zusammenhang mit Vektor- und Teilräumen spielen Linearkombinationen von Vektoren. Das sind neue Vektoren, die durch Skalarmultiplikation und Vektoraddition aus gegebenen Vektoren entstehen. Wir hatten gerade gesehen, dass solche Linearkombinationen bei der Erzeugung von Teilräumen auftreten. Mit Hilfe von Linearkombinationen kann man einen Teilraum also “von innen heraus” erzeugen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 349 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Linearkombinationen und Erzeugnisse Definition 4.3.1 (Linearkombinationen , Erzeugnisse) Es sei (V , +, ·) ein K -Vektorraum mit Vektoren ~v1 , . . . , ~vn ∈ V . Dann heißt der Vektor ~v ∈ V eine Linearkombinationen der Vektoren {~v1 , . . . , ~vn }, wenn es s1 , . . . , sn ∈ K gibt mit ~v = s1 · ~v1 + · · · + sn · ~vn . Ist M ⊆ V eine Teilmenge von V , so definieren wir das Erzeugnis von M als ( n ) X hMi := si · ~vi n ∈ N, si ∈ K und ~vi ∈ M für i = 1, . . . , n , i=1 wobei der leeren Summe der Nullvektor entspricht: X = ~0 ∅ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 350 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Erzeugte Teilräume Lemma 4.3.2 Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V eine beliebige Teilmenge von V . Dann ist das Erzeugnis hMi von M ein Teilraum von V . Beweis: Sei (V , +, ·) ein K -Vektorraum und sei M ⊆ V . P ~0 = 6 ∅. ∅ ∈ hMi ⇒ hMi = ~ ∈ hMi ⇒ ∃~v1 , . . . ~vn , w ~1 . . . w ~ n ∈ M, n, m ∈ N: Seien s ∈ K , ~v , w ~v = s1 · ~v1 + · · · + sn · ~vn , ~ = t1 · w ~ 1 + · · · + tn · w ~ n, w Daraus folgt: ~ = s · (s1 · ~v1 + · · · + sn · ~vn ) + t1 · w ~ 1 + · · · + tn · w ~n s · ~v + w ~ 1 + · · · + tn · w ~n = (s · s1 )~v1 + · · · + (s · sn )~vn + t1 · w ∈< M > Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 351 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Erzeugte Teilräume hMi heißt auch der von M erzeugte Teilraum von V . Die Menge M heißt Erzeugendensystem von hMi. Lemma 4.3.3 hMi ist der kleinste Teilraum (bezüglich Mengeninklusion) von V , der M enthält. Beweis: Sei M ⊆ V , U ein Teilraum von V mit M ⊆ U. z.z.: hMi ⊆ U Sei ~v ∈ hMi ⇒ ~v = s1 · ~v1 + · · · + sn · ~vn für einige ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K ⇒ ~v1 , . . . , ~vn ∈ U, da M ⊆ U ⇒ ~v ∈ U Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 352 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Erzeugte Teilräume hMi heißt auch der von M erzeugte Teilraum von V . Die Menge M heißt Erzeugendensystem von hMi. Lemma 4.3.3 hMi ist der kleinste Teilraum (bezüglich Mengeninklusion) von V , der M enthält. Demnach macht es Sinn, als Erzeugnis der leeren Menge den trivialen Teilraum von V , der nur aus dem Nullvektor besteht, zu definieren, also h∅i := {~0}. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 353 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Endliche Erzeugendensysteme Definition 4.3.4 (Endlich erzeugten (Unter)Vektorraum) Es sei (V , +, ·) ein K -Vektorraum und U ⊆ V ein Untervektorraum. Gibt es eine endliche Menge M ⊆ V , also M = {~v1 , . . . ~vn } mit n ∈ N, so dass U = hMi, so sagen wir, dass U endlich erzeugt ist. Wir schreiben auch hMi = h{~v1 , . . . , ~vn }i = h~v1 , . . . , ~vn i ( n ) X = si · ~vi si ∈ K für i = 1, . . . , n i=1 Die Schreibweise h~v i = {s · ~v | s ∈ K } für ~v ∈ V haben wir schon am Ende des letzten Unterabschnittes verwendet. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 354 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Beispiel – erzeugter Teilraum in R2 Es sei V = R2 und 1 −1 1 M= , , . 1 1 0 Dann ist hMi = R2 , denn ein beliebiger Vektor yx ∈ R2 kann wie folgt als Linearkombination der Elemente von M geschrieben werden: x 1 −1 1 =x· + (y − x) · + (y − x) · . y 1 1 0 n 1o Damit ist 11 , −1 also ein Erzeugendensystem des Vektorraums 1 , 0 R2 und R2 ist folglich endlich erzeugt. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 355 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Beispiel – erzeugter Teilraum in R2 (Forts.) Bereits die Teilmenge R2 , n 1 1 , da ein beliebiger Vektor o 1 0 x y von M ist ein Erzeugendensystem von ∈ R2 geschrieben werden kann als x 1 1 =y· + (x − y ) · y 1 0 ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 356 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Beispiel – K n und Einheitsvektoren Wir betrachten den K -Vektorraum K n . Für i = 1, . . . , n sei e~i der Vektor, dessen i-ter Eintrag 1 ist und alle anderen Einträge 0, d.h. 0 .. . 0 e~i = 1 ← i 0 .. . 0 Prof. Dr. Bernhard Steffen ( 1 (~ ei )j = 0 Mathematik für Informatiker 1 - 2012 falls j = i, sonst. 357 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Beispiel – K n und Einheitsvektoren (Forts.) Der Vektor e~i heißt i-ter Einheitsvektor. Dann ist {~ e1 , . . . , e~n } ein Erzeugendensystem von K n , also K n = h~ e1 , . . . , e~n i, denn x1 .. für alle x1 , . . . , xn ∈ K . . = x1 · e~1 + · · · + xn · e~n xn Folglich ist der Vektorraum K n endlich erzeugt. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 ♣ 358 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Idee der Vektorraumbasis Idee der Basis: Mit Hilfe von Erzeugendensysteme lassen sich (Unter)Vektorräume leicht kompakt repräsentieren, sie enthalten offenbar alle wichtigen Informationen über den Vektorraum. Wie kann man diese Art der Repräsentation von Vektorräumen optimieren? Minimalität: Kein Vektor in dem optimalen Erzeugendensystem ist überflüssig. Unabhängigkeit: Die Vektoren im optimalen Erzeugendensystem sind (irgendwie) unabhängig voneinander. Eindeutigkeit: Jeder Vektor des erzeugten Vektorraumes hat genau eine Darstellung als Linearkombination der Vektoren des Erzeugendensystems. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 359 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Vektorraumbasis Definition 4.3.5 (Basis) Es sei (V , +, ·) ein K -Vektorraum. Eine Teilmenge M ⊆ V heißt Basis von V , wenn sich jedes ~v ∈ V eindeutig als Linearkombination von paarweise verschiedenen Vektoren aus M schreiben lässt. Außerdem definieren wir, dass die leere Menge ∅ eine Basis des trivialen K -Vektorraums {~0} ist. Insbesondere ist jede Basis von V auch ein Erzeugendensystem von V . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 360 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Endliche Basen Zunächst einmal charakterisieren wir endliche Basen, die für viele Beispiele und Anwendungen wichtig sind: Satz 4.3.6 Es sei (V , +, ·) ein K -Vektorraum. Die endliche Teilmenge {~v1 , . . . , ~vn } ⊆ V ist Basis von V genau dann, wenn ~v1 , . . . , ~vn paarweise verschieden sind und es zu jedem u~ ∈ V genau ein n-Tupel (x1 , . . . , xn ) ∈ K n gibt mit u~ = x1 · ~v1 + · + xn · ~vn Beispiel (Einheitsvektoren im K n ): Die Menge der Einheitsvektoren {~ e1 , . . . , e~n } ist eine Basis des K -Vektorraums K n . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 ♣ 361 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Endliche Basen Definition 4.3.5 (Basis) Sei (V , +, ·) ein K -Vektorraum. M ⊆ V heißt Basis von V :⇔ jedes ~ v ∈ V sich eindeutig als Linearkombination von paarw. verschiedenen Vektoren aus M schreiben lässt. Beweis: Sei (V , +, ·) ein K -Vektorraum. z.z.: {~v1 , . . . , ~vn } ⊆ V ist Basis von V ⇔ (i) ~v1 , . . . , ~vn sind paarweise verschieden (ii) zu jedem u~ ∈ V existiert genau ein (x1 , . . . , xn ) ∈ K n mit u~ = x1 · ~v1 + · + xn · ~vn ”‘⇒”’ Sei {~v1 , . . . , ~vn } eine Basis von V. (i) Ann.: ~vi = ~vj , für 1 ≤ i 6= j ≤ n ⇒ ~vi = 1 · ~vi = 1 · ~vj (ii) Sei u~ ∈ V . ⇒ u~ lässt sich eindeutig als Linearkombination von {~v1 , . . . , ~vn } schreiben X Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 362 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Endliche Basen Definition 4.3.5 (Basis) Sei (V , +, ·) ein K -Vektorraum. M ⊆ V heißt Basis von V :⇔ jedes ~ v ∈ V sich eindeutig als Linearkombination von paarw. verschiedenen Vektoren aus M schreiben lässt. Beweis: Sei (V , +, ·) ein K -Vektorraum. z.z.: {~v1 , . . . , ~vn } ⊆ V ist Basis von V ⇔ (i) ~v1 , . . . , ~vn sind paarweise verschieden (ii) zu jedem u~ ∈ V existiert genau ein (x1 , . . . , xn ) ∈ K n mit u~ = x1 · ~v1 + · + xn · ~vn ”‘⇐”’ Folgt aus der Definition. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 363 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Vektorraumbasis – Beispiele Negatives Beispiel 1: Wie wir weitern oben beobachtet haben, gilt D 1E −1 1o 1 −1 1 2 = R . Die Menge 1 , 1 , 0 ist jedoch keine Basis 1 , 1 , 0 von R2 , denn −1 1 −1 1 = 0· + 1· + 0· 1 1 1 0 und andererseits 1 −1 1 −1 = 1· + 0· − 2· 1 1 1 0 ♣ Negatives Beispiel 2: Der Nullvektor ~0 kann nie Element einer Basis sein, denn 0 · ~0 = 1 · ~0 = ~0 , so dass also die Koeffizienten der Darstellung nicht eindeutig sind. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 ♣ 364 / 669 Vektorräume Linearkombinationen und Erzeugendensysteme Vektorraumbasis – Beispiele Beispiel: Die Menge n 1 1 , o 1 0 ist Basis von R2 , denn für x y ∈ R2 gilt x 1 1 = y· + (x − y ) · . y 1 0 Gilt auch x 1 1 = a· + b· y 1 0 für a, b ∈ R, so muss x = a + b und y = a gelten. Daraus folgt aber a = y und b = x − y , so dass die Koeffizienten also eindeutig sind. ♣ Beispiel (Rn ): Der R-Vektorraum R2 hat unendlich viele Basen: Zum Beispiel ist die Menge {~ e1 , c · e~2 } für alle c ∈ R\{0} eine Basis von R2 . ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 365 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten 9.5 Basis und Dimension Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 366 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Kapitel 9 Vektorräume 9.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 367 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Lineare Unabhängigkeit Bei der Idee eines optimalen Erzeugendensystems (also einer Basis) sollte auch die Idee der Unabhängigkeit umgesetzt werden. Das wollen wir nun konkretisieren. Definition 4.4.1 (Lineare Unabhängigkeit) Es sei (V , +, ·) ein K -Vektorraum. Eine Teilmenge M⊆ D E V heißt linear unabhängig, wenn für jedes ~v ∈ M ~ gilt, dass M \ {v } 6= hMi. Die Teilmenge M heißt linear abhängig, wenn M nicht linear unabhängig ist, das heißt M ist linear abhängig Prof. Dr. Bernhard Steffen ⇐⇒ ∃~v ∈ M : hM \ {~v }i = hMi. Mathematik für Informatiker 1 - 2012 368 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Lineare Unabhängigkeit – Beispiele Beispiel: Die leere Menge ∅ ist linear unabhängig. ♣ Beispiel: Ist ~0 ∈ M, so ist M linear abhängig, da hM \ {~0}i = hMi. ♣ n o 1 Beispiel: Die Menge 11 , −1 ist linear abhängig, weil hMi = R2 1 , 0 D n oE aber auch schon M \ −1 = R2 . ♣ 1 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 369 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein einfaches Lemma Lemma 4.4.2 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig. (ii) Es gibt ein ~v ∈ M mit ~v ∈ hM \ {~v }i. Das Lemma sagt also aus, dass es in einer linear abhängigen Teilmenge M ein Element gibt, das als Linearkombination der anderen Elemente aus M geschrieben werden kann. In einer linear abhängigen Menge gibt es also “überflüssige” Elemente. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 370 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein einfaches Lemma Lemma 4.4.2 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig. (ii) Es gibt ein ~v ∈ M mit ~v ∈ hM \ {~v }i. Beweis: (i) ⇒ (ii) Sei M ⊆ V eine linear abhängige Teilmenge von V . ⇒ ∃~v ∈ M mit hM \ {~v }i = hMi ⇒ ~v ∈ M ⊆ hMi = hM \ {~v }i. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 371 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein einfaches Lemma Lemma 4.4.3 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig. (ii) Es gibt ein ~v ∈ M mit ~v ∈ hM \ {~v }i. Beweis: (ii) ⇒ (i) Sei ~v ∈ M mit ~v ∈ hM \ {~v }i. Dann ist ~v = n X si · ~vi für si ∈ K , ~vi ∈ M \ {~v } i=1 z.z.: hM \ {~v }i = hMi Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 372 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein einfaches Lemma Beweis: (ii) ⇒ (i) Sei ~ v ∈ M mit ~ v ∈ hM \ {~ v }i. Dann ist ~ v= n X si · ~ vi für si ∈ K , ~ vi ∈ M \ {~ v} i=1 z.z.: hM \ {~ v }i = hMi ”‘⊆”’ M \ {~v } ⊆ M ⇒ hM \ {~v }i ⊆ hMi Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 373 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein einfaches Lemma Beweis: (ii) ⇒ (i) Sei ~ v ∈ M mit ~ v ∈ hM \ {~ v }i. Dann ist ~ v= n X si · ~ vi für si ∈ K , ~ vi ∈ M \ {~ v} i=1 z.z.: hM \ {~ v }i = hMi ~ ∈ hMi. z.z.: w ~ ∈ hM \ {~v }i ”‘⊇”’ Sei w ~ = w m X ~j tj · w ~j ∈ M für tj ∈ K , w j=1 ~ j ∀1 ≤ j ≤ m ⇒ w ~ ∈ hM \ {~v }i 1. Fall: ~v 6= w Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 374 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein einfaches Lemma Beweis: (ii) ⇒ (i) Sei ~ v ∈ M mit ~ v ∈ hM \ {~ v }i. Dann ist ~ v= n X si · ~ vi für si ∈ K , ~ vi ∈ M \ {~ v} i=1 z.z.: hM \ {~ v }i = hMi ~ ∈ hMi. z.z.: w ~ ∈ hM \ {~v }i ”‘⊇”’ Sei w ~ = w m X ~ j für tj ∈ K , w ~j ∈ M tj · w j=1 ~ j für ein j, o.B.d.A. ~v = w ~ 1 . Dann gilt: 2. Fall: ~v = w ~ = t1 · ~v + w m X n m X X ~j ~ j = t1 ( si · ~vi ) + tj · w tj · w i=1 j=2 = n X i=1 Prof. Dr. Bernhard Steffen (t1 · si ) · ~vi + m X j=2 ~ j ∈ hM \ {~v }i tj · w j=2 Mathematik für Informatiker 1 - 2012 375 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Lineare Abhängigkeit – Beispiel Es sei V = R3 und 1 0 0 1 1 , 0 , 1 , 0 . M := 0 0 0 1 Dann ist M linear abhängig, da * + 1 0 0 1 1 ∈ 0 , 1 , 0 . 0 0 0 1 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 376 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Lineare Abhängigkeit – Beispiel (Forts.) Es gilt auch * + 1 1 0 0 0 ∈ 1 , 1 , 0 0 0 0 1 und * + 0 1 1 0 1 ∈ 1 , 0 , 0 . 0 0 0 1 Man beachte jedoch, dass * + 0 1 1 0 0 ∈ 1 , 0 , 1 . / 1 0 0 0 ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 377 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Folgerung Lineare Abhängigkeit Welche Folgerung können wir aus dem letzten Beispiel ziehen? Bemerkung: Bei einer linear abhängigen Menge M muss nicht jedes Element ~v ∈ M in dem von den übrigen erzeugten Teilraum liegen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 378 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein wichtiges Lemma Lemma 4.4.4 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig. (ii) Es gibt paarweise verschiedene Vektoren ~v1 , . . . , ~vn ∈ M mit zugehörigen Skalaren s1 , . . . , sn ∈ K , die nicht alle Null sind, mit s1 · ~v1 + · · · + sn · ~vn = ~0. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 379 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein wichtiges Lemma Lemma 4.4.4 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig. (ii) Es gibt paarweise verschiedene Vektoren ~ v1 , . . . , ~ vn ∈ M mit zugehörigen Skalaren s1 , . . . , sn ∈ K , die nicht alle Null sind, mit s1 · ~ v1 + · · · + sn · ~ vn = ~0. Beweis: (i) ⇒ (ii) Sei M linear abhängig. ⇒ ∃~v1 ∈ M : ~v1 ∈ hM \ {~v1 }i 1. Fall: M \ {~v1 } = ∅. n o ⇒ ~v1 ∈ h∅i = ~0 ⇒ ~v1 = ~0, s1 := 1 ∈ K ⇒ s1 · ~v1 = 1 · ~0 = ~0 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 380 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein wichtiges Lemma Lemma 4.4.4 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig. (ii) Es gibt paarweise verschiedene Vektoren ~ v1 , . . . , ~ vn ∈ M mit zugehörigen Skalaren s1 , . . . , sn ∈ K , die nicht alle Null sind, mit s1 · ~ v1 + · · · + sn · ~ vn = ~0. Beweis: (i) ⇒ (ii) Sei M linear abhängig. ⇒ ∃~v1 ∈ M : ~v1 ∈ hM \ {~v1 }i 6 ∅. 2. Fall: M \ {~v1 } = ⇒ ∃ paarw. verschiedene ~v2 , . . . , ~vn ∈ hM \ {~v1 }i und s2 , . . . , sn ∈ K : ~v1 = s2 · ~v2 + · · · + sn · ~vn ⇔ ~0 = −~v1 + s2 · ~v2 + · · · + sn · ~vn mit s1 = −1 6= 0. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 381 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein wichtiges Lemma Lemma 4.4.4 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig. (ii) Es gibt paarweise verschiedene Vektoren ~ v1 , . . . , ~ vn ∈ M mit zugehörigen Skalaren s1 , . . . , sn ∈ K , die nicht alle Null sind, mit s1 · ~ v1 + · · · + sn · ~ vn = ~0. Beweis: (ii) ⇒ (i) Seien ~v1 , . . . , ~vn ∈ M paarweise verschieden und s1 , . . . , sn ∈ K , mit s1 · ~v1 + · · · + sn · ~vn = ~0. Mindestens ein si ist 6= 0, sei dies o.B.d.A. s1 . Dann ist | · s −1 s1 · ~v1 = −s2 · ~v2 − · · · − sn · ~vn ⇔ ~v1 = −s1−1 (s2 · ~v2 ) − · · · − s1−1 (sn · ~vn ) = −(s1−1 s2 ) · ~v2 − · · · − (s1−1 sn ) · ~vn ⇒ ~v1 ∈ h~v2 , . . . , ~vn i ⊆ hM \ {~v1 }i Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 . 382 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein wichtiges Korollar Als unmittelbare Folgerung aus Lemma 9.4.4 erhalten wir das nächste Korollar. Korollar 4.4.5 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear unabhängig. (ii) Für beliebige paarweise verschiedene Vektoren ~v1 , . . . , ~vn ∈ M und beliebige Skalare s1 , . . . , sn ∈ K , gilt: s1 · ~v1 + · · · + sn · ~vn = ~0 =⇒ s1 = · · · = sn = 0. Bemerkung: Die Implikation in Teil (ii) des obigen Korollars ist eigentlich eine Äquivalenz. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 383 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein wichtiges Korollar Lemma 4.4.4 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig. =: A (ii) ∃ paarweise verschiedene Vektoren ~ v1 , . . . , ~ vn ∈ M mit s1 , . . . , sn ∈ K : s1 · ~ v1 + · · · + sn · ~ vn = ~0 ∧ ¬(s1 = · · · = sn = 0).=: B Korollar 4.4.5 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear unabhängig. z.z.: = ¬A (ii) ∀ paarweise verschiedene Vektoren ~ v1 , . . . , ~ vn ∈ M und s1 , . . . , sn ∈ K , gilt: s1 · ~ v1 + · · · + sn · ~ vn = ~0 =⇒ s1 = · · · = sn = 0. z.z.: = ¬B Beweis: Es gilt: (A ⇔ B) ⇔ (¬A ⇔ ¬B). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 384 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein wichtiges Korollar Korollar 4.4.5 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear unabhängig. z.z.: = ¬A X (ii) ∀ paarweise verschiedene Vektoren ~ v1 , . . . , ~ vn ∈ M und s1 , . . . , sn ∈ K , gilt: s1 · ~ v1 + · · · + sn · ~ vn = ~0 =⇒ s1 = · · · = sn = 0. z.z.: = ¬B Beweis: Sei V ein K -Vektorraum und M ⊆ V . A := M ist linear abhängig B := ∃ paarw. verschiedene ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K s1 · ~v1 + · · · + sn · ~vn = ~0 ∧ ¬(s1 = · · · = sn = 0) ¬B ≡ ∀ paarw. verschiedene ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K ¬(s1 · ~v1 + · · · + sn · ~vn = ~0 ∧ ¬(s1 = · · · = sn = 0)) Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 385 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Ein wichtiges Korollar Korollar 4.4.5 Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear unabhängig. z.z.: = ¬A X (ii) ∀ paarweise verschiedene Vektoren ~ v1 , . . . , ~ vn ∈ M und s1 , . . . , sn ∈ K , gilt: s1 · ~ v1 + · · · + sn · ~ vn = ~0 =⇒ s1 = · · · = sn = 0. z.z.: = ¬BX Beweis: ¬B ≡∀ paarw. verschiedene ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K : ¬(s1 · ~v1 + · · · + sn · ~vn = ~0 ∧ ¬(s1 = · · · = sn = 0)) ≡∀ paarw. verschiedene ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K : ¬(s1 · ~v1 + · · · + sn · ~vn = ~0) ∨ s1 = · · · = sn = 0 ≡∀ paarw. verschiedene ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K : s1 · ~v1 + · · · + sn · ~vn = ~0 ⇒ s1 = · · · = sn = 0 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 386 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Teilmengen linear unabhängiger Mengen Ein Korollar zum Korollar . . . Korollar 4.4.6 Teilmengen linear unabhängiger Mengen sind selbst wieder linear unabhängig sind. Gilt dieses Korollar auch für linear abhängige Mengen ? Nein! Gegenbeispiel? Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 387 / 669 Vektorräume Lineare Abhängigkeiten und lineare Unabhängigkeiten Lineare Abhängigkeit - Beispiel Es sei V = R3 und 1 1 1 M = 1 , 2 , 3 1 3 5 Um festzustellen, ob M linear abhängig ist, müssen wir nach Lemma 9.4.4 überprüfen, ob es Skalare x1 , x2 , x3 ∈ R gibt mit (x1 , x2 , x3 ) 6= (0, 0, 0), so dass 1 1 1 0 x1 · 1 + x2 · 2 + x3 · 3 = 0 1 3 5 0 gilt. Dies ist z.B. für (x1 , x2 , x3 ) = (1, −2, 1) der Fall. Also ist M linear abhängig. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 388 / 669 Vektorräume Basen Übersicht Kapitel 10 Vektorräume 10.1 Definition und Geometrie von Vektoren 10.2 Teilräume 10.3 Linearkombinationen und Erzeugendensysteme 10.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten 10.5 Basis und Dimension Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 389 / 669 Vektorräume Basen Kapitel 10 Vektorräume 10.5 Basis und Dimension Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 390 / 669 Vektorräume Basen Charakterisierung von Basen - Vorüberlegungen Wir bringen nun die Begriffe “Vektorraumbasis” und “lineare Unabhängigkeit” zusammen und verbinden diese außerdem mit dem Begriff der “Minimalität”. Wir werden auch sehen, dass eine Vektorraumbasis optimal ist in Bezug auf “maximale Ausschöpfung”. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 391 / 669 Vektorräume Basen Charakterisierung von Basen Satz 4.5.1 (Charakterisierung von Basen) Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagen äquivalent: (i) M ist Basis von V . (ii) M ist linear unabhängiges Erzeugendensystem von V . (iii) M ist inklusionsminimales Erzeugendensystem von V , d.h. hMi = V und hM \ {~ u }i = 6 V für alle u~ ∈ M. (iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V , d.h. M ist linear unabhängig, aber M ∪ {~v } ist für jedes ~v ∈ V \ M linear abhängig. Beweis: Mittels Ringschluss: (i) ⇒ (ii) ⇒ (iii) ⇒ (iv ) ⇒ (i) Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 392 / 669 Vektorräume Basen Charakterisierung von Basen Satz 4.5.1 (Charakterisierung von Basen) Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagen äquivalent: (i) M ist Basis von V . (ii) M ist linear unabhängiges Erzeugendensystem von V . (iii) M ist inklusionsminimales Erzeugendensystem von V , d.h. hMi = V und hM \ {~ u }i 6= V für alle u~ ∈ M. (iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V , d.h. M ist linear unabhängig, aber M ∪ {~ v } ist für jedes ~ v ∈ V \ M linear abhängig. Beweis: (i) ⇒ (ii) Sei M eine Basis von V . z.z.: M ist linear unabhängiges Erzeugendensystem von V Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 393 / 669 Vektorräume Basen Charakterisierung von Basen Beweis: (i) ⇒ (ii) Sei M eine Basis von V . z.z.: M ist linear unabhängiges Erzeugendensystem von V Jedes ~v ∈ V lässt sich eindeutig als Linearkombination von paarw. verschiedenen Vektoren aus M schreiben. (Defn Basis) ⇒ M ist Erzeugendensystem von V z.z.: M ist linear unabhängig Seien ~v1 , . . . , ~vn ∈ M, paarweise verschieden, mit s1 , . . . , sn ∈ K , so dass s1 · ~v1 + · · · + sn · ~vn = ~0 = 0 · ~v1 + · · · + 0 · ~vn . Wegen der Eindeutigkeit der Darstellung ist dann s1 = · · · = sn = 0. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 394 / 669 Vektorräume Basen Charakterisierung von Basen Satz 4.5.1 (Charakterisierung von Basen) Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagen äquivalent: (i) M ist Basis von V . (ii) M ist linear unabhängiges Erzeugendensystem von V . (iii) M ist inklusionsminimales Erzeugendensystem von V , d.h. hMi = V und hM \ {~ u }i 6= V für alle u~ ∈ M. (iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V , d.h. M ist linear unabhängig, aber M ∪ {~ v } ist für jedes ~ v ∈ V \ M linear abhängig. Beweis: (ii) ⇒ (iii) Sei M ein linear unabhängiges Erzeugendensystem von V . z.z.: hMi = V und hM \ {~ u }i = 6 V für alle u~ ∈ M. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 395 / 669 Vektorräume Basen Charakterisierung von Basen Beweis: (ii) ⇒ (iii) Sei M ein linear unabhängiges Erzeugendensystem von V . z.z.: hMi = V und hM \ {~ u }i = 6 V für alle u~ ∈ M. M ist Erzeugendensystem ⇒ hMi = V M ist linear unabhängig ⇒ ∀~ u ∈ M : hM \ u~i = 6 hMi= V Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 396 / 669 Vektorräume Basen Charakterisierung von Basen Satz 4.5.1 (Charakterisierung von Basen) Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagen äquivalent: (i) M ist Basis von V . (ii) M ist linear unabhängiges Erzeugendensystem von V . (iii) M ist inklusionsminimales Erzeugendensystem von V , d.h. hMi = V und hM \ {~ u }i 6= V für alle u~ ∈ M. (iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V , d.h. M ist linear unabhängig, aber M ∪ {~ v } ist für jedes ~ v ∈ V \ M linear abhängig. Beweis: (iii) ⇒ (iv ) Sei hMi = V und hM \ {~ u }i = 6 V für alle u~ ∈ M ⇒ M ist linear unabhängig z.z.: M ∪ {~v } ist für alle ~v ∈ V \ M linear abhängig. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 397 / 669 Vektorräume Basen Charakterisierung von Basen Beweis: (iii) ⇒ (iv ) Sei hMi = V und hM \ {~ u }i = 6 V für alle u~ ∈ M ⇒ M ist linear unabhängig z.z.: M ∪ {~v } ist für alle ~v ∈ V \ M linear abhängig. Sei ~v ∈ V \ M. Dann ist V = hMi ⊆ hM ∪ {~v }i ⊆ V Damit gilt hM ∪ {~v }i = V und h(M ∪ {~v }) \ ~v i = hMi = V und damit ist M ∪ {~v } linear abhängig. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 398 / 669 Vektorräume Basen Charakterisierung von Basen Satz 4.5.1 (Charakterisierung von Basen) Es sei (V , +, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagen äquivalent: (i) M ist Basis von V . (ii) M ist linear unabhängiges Erzeugendensystem von V . (iii) M ist inklusionsminimales Erzeugendensystem von V , d.h. hMi = V und hM \ {~ u }i 6= V für alle u~ ∈ M. (iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V , d.h. M ist linear unabhängig, aber M ∪ {~ v } ist für jedes ~ v ∈ V \ M linear abhängig. Beweis: (iv ) ⇒ (i) Sei M inklusionsmaximale linear unabhängige Teilmenge von V. z.z.: Jedes ~v ∈ V lässt sich eindeutig als Linearkombination von Vektoren aus M schreiben Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 399 / 669 Vektorräume Basen Charakterisierung von Basen Beweis: (iv ) ⇒ (i) Sei M inklusionsmaximale linear unabhängige Teilmenge von V. z.z.: Jedes ~v ∈ V lässt sich eindeutig als Linearkombination von Vektoren aus M schreiben hMi = V ~v ∈ M X ~v ∈ / M ⇒ M ∪ {v } ist linear abhängig Also gibt es ~v1 , . . . , ~vn ∈ M und s, s1 , . . . , sn ∈ K , nicht alle gleich 0: s · ~v + s1 · ~v1 + · · · + sn ~vn = ~0. Da M linear unabhängig ist, muss s 6= 0 sein. Also gilt −s · ~v = s1 · ~v1 + · · · + sn · ~vn ⇒ Prof. Dr. Bernhard Steffen ~v = (−s)−1 s1 · ~v1 + · · · + (−s)−1 sn · ~vn Mathematik für Informatiker 1 - 2012 400 / 669 Vektorräume Basen Charakterisierung von Basen Beweis: (iv ) ⇒ (i) Sei M inklusionsmaximale linear unabhängige Teilmenge von V. z.z.: Jedes ~v ∈ V lässt sich eindeutig als Linearkombination von Vektoren aus M schreiben hMi = V Eindeutigkeit: Sei ~v ∈ V . ~ 1, . . . , w ~m ∈ M Ann.: ∃s1 , . . . , sn , t1 , . . . , tm ∈ K , ~v1 , . . . , ~vn , w ~v = s1 ~v1 + · · · + sn ~vn ~ 1 + · · · + tm w ~m = t1 w Dann ist für ein q ≤ n + m ~ 1, . . . , w ~ m } = {~ {~v1 , . . . , ~vn , w u1 , . . . , u~q } ⊆ M Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 401 / 669 Vektorräume Basen Charakterisierung von Basen Eindeutigkeit: Sei ~v ∈ V . ~ 1, . . . , w ~m ∈ M Ann.: ∃s1 , . . . , sn , t1 , . . . , tm ∈ K , ~v1 , . . . , ~vn , w ~v = s1 ~v1 + · · · + sn ~vn ~m ~ 1 + · · · + tm w = t1 w Dann ist für ein q ≤ n + m ~ 1, . . . , w ~ m } = {~ {~v1 , . . . , ~vn , w u1 , . . . , u~q } ⊆ M 0 ∈ K gilt dann: Für bestimmte s10 , . . . , sn0 , t10 , . . . , tm ~v = s10 u~1 + · · · + sq0 u~q ~v = t10 u~1 + · · · + tq0 u~q Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 402 / 669 Vektorräume Basen Charakterisierung von Basen Eindeutigkeit: Sei ~v ∈ V . ~ 1, . . . , w ~m ∈ M Ann.: ∃s1 , . . . , sn , t1 , . . . , tm ∈ K , ~v1 , . . . , ~vn , w ~v = s1 ~v1 + · · · + sn ~vn ~ 1 + · · · + tm w ~m = t1 w Dann ist für ein q ≤ n + m ~ 1, . . . , w ~ m } = {~ {~v1 , . . . , ~vn , w u1 , . . . , u~q } ⊆ M 0 ∈ K gilt dann: Für bestimmte s10 , . . . , sn0 , t10 , . . . , tm ~v = s10 u~1 + · · · + sq0 u~q − ~v = t10 u~1 + · · · + tq0 u~q ~0 = (s10 − t10 )~ u1 + · · · + (sq0 − tq0 )~ uq Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 403 / 669 Vektorräume Basen Charakterisierung von Basen Beweis: (iv ) ⇒ (i) Sei M inklusionsmaximale linear unabhängige Teilmenge von V. z.z.: Jedes ~v ∈ V lässt sich eindeutig als Linearkombination von Vektoren aus M schreiben hMi = V Eindeutigkeit: Sei ~v ∈ V . 0 ∈ K gilt dann: Für bestimmte s10 , . . . , sn0 , t10 , . . . , tm ~0 = (s10 − t10 )~ u1 + · · · + (sq0 − tq0 )~ uq Da {~ u1 , . . . , u~q } ⊆ M und M linear unabhängig ist, gilt si0 = ti0 für alle i, 1 ≤ i ≤ q. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 404 / 669 Vektorräume Basen Endliche Erzeugendensysteme und Basen Wir haben bislang nur an speziellen Beispielen gesehen, dass Basen von Vektorräumen tatsächlich existieren können. Der folgende Satz belegt, dass das kein Zufall ist. Satz 4.5.2 (Existenz von Basen) Jeder endlich erzeugte K -Vektorraum besitzt eine Basis. Beweis: Sei M ein endliches Erzeugendensystem von V . Solange es (rekursiv) einen Vektor ~v ∈ M gibt, so dass hM \ ~v i = hV i ist, entferne diesen. Da M endlich ist, sind wir in endlich vielen Schritten fertig und erhalten ein inklusionsminimales Erzeugendensystem von V , also eine Basis. Korollar 4.5.3 Jedes endliche Erzeugendensystem eines Vektorraums enthält eine Basis. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 405 / 669 Vektorräume Basen Konstruktion von Basen Wir wenden uns jetzt dem Problem zu, für einen endlich erzeugten Vektorraum aus einem Erzeugendensystem eine Basis zu konstruieren. Das Verfahren beruht auf dem folgenden Lemma. Lemma 4.5.4 Es sei V ein K -Vektorraum und ~v1 , . . . , ~vn ∈ V . (i) Für i 6= j und s ∈ K gilt h~v1 , . . . , ~vj , . . . , ~vn i = h~v1 , . . . , ~vj + s~vi , . . . , ~vn i. (ii) Für i ∈ {1, . . . , n} und t ∈ K \{0} gilt h~v1 , . . . , ~vi , . . . , ~vn i = h~v1 , . . . , t~vi , . . . , ~vn i (iii) h~v1 , . . . , ~vn i = h~v1 , . . . , ~vn , ~0i. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 406 / 669 Vektorräume Basen Konstruktion von Basen Lemma 4.5.4 Es sei V ein K -Vektorraum und ~ v1 , . . . , ~ vn ∈ V . (i) Für i 6= j und s ∈ K gilt h~ v1 , . . . , ~ vj , . . . , ~ vn i = h~ v1 , . . . , ~ vj + s~ vi , . . . , ~ vn i. (ii) Für i ∈ {1, . . . , n} und t ∈ K \{0} gilt h~ v1 , . . . , ~ vi , . . . , ~ vn i = h~ v1 , . . . , t~ vi , . . . , ~ vn i (iii) h~ v1 , . . . , ~ vn i = h~ v1 , . . . , ~ vn , ~0i. Beweis: (i) Sei s ∈ K . ”‘⊆”’ ~vj = (~vj + s~vi ) − s~vi ∈ h~v1 , . . . , ~vj + s~vi , . . . , ~vn i Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 407 / 669 Vektorräume Basen Konstruktion von Basen Lemma 4.5.4 Es sei V ein K -Vektorraum und ~ v1 , . . . , ~ vn ∈ V . (i) Für i 6= j und s ∈ K gilt h~ v1 , . . . , ~ vj , . . . , ~ vn i = h~ v1 , . . . , ~ vj + s~ vi , . . . , ~ vn i. (ii) Für i ∈ {1, . . . , n} und t ∈ K \{0} gilt h~ v1 , . . . , ~ vi , . . . , ~ vn i = h~ v1 , . . . , t~ vi , . . . , ~ vn i (iii) h~ v1 , . . . , ~ vn i = h~ v1 , . . . , ~ vn , ~0i. Beweis: (i) Sei s ∈ K . ”‘⊇”’ ~vj + s~vi ∈ h~v1 , . . . , ~vj , . . . , ~vn i Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 408 / 669 Vektorräume Basen Konstruktion von Basen Lemma 4.5.4 Es sei V ein K -Vektorraum und ~ v1 , . . . , ~ vn ∈ V . (i) Für i 6= j und s ∈ K gilt h~ v1 , . . . , ~ vj , . . . , ~ vn i = h~ v1 , . . . , ~ vj + s~ vi , . . . , ~ vn i. (ii) Für i ∈ {1, . . . , n} und t ∈ K \{0} gilt h~ v1 , . . . , ~ vi , . . . , ~ vn i = h~ v1 , . . . , t~ vi , . . . , ~ vn i (iii) h~ v1 , . . . , ~ vn i = h~ v1 , . . . , ~ vn , ~0i. Beweis: (ii) Sei t ∈ K \ {0}. ”‘⊆”’ ~vi = t −1 · t~vi ”‘⊇”’ X Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 409 / 669 Vektorräume Basen Konstruktion von Basen Lemma 4.5.4 Es sei V ein K -Vektorraum und ~ v1 , . . . , ~ vn ∈ V . (i) Für i 6= j und s ∈ K gilt h~ v1 , . . . , ~ vj , . . . , ~ vn i = h~ v1 , . . . , ~ vj + s~ vi , . . . , ~ vn i. (ii) Für i ∈ {1, . . . , n} und t ∈ K \{0} gilt h~ v1 , . . . , ~ vi , . . . , ~ vn i = h~ v1 , . . . , t~ vi , . . . , ~ vn i (iii) h~ v1 , . . . , ~ vn i = h~ v1 , . . . , ~ vn , ~0i. Beweis: (iii) ”‘⊆”’ X ”‘⊇”’ ~0 = 0 · ~v1 ∈ h~v1 , . . . , ~vn i Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 410 / 669 Vektorräume Basen Konstruktion von Basen – Vorgehensweise Wir wenden Lemma 4.5.4 an, um Erzeugendensysteme so zu modifizieren, dass linear abhängige Teile auf Nullvektoren reduziert werden, so dass die Basisvektoren (als Nicht-Nullvektoren) direkt abgelesen werden können. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 411 / 669 Vektorräume Basen Konstruktionen von Basen - Beispiel Es sei K = R und * V := + 1 1 1 v~1 = 1 , v~2 = 3 , v~3 = 6 . 1 5 11 Wegen Lemma 4.5.4 ist dann V = h~v1 , ~v2 − ~v1 , ~v3 i = h~v1 , ~v2 − ~v1 , ~v3 − ~v1 i * 1 + 0 0 0 0 0 ~ ~ ~ 1 =: v , 2 =: v , 5 =: v = 1 2 3 1 4 10 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 412 / 669 Vektorräume Basen Konstruktionen von Basen - Beispiel Wir halten jetzt v~10 fest und machen mit v~20 , v~30 nach Lemma 4.5.4 weiter: 1 ~0 ~0 5 ~0 0 ~ V = v1 , v2 , v3 − v2 2 2 * 1 0 0 + = 1 , 1 , 0 1 2 0 * 1 0 + = 1 , 1 1 2 (wegen Lemma 4.5.4 (iii)) Da die letzten beiden Vektoren linear unabhängig sind, bilden sie also eine Basis von V . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 413 / 669 Vektorräume Basen Basisergänzung – Vorüberlegungen Vektorraumbasen haben zwei charakteristische Eigenschaften: sie sind linear unabhängig, und sie bilden ein Erzeugendensystem. Wir haben oben gezeigt, dass man mit Hilfe von Lemma 4.5.4 aus jedem endlichen Erzeugendensystem eines Vektorraums V eine Basis von V erhalten kann. Der folgende Satz stellt die umgekehrte Vorgehensweise zur Findung einer Basis dar – linear unabhängige Teilmengen lassen sich zur Basis ergänzen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 414 / 669 Vektorräume Basen Basisergänzung Satz 4.5.5 (Basisergänzungssatz) Es sei V ein endlich erzeugter K -Vektorraum mit endlichem Erzeugendensystem E ⊆ V , also V = hE i. Weiterhin sei M ⊆ V linear unabhängig. Dann gibt es eine Teilmenge E 0 ⊆ E , so dass M ∪ E 0 eine Basis von V ist. Beweis: Seien V = hE i, E endlich und M ⊆ V linear unabhängig. Sei E 0 ⊆ E eine inklusionsminimale Menge mit hE 0 ∪ Mi = V , also h(E 0 \ {~v }) ∪ Mi = 6 V für alle ~v ∈ E 0 z.z.: E 0 ∪ M ist eine Basis von V Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 415 / 669 Vektorräume Basen Basisergänzung Beweis: Seien V = hE i, E endlich und M ⊆ V linear unabhängig. Sei E 0 ⊆ E eine inklusionsminimale Menge mit hE 0 ∪ Mi = V , also h(E 0 \ {~v }) ∪ Mi = 6 V für alle ~v ∈ E 0 z.z.: E 0 ∪ M ist eine Basis von V Erzeugendensystem X ~ 1, . . . , w ~n ∈ M : Lineare Unabhängigkeit: Seien ~v1 , . . . , ~vm ∈ E 0 , w ~ 1 + · · · + tn w ~ n = ~0. s1 ~v1 + · · · + sm ~vm + t1 w z.z.: s1 = · · · = sm = t1 = · · · = tn = 0 Ann.: si 6= 0 für ein i, o.B.d.A s1 6= 0 ⇒ ~v1 = − (s1−1 s2 )~v2 − · · · − (s1−1 sm )~vm w1 − · · · − (s1−1 tn )~ wn − (s1−1 t1 )~ ∈hE 0 \ {~v1 } ∪ Mi Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 416 / 669 Vektorräume Basen Basisergänzung Beweis: Seien V = hE i, E endlich und M ⊆ V linear unabhängig. Sei E 0 ⊆ E eine inklusionsminimale Menge mit hE 0 ∪ Mi = V , also h(E 0 \ {~v }) ∪ Mi = 6 V für alle ~v ∈ E 0 z.z.: E 0 ∪ M ist eine Basis von V Erzeugendensystem X ~ 1, . . . , w ~n ∈ M : Lineare Unabhängigkeit: Seien ~v1 , . . . , ~vm ∈ E 0 , w ~ 1 + · · · + tn w ~ n = ~0. s1 ~v1 + · · · + sm ~vm + t1 w z.z.: t1 = · · · = tn = 0 ~ 1 + · · · + tn w ~ n = ~0 ⇒ t1 w ⇒ t1 = . . . tn = 0 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 417 / 669 Vektorräume Basen Beispiel zu Satz 4.5.5 Wir betrachten das Erzeugendensystem 1 0 0 1 0 0 0 0 E := , , , 0 0 0 0 1 0 0 1 des R-Vektorraums R2×2 (Raum der reellen 2 × 2-Matrizen). Die Menge 1 0 0 1 M := , 0 1 1 0 ist linear unabhängig. Wir kombinieren nun 1 0 0 1 1 , , B := 0 1 1 0 0 {z } | M M mit E und bilden die Menge 0 0 1 , , 0 0 0 die M und Teile von E enthält. B ist eine Basis von R2×2 . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 418 / 669 Vektorräume Basen Beispiel zu Satz 4.5.5 (Forts.) Man beachte jedoch, dass die Menge 1 0 0 1 1 0 0 0 0 B := , , , 0 1 1 0 0 0 0 1 zwar M enthält, aber keine Basis von R2×2 ist, da diese Menge linear abhängig ist (der erste Vektor ist die Summe der beiden letzten Vektoren). ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 419 / 669 Vektorräume Basen Basen als Schlüsselinformation für Vektorräume Wir fassen noch einmal die Ergebnisse bisher zusammen: Korollar 4.5.6 1 Jeder Vektorraum besitzt eine Basis. 2 In jedem Erzeugendensystem eines Vektorraumes ist eine Basis enthalten. 3 Jede linear unabhängige Menge lässt sich zu einer Basis ergänzen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 420 / 669 Vektorräume Basen Basen als Schlüsselinformation für Vektorräume (Forts.) Das folgende Korollar verdeutlicht noch einmal die Optimalität von Basen: Korollar 4.5.7 Die folgenden Aussagen für eine Teilmenge B eines Vektorraumes V sind äquivalent: 1 B ist eine Basis von V . 2 B ist eine minimale Erzeugendenmenge. 3 B ist eine maximal linear unabhängige Menge. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 421 / 669 Vektorräume Basen Was ist die Dimension eines Vektorraumes? Wir haben gesehen, dass Basen als minimale Erzeugendensysteme optimale (und platzsparende) Darstellungen der Information in einem Vektorraum sind. Wir wollen nun diese Minimalität zahlenmäßig erfassen: Wie “groß” ist eine Basis? Ziel des Folgenden ist es zu zeigen, dass alle Basen eines Vektorraums dieselbe Kardinalität besitzen, die dann die Dimension des Vektorraums genannt wird. Dazu müssen wir unsere vorherigen Überlegungen noch stärker präzisieren. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 422 / 669 Vektorräume Basen Der Austauschsatz von Steinitz Satz 4.5.8 (Austauschsatz von Steinitz) Es sei V ein K -Vektorraum und {~v1 , . . . , ~vn } Basis von V . Ferner sei I eine beliebige Indexmenge und {~ ui | i ∈ I } eine weitere Basis von V . Dann gibt es zu jedem i ∈ {1, . . . , n} ein ji ∈ I , so dass {~v1 , . . . , ~vi−1 , u~ji , ~vi+1 , . . . , ~vn } eine Basis von V ist. D.h., jedes Element einer Basis lässt sich durch ein geeignetes Element einer anderen Basis ersetzen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 423 / 669 Vektorräume Basen Der Austauschsatz von Steinitz Satz 4.5.8 (Austauschsatz von Steinitz) Es sei V ein K -Vektorraum und {~ v1 , . . . , ~ vn } Basis von V . Ferner sei I eine beliebige Indexmenge und {~ ui | i ∈ I } eine weitere Basis von V . Dann gibt es zu jedem i ∈ {1, . . . , n} ein ji ∈ I , so dass {~ v1 , . . . , ~ vi−1 , u~ji , ~ vi+1 , . . . , ~ vn } eine Basis von V ist. Beweis: Seien B = {~v1 , . . . , ~vn } und {~ ui |i ∈ I } Basen von V . Sei i ∈ {1, . . . , n} und Ḃ = B \ {~ vi }. Dann gilt hḂi = h{~v1 , . . . .~vi−1 , ~vi+1 . . . . , ~vn }i ( V = h{~ ui |i ∈ I }i ⇒ es gibt ein ji ∈ I mit u~ji ∈ / hḂi z.z.: B 0 = (B \ {~ vi }) ∪ u~ji = {~v1 , . . . , ~vi−1 , u~ji , ~vi+1 , . . . , ~vn } ist eine Basis von V Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 424 / 669 Vektorräume Basen Der Austauschsatz von Steinitz Beweis: Seien B = {~v1 , . . . , ~vn } und {~ ui |i ∈ I } Basen von V . Sei i ∈ {1, . . . , n} und Ḃ = B \ {~ vi }. Dann gilt hḂi = h{~v1 , . . . .~vi−1 , ~vi+1 . . . . , ~vn }i ( V = h{~ ui |i ∈ I }i ⇒ es gibt ein ji ∈ I mit u~ji ∈ / hḂi z.z.: B 0 = (B \ {~ vi }) ∪ u~ji = {~v1 , . . . , ~vi−1 , u~ji , ~vi+1 , . . . , ~vn } ist eine Basis von V Lineare Unabhängigkeit: Seien s1 , . . . , si−1 , si+1 , . . . , sn , t ∈ K mit s1 ~v1 + · · · + si−1 ~vi−1 + t u~ji + si+1 ~vi+1 + · · · + sn ~vn = ~0 u~ji ∈ / h~v1 , . . . , ~vi−1 , ~vi+1 , . . . , ~vn i ⇒ t = 0 {~v1 , . . . , ~vi−1 , ~vi+1 , . . . , ~vn } sind linear unabhängig ⇒ s1 = · · · = si−1 = si+1 = sn = 0 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 425 / 669 Vektorräume Basen Der Austauschsatz von Steinitz Beweis: Seien B = {~v1 , . . . , ~vn } und {~ ui |i ∈ I } Basen von V . Sei i ∈ {1, . . . , n} und Ḃ = B \ {~ vi }. Dann gilt hḂi = h{~v1 , . . . .~vi−1 , ~vi+1 . . . . , ~vn }i ( V = h{~ ui |i ∈ I }i ⇒ es gibt ein ji ∈ I mit u~ji ∈ / hḂi z.z.: B 0 = (B \ {~ vi }) ∪ u~ji = {~v1 , . . . , ~vi−1 , u~ji , ~vi+1 , . . . , ~vn } ist eine Basis von V Lineare Unabhängigkeit X Erzeugendensystem: Basisergänzungssatz ⇒ ∃E 0 ⊆ B, so dass B 0 ∪ E 0 eine Basis von V ist. 1. Fall: ~vi ∈ / E 0 : ⇒ B 0 ∪ E 0 = B 0 ist eine Basis von V . 2. Fall: ~vi ∈ E 0 : ⇒ B 0 ∪ E 0 = B ∪ {~ uji } ist eine Basis von V . B ist inklusionsmaximal linear unabhängig ⇒ u~ji ∈ {~v1 , . . . , ~vn } (insbesondere u~ji = ~vi ), d.h. B 0 = B. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 426 / 669 Vektorräume Basen “Größe” einer Vektorraumbasis Der folgende Satz enthält das wichtigste Resultat zum Begriff der Dimension: Satz 4.5.9 Es sei V ein K -Vektorraum und B = {~v1 , . . . , ~vn } eine Basis von V mit n paarweise verschiedenen Elementen, d.h. |B| = n. Dann gilt: (i) Ist B 0 eine beliebige Basis von V , so ist |B 0 | = n. (ii) Ist M ⊆ V linear unabhängig, so ist |M| ≤ n. (iii) Ist M ⊆ V linear unabhängig und |M| = n, so ist M Basis von V . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 427 / 669 Vektorräume Basen “Größe” einer Vektorraumbasis Satz 4.5.9 Es sei V ein K -Vektorraum und B = {~v1 , . . . , ~vn } eine Basis von V mit n paarweise verschiedenen Elementen, d.h. |B| = n. Dann gilt: (i) Ist B 0 eine beliebige Basis von V , so ist |B 0 | = n. (ii) Ist M ⊆ V linear unabhängig, so ist |M| ≤ n. (iii) Ist M ⊆ V linear unabhängig und |M| = n, so ist M Basis von V . Beweis: Sei B = {~vj1 , . . . , ~vn } eine Basis von V , |B| = n. (i) Sei B 0 eine beliebige Basis von V . z.z.: |B 0 | = n Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 428 / 669 Vektorräume Basen “Größe” einer Vektorraumbasis Beweis: Sei B = {~vj1 , . . . , ~vn } eine Basis von V , |B| = n. (i) Sei B 0 eine beliebige Basis von V . z.z.: |B 0 | = n Nach dem Austauschsatz von Steinitz folgt: zu ~v1 ∈ B ∃~ uj1 ∈ B 0 : {~ uj , ~v2 , . . . , ~vn } ist eine Basis von V . | 1 {z } =:B1 0 zu ~v2 ∈ B1 ∃~ uj2 ∈ B : {~ uj , u~j , ~v3 , . . . , ~vn } ist eine Basis von V . | 1 2 {z } =:B2 .. . zu ~vn ∈ Bn−1 ∃~ ujn ∈ B 0 : {~ uj , . . . , u~j } ist eine Basis von V . | 1 {z n } =:Bn Bn ⊆ B 0 und B 0 ist inklusionsminimal (bzgl. Erzeugendensystem) ⇒ Bn = B 0 und damit |B 0 | = n. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 429 / 669 Vektorräume Basen “Größe” einer Vektorraumbasis Satz 4.5.9 Es sei V ein K -Vektorraum und B = {~v1 , . . . , ~vn } eine Basis von V mit n paarweise verschiedenen Elementen, d.h. |B| = n. Dann gilt: (i) Ist B 0 eine beliebige Basis von V , so ist |B 0 | = n. (ii) Ist M ⊆ V linear unabhängig, so ist |M| ≤ n. (iii) Ist M ⊆ V linear unabhängig und |M| = n, so ist M Basis von V . Beweis: Sei B = {~vj1 , . . . , ~vn } eine Basis von V , |B| = n. (ii) Sei M ⊆ V linear unabhängig. Nach dem Basisergänzungssatz kann man M zu einer Basis B 0 ergänzen. Damit folgt (i) |M| ≤ B 0 = n. (iii) Argumentation wie im Beweis zu (ii). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 430 / 669 Vektorräume Basen Der Begriff der Dimension Definition 4.5.10 (Dimension eines Vektorraums) Wenn der Vektorraum V eine endliche Basis besitzt, so wird die Anzahl n der Vektoren der Basis die Dimension von V genannt: dimV = n. Besitzt ein Vektorraum V keine endliche Basis, so ist seine Dimension unendlich, also dimV = ∞. Man sagt auch, dass V unendlich dimensional ist. Bemerkung: Es folgt aus Korollar 4.5.3, dass jeder endlich erzeugte Vektorraum auch endlich dimensional ist. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 431 / 669 Vektorräume Basen Beispiele zur Dimension Beispiel (K n ): Die Dimension des K -Vektorraums K n ist n, da beispielsweise die Menge der Einheitsvektoren {~ e1 , . . . , e~n } eine Basis von K n bildet. ♣ Beispiel (im R3 ): Es sei K = R und *1 1 1 + V := 1 , 3 , 6 . 1 5 11 Wie weiter oben 1 1 schon gezeigt wurde, ist * 1 0 + V = 1 , 1 mit dim V = 2. 1 2 ♣ s. Beispiel zur Konstruktion von Basen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 432 / 669 Vektorräume Basen Beispiele zur Dimension (Forts.) Beispiel (Matrizen): Die Dimension des K -Vektorraums aller m × n Matrizen K m×n ist m · n. Eine Basis von K m×n ist die Menge {Eij | 1 ≤ i ≤ m und 1 ≤ j ≤ n}, wobei Eij die m × n Matrix bezeichnet, deren Eintrag in der i-ten Zeile und j-ten Spalte eine Eins ist und die sonst nur Null-Einträge hat. ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 433 / 669 Vektorräume Basen Dimension von Teilräumen Korollar 4.5.11 Ist V ein endlich dimensionaler K -Vektorraum und U ein Teilraum von V , dann ist auch U endlich dimensional, und es gilt dim U ≤ dim V . Ist dim U = dim V , so ist U = V . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 434 / 669 Vektorräume Basen Dimensionsformel für Teilräume Satz 4.5.12 (Dimensionsformel für Teilräume) Es sei V ein endlich dimensionaler K -Vektorraum und U1 , U2 seien Teilräume von V . Dann ist dim U1 + dim U2 = dim (U1 + U2 ) + dim (U1 ∩ U2 ). Beweis: Sei V ein endlich dimensionaler K -Vektorraum, und seien U1 , U2 Teilräume von V . ⇒ U1 und U2 sind endlich dimensional. z.z.: dim U1 + dim U2 = dim (U1 + U2 ) + dim (U1 ∩ U2 ). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 435 / 669 Vektorräume Basen Dimensionsformel für Teilräume Beweis: Sei V ein endlich dimensionaler K -Vektorraum, und seien U1 , U2 Teilräume von V . ⇒ U1 und U2 sind endlich dimensional. z.z.: dim U1 + dim U2 = dim (U1 + U2 ) + dim (U1 ∩ U2 ). Sei B = {~ u1 , . . . , u~d } eine Basis von U1 ∩ U2 . (dim U1 ∩ U2 = d) B lässt sich zu Basen B1 von U1 bzw. B2 von U2 erweitern: B1 = {~ u1 , . . . , u~d , ~v1 , . . . , ~vm } ⇒ dim U1 = d + m ~ 1, . . . , w ~ n } ⇒ dim U2 = d + n B2 = {~ u1 , . . . , u~d , w ⇒ dim U1 + dim U2 = d + m + d + n = dim(U1 ∩ U2 ) + m + n + d. z.z.: dim(U1 + U2 ) = m + n + d Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 436 / 669 Vektorräume Basen Dimensionsformel für Teilräume Beweis: Für zwei Teilräume U1 , U2 eines K -Vektorraums V gelte B = {~ u1 , . . . , u~d } eine Basis von U1 ∩ U2 , B1 = {~ u1 , . . . , u~d , ~v1 , . . . , ~vm } eine Basis von U1 , ~ 1, . . . , w ~ n } eine Basis von U2 . B2 = {~ u1 , . . . , u~d , w z.z.: dim(U1 + U2 ) = m + n + d Wir zeigen: ~ 1, . . . , w ~ n} C = {~ u1 , . . . , u~d , ~v1 , . . . , ~vm , w ist eine Basis von U1 + U2 . Da die Elemente von C paarweise verschieden sind, folgt dann dim U1 + U2 = |C | = d + m + n. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 437 / 669 Vektorräume Basen Dimensionsformel für Teilräume Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V . B1 Basis von U1 z }| { ~ 1, . . . , w ~ n } ist Basis von U1 + U2 . z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w | {z } B Basis von U1 ∩U2 | {z B2 Basis von U2 } hC i = U1 + U2 , d.h. C erzeugt U1 + U2 : ⊆ X, da da jedes Element aus C in U1 oder U2 liegt. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 438 / 669 Vektorräume Basen Dimensionsformel für Teilräume Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V . B1 Basis von U1 z }| { ~ 1, . . . , w ~ n } ist Basis von U1 + U2 . z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w | {z } B Basis von U1 ∩U2 | {z } B2 Basis von U2 hC i = U1 + U2 , d.h. C erzeugt U1 + U2 : ⊇ Sei ~x ∈ U1 + U2 ⇒ ~x = ~x1 + ~x2 , mit ~x1 ∈ U1 , ~x2 ∈ U2 . ⇒ ~x1 = d X si u~i + i=1 ⇒ ~x1 + ~x2 = d X i=1 m X rj ~vj , ~x2 = j=1 (si + si0 )~ ui d X si0 u~i i=1 + m X rj ~vj + j=1 n X + m X tk ~vj k=1 ~k tk w k=1 ∈ hC i Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 439 / 669 Vektorräume Basen Dimensionsformel für Teilräume Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V . B1 Basis von U1 z }| { ~ 1, . . . , w ~ n } ist Basis von U1 + U2 . z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w | {z } B Basis von U1 ∩U2 | {z } B2 Basis von U2 hC i = U1 + U2 , d.h. C erzeugt U1 + U2 C ist linear unabhängig. Seien si , rj , tk ∈ K mit d X si u~i + ~k = − tk w |k=1{z } ∈U2 Prof. Dr. Bernhard Steffen rj ~vj + j=1 i=1 n X m X d X n X si u~i − i=1 | ~ k = ~0 tk w k=1 m X rj ~vj ∈ U1 ∩ U2 j=1 {z ∈U1 Mathematik für Informatiker 1 - 2012 } 440 / 669 Vektorräume Basen Dimensionsformel für Teilräume Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V . B1 Basis von U1 z }| { ~ 1, . . . , w ~ n } ist Basis von U1 + U2 . z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w | {z } B Basis von U1 ∩U2 | {z } B2 Basis von U2 hC i = U1 + U2 , d.h. C erzeugt U1 + U2 C ist linear unabhängig. Seien si , rj , tk ∈ K mit n X ~k = − tk w | {z } | n X d X ∈U2 k=1 Prof. Dr. Bernhard Steffen si u~i − i=1 k=1 ⇒ ∃si0 ∈ K : d X ~k = tk w i=1 m X rj ~vj ∈ U1 ∩ U2 j=1 {z } ∈U1 si0 u~i ⇔ n X k=1 Mathematik für Informatiker 1 - 2012 ~k − tk w d X si0 u~i = ~0 i=1 441 / 669 Vektorräume Basen Dimensionsformel für Teilräume Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V . B1 Basis von U1 z }| { ~ 1, . . . , w ~ n } ist Basis von U1 + U2 . z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w | {z } B Basis von U1 ∩U2 | {z } B2 Basis von U2 hC i = U1 + U2 , d.h. C erzeugt U1 + U2 : C ist linear unabhängig. Seien si , rj , tk ∈ K mit n X ~k = − tk w | {z } | n X d X ∈U2 k=1 Prof. Dr. Bernhard Steffen si u~i − i=1 k=1 ⇒ ∃si0 ∈ K : d X ~k − tk w m X rj ~vj ∈ U1 ∩ U2 j=1 {z ∈U1 } si0 u~i = ~0 ⇒ si0 = tk = 0 i=1 Mathematik für Informatiker 1 - 2012 442 / 669 Vektorräume Basen Dimensionsformel für Teilräume Beweis: Seien U1 , U2 zwei Teilräume eines K -Vektorraums V . B1 Basis von U1 z }| { ~ 1, . . . , w ~ n } ist Basis von U1 + U2 . z.z.: C = {~v1 , . . . , ~vm , u~1 , . . . , u~d , w | {z } B Basis von U1 ∩U2 | {z } B2 Basis von U2 hC i = U1 + U2 , d.h. C erzeugt U1 + U2 : C ist linear unabhängig. Seien si , rj , tk ∈ K mit n X ~k = − tk w | {z } | n X d X =~0 k=1 Prof. Dr. Bernhard Steffen si u~i − i=1 k=1 ⇒ ∃si0 ∈ K : d X ~k − tk w m X rj ~vj ∈ U1 ∩ U2 j=1 {z ∈U1 } si0 u~i = ~0 ⇒ si0 = tk = 0 = rj = si i=1 Mathematik für Informatiker 1 - 2012 443 / 669 Vektorräume Basen Beispiel – Dimensionsformel für Teilräume Es sei V ein dreidimensionaler K -Vektorraum, und U1 6= U2 seien zwei verschiedene Teilräume von V mit dim U1 = dim U2 = 2. Dann muss dim (U1 ∩ U2 ) = 1 gelten, denn: Für dim (U1 + U2 ) kommen nur 2 oder 3 in Betracht. Wäre dim (U1 + U2 ) = 2 = dim Ui , i = 1, 2, dann wäre U1 = U1 + U2 = U2 . im Widerspruch zur Voraussetzung U1 6= U2 . Also muss dim (U1 + U2 ) = 3 sein. Mit der Dimensionsformel folgt die Behauptung. ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 444 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele Übersicht Kapitel 10 Lineare Gleichungssysteme und Invertieren von Matrizen 10.1 Definitionen und Beispiele 10.2 Das Gauß’sche Eliminationsverfahren 10.3 Invertieren von Matrizen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 445 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele Übersicht Kapitel 10 Lineare Gleichungssysteme und Invertieren von Matrizen 10.1 Definitionen und Beispiele 10.2 Das Gauß’sche Eliminationsverfahren 10.3 Invertieren von Matrizen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 446 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele Kapitel 10 Lineare Gleichungssysteme und Invertieren von Matrizen 10.1 Definitionen und Beispiele Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 447 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele Lineare Gleichungssysteme Es sei im Folgenden immer (K , +, ·) ein Körper (z.B. Q, R, C, Z2 , Z3 . . . ), d.h., man kann “normal rechnen”. Definition 5.1.1 (Lineares Gleichungssystem) Ein lineares Gleichungssystem mit n Gleichungen und m Variablen hat die Form: a1,1 x1 + a1,2 x2 + · · · a2,1 x1 + a2,2 x2 + · · · .. . + a1,m xm = b1 + a2,m xm = b2 an,1 x1 + an,2 x2 + · · · + an,m xm = bn (5.1) Die aij heißen Koeffizienten und die bi heißen rechte Seiten, mit aij , bi ∈ K . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 448 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele Lineare Gleichungssysteme – Lösungsmenge Gesucht sind dann Werte x1 , x2 , . . . , xm ∈ K , die (5.1) erfüllen. Die Lösungsmenge des linearen Gleichungssystems (5.1) ist die Menge L := (x1 , x2 , . . . , xm )t ∈ K m | x1 , x2 , . . . , xm erfüllen 5.1 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 449 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele Koeffizientenmatrix Definition 5.1.2 (Koeffizientenmatrix) Die Koeffizientenmatrix des linearen Gleichungssystems (5.1) über K ist die Matrix a11 a12 · · · a1m a21 a22 · · · a2m A= ∈ K n×m . .. . an1 an2 · · · anm Mit ~x = (x1 , x2 , . . . , xm )t ∈ K m und ~b = (b1 , . . . , bn )t ∈ K n können wir dann (5.1) auch in der Form A~x = ~b schreiben, mit Lösungsmenge n o L = (x1 , x2 , . . . , xm )t ∈ K m | A~x = ~b . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 450 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele Erweiterte Koeffizientenmatrix Definition 5.1.3 (Erweiterte Koeffizientenmatrix) Die erweiterte Matrix des linearen Gleichungssystems (5.1) ist die Matrix a11 a12 · · · a1m b1 a21 a22 · · · a2m b2 (A, ~b) := ∈ K n×(m+1) . .. . an1 an2 · · · Prof. Dr. Bernhard Steffen amm bn Mathematik für Informatiker 1 - 2012 451 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele Beispiele Beispiel (mit genau einer Lösung): Das lineare Gleichungssystem 2x + 2y y + z + z x = −2 = 4 = 1 über Q hat genau eine Lösung, nämlich x = −2, y = 1, z = 3. In Matrix-Schreibweise hat dieses Gleichungssystem die Form x −2 2 2 0 0 1 1 y = 4 , z 1 1 0 1 {z } | {z } | {z } | A ~ x ~ b und es ist L = {(−2, 1, 3)t } ⊂ Q3 . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 452 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele Beispiele (Forts.) Beispiel (mit keiner Lösung): Das lineare Gleichungssystem über Q x1 + x2 + x3 = 0 x1 + x2 + x3 = 1 besitzt offensichtlich keine Lösung: L = ∅. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 ♣ 453 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele Beispiele (Forts.) Beispiel (mit mehreren Lösungen): Das lineare Gleichungssystem über R x1 + 2x2 x1 + 2x2 + 2x3 2x1 + 4x2 3x3 + x4 + 3x4 + 3x4 + 2x4 = = = = 1 5 5 3 besitzt mehrere Lösungen, z.B.: x1 = −2, x2 = 0, x1 = 0, x3 = −1, x4 = 3 oder x2 = −1, x3 = −1, x4 = 3. ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 454 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele Anwendungen Lineare Gleichungssysteme gehören zu den einfachsten Formen, um Zusammenhänge in Systemen zu beschreiben. Man findet sie z.B. in der linearen Optimierung (→ wirtschaftswissenschaftliche Anwendungen). Beispiel aus Informatikvorlesung Eingebettete Systeme (Prof. Marwedel): Sog. Petri-Netze zur Modellierung der Bewegungen von Thalys-Zügen zwischen Köln, Amsterdam, Brüssel und Paris. Matrix zur Abbildung der Transitionen zwischen den Stationen (Knoten). Belegung der Stationen mit Zügen liefert für jede Transition eine lineare Gleichung mit konstantem Ergebnis (0) (Invariante!). Insgesamt entsteht ein lineares Gleichungssystem, wobei Lösungen in {0, 1}(!) gesucht werden. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 455 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Übersicht Kapitel 10 Lineare Gleichungssysteme und Invertieren von Matrizen 10.1 Definitionen und Beispiele 10.2 Das Gauß’sche Eliminationsverfahren 10.3 Invertieren von Matrizen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 456 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Kapitel 10 Lineare Gleichungssysteme und Invertieren von Matrizen 10.2 Das Gauß’sche Eliminationsverfahren Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 457 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen von Gleichungssystemen Grundlegend für die systematische Lösung linearer Gleichungssysteme ist das folgende einfache Lemma. Lemma 5.2.1 Die Lösungsmenge eines linearen Gleichungssystems über K ändert sich nicht, wenn man (i) zwei Gleichungen vertauscht, (ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K ) (iii) eine Gleichung mit c ∈ K \ {0} multipliziert. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 458 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen von Gleichungssystemen Lemma 5.2.1 Die Lösungsmenge eines linearen Gleichungssystems über K ändert sich nicht, wenn man (i) zwei Gleichungen vertauscht, (ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K ) (iii) eine Gleichung mit c ∈ K \ {0} multipliziert. Beweis: (i) Sei A~x = ~b ein lineares Gleichungssystem: t ~a1t ~x = b1 ~a1 b1 . .. .. . ~x = .. ⇔ . t ~ ~ ~ant an x = bn bn Das Vertauschen zweier Gleichungen ändert die Bedingung also nicht. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 459 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen von Gleichungssystemen Lemma 5.2.1 Die Lösungsmenge eines linearen Gleichungssystems über K ändert sich nicht, wenn man (i) zwei Gleichungen vertauscht, (ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K ) (iii) eine Gleichung mit c ∈ K \ {0} multipliziert. Beweis: (ii) Sei A~x = ~b ein lineares Gleichungssystem: ~a1t ~x = b1 .. . t ~ai ~x = bi .. . ~ajt ~x = bj .. . t ~an ~x = bn Prof. Dr. Bernhard Steffen ·c ⇒⇔ ~a1t ~x = b1 .. . t t ~ai ~x + c~aj ~x = bi + cbj .. . ~ajt ~x = bj .. einsetzen . t ~an ~x = bn Mathematik für Informatiker 1 - 2012 460 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen von Gleichungssystemen Lemma 5.2.1 Die Lösungsmenge eines linearen Gleichungssystems über K ändert sich nicht, wenn man (i) zwei Gleichungen vertauscht, (ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K ) (iii) eine Gleichung mit c ∈ K \ {0} multipliziert. Beweis: (iii) Sei A~x = ~b ein lineares Gleichungssystem, c ∈ K \ {0}: ~ait ~x = bi | · c ⇒ Prof. Dr. Bernhard Steffen ⇔ c~ait ~x = cbi | · c −1 Mathematik für Informatiker 1 - 2012 461 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Wir wollen uns diese Umformungen an einem Beispiel veranschaulichen: Beispiel: 3x3 +2x4 = 3 x1 +2x2 +2x3 +3x4 = 5 2x1 +4x2 +3x4 = 5 x1 +2x2 + x4 = 1 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 462 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): 3x3 +2x4 = 3 x1 +2x2 +2x3 +3x4 = 5 2x1 +4x2 +3x4 = 5 x1 +2x2 + x4 = 1 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 463 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x1 +2x2 +2x3 +3x4 = 5 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 464 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 (−1) (−2) x1 +2x2 +2x3 +3x4 = 5 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 465 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): −x1 −2x2 − x4 =−1 (−2) x1 +2x2 +2x3 +3x4 = 5 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 466 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): −x1 −2x2 − x4 =−1 (−2) x1 +2x2 +2x3 +3x4 = 5 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 467 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 −2x2 − x4 =−1 (−2) 0+2x2 +2x3 +3x4 = 5 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 468 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 − x4 =−1 (−2) 0+ 0+2x3 +3x4 = 5 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 469 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 − x4 =−1 (−2) 0+ 0+2x3 +3x4 = 5 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 470 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 =−1 (−2) 0+ 0+2x3 +2x4 = 5 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 471 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 (−2) 0+ 0+2x3 +2x4 = 4 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 472 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 (−2) 2x3 +2x4 = 4 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 473 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): −2x1 −4x2 −2x4 =−2 2x3 +2x4 = 4 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 474 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): −2x1 −4x2 −2x4 =−2 2x3 +2x4 = 4 2x1 +4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 475 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 −4x2 −2x4 =−2 2x3 +2x4 = 4 0+4x2 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 476 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 −2x4 =−2 2x3 +2x4 = 4 0+ 0 +3x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 477 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 =−2 2x3 +2x4 = 4 0+ 0 + x4 = 5 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 478 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 2x3 +2x4 = 4 0+ 0 + x4 = 3 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 479 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 2x3 +2x4 = 4 | · 1/2 x4 = 3 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 480 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 + x4 = 2 | · 1/2 x4 = 3 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 481 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 + x4 = 2 | · 1/2 (−3) x4 = 3 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 482 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 −3x3 −3x4 =−6 x4 = 3 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 483 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 −3x3 −3x4 =−6 x4 = 3 3x3 +2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 484 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 −3x4 =−6 x4 = 3 0+2x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 485 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 + x4 =−6 x4 = 3 0− x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 486 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 + x4 = 2 x4 = 3 0− x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 487 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 + x4 = 2 x4 = 3 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 488 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 + x4 = 2 x4 = 3 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 489 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 + x4 = 2 0= 0 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 490 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 + x4 = 2 0= 0 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 491 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 + x4 = 2 0= 0 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 492 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 + 0 =−1 0= 0 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 493 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 =−1 0= 0 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 494 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + x4 = 1 x3 =−1 0= 0 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 495 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 + 0 =−2 x3 =−1 0= 0 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 496 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 =−2 x3 =−1 0= 0 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 497 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): x1 +2x2 =−2 x3 =−1 0= 0 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 498 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): =−2 ⇒ x1 = −2 − 2x2 x1 +2x2 x3 =−1 0= 0 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 499 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): =−2 ⇒ x1 = −2 − 2x2 x1 +2x2 x3 =−1 ⇒ x3 = −1 0= 0 − x4 =−3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 500 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): =−2 ⇒ x1 = −2 − 2x2 x1 +2x2 x3 =−1 ⇒ x3 = −1 0= 0 − x4 =−3 ⇒ x4 = 3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 501 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen in lin. Gleichungssystemen Beispiel (Forts.): =−2 ⇒ x1 = −2 − 2x2 x1 +2x2 x3 =−1 ⇒ x3 = −1 0= 0 − x4 =−3 ⇒ x4 = 3 Somit ergibt sich als Lösungsmenge des linearen Gleichungssystems: L = {(−2 − 2x2 , x2 , −1, 3)|x2 ∈ R} ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 502 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Gauß’scher Algorithmus Der Gauß’sche Algorithmus (auch Gauß’sches Eliminationsverfahren genannt) benutzt die Operationen aus Lemma 5.2.1 sukzessive, um ein gegebenes lineares Gleichungssystem in ein anderes mit derselben Lösungsmenge(!) zu überführen, bei dem man die Lösung direkt ablesen kann. Definition 5.2.2 (Äquivalenz von lin. Gleichungssystemen) Zwei lineare Gleichungssysteme heißen äquivalent, wenn ihre Lösungsmengen identisch sind. Man nutzt also wieder eine Invarianten-Eigenschaft aus, um ein Problem zu vereinfachen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 503 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Elementare Zeilenumformungen bei Matrizen Die in Lemma 5.2.1 genannten System-Umformungen wirken sich auch auf die Matrizen A bzw. (A, ~b) des Gleichungssystems aus bzw. lassen sich durch Matrix-Umformungen realisieren: Definition 5.2.3 (Elementare Zeilenumformungen) Elementare Zeilenumformungen auf Matrizen aus K n×m sind Abbildungen der folgenden Form (für 1 ≤ k, l ≤ n): (i) Vk,l : K n×m → K n×m : “Vertausche k-te und l-te Zeile einer Matrix.” (ii) Ak,l (c) : K n×m → K n×m für c ∈ K : “Addiere das c-fache der k-ten Zeile zur l-ten Zeile einer Matrix.” (iii) Mk (c) : K n×m → K n×m für c ∈ K \ {0}: “Multipliziere die k-te Zeile einer Matrix mit c.” Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 504 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Matrixumformungen – Beispiel Wir wollen auch diese Umformungen an dem Beispiel von oben veranschaulichen. Beispiel: 0 1 2 1 Prof. Dr. Bernhard Steffen 0 2 4 2 3 2 0 0 2 3 3 1 3 5 5 1 Mathematik für Informatiker 1 - 2012 505 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Matrixumformungen – Beispiel Beispiel (Forts.): 0 1 2 1 Prof. Dr. Bernhard Steffen 0 2 4 2 3 2 0 0 2 3 3 1 3 5 5 1 Mathematik für Informatiker 1 - 2012 506 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Matrixumformungen – Beispiel Beispiel (Forts.): 1 1 2 0 Prof. Dr. Bernhard Steffen 2 2 4 0 0 2 0 3 1 3 3 2 1 5 5 3 Mathematik für Informatiker 1 - 2012 507 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Matrixumformungen – Beispiel Beispiel (Forts.): 1 1 2 0 Prof. Dr. Bernhard Steffen 2 2 4 0 0 2 0 3 1 3 3 2 1 5 5 3 Mathematik für Informatiker 1 - 2012 (−1) (−2) 508 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Matrixumformungen – Beispiel Beispiel (Forts.): 1 2 0 1 2 2 2 4 0 0 0 3 1 3 3 2 Prof. Dr. Bernhard Steffen 1 5 5 3 (−1) (−2) 1 0 ⇔ 0 0 Mathematik für Informatiker 1 - 2012 2 0 0 0 0 2 0 3 1 2 1 2 1 4 3 3 509 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Matrixumformungen – Beispiel Beispiel (Forts.): 1 2 0 1 0 0 2 2 0 0 0 1 0 0 3 2 1 4 | · 1/2 3 3 Prof. Dr. Bernhard Steffen (−3) 1 0 ⇔ 0 0 Mathematik für Informatiker 1 - 2012 2 0 0 0 0 1 0 0 1 1 1 −1 1 2 3 −3 510 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Matrixumformungen – Beispiel Beispiel (Forts.): 1 2 0 1 1 0 0 1 1 2 0 0 0 1 3 0 0 0 −1 −3 Prof. Dr. Bernhard Steffen 1 0 ⇔ 0 0 Mathematik für Informatiker 1 - 2012 2 0 0 0 0 0 1 0 0 0 0 −1 −2 −1 0 −3 511 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Matrixumformungen – Beispiel Beispiel (Forts.): 1 2 0 0 −2 0 0 1 0 −1 0 0 0 0 0 | · (−1) 0 0 0 −1 −3 Prof. Dr. Bernhard Steffen 1 0 ⇔ 0 0 Mathematik für Informatiker 1 - 2012 2 0 0 0 0 1 0 0 0 −2 0 −1 1 3 0 0 512 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Matrixumformungen – Beispiel Beispiel (Forts.): Die entstandene Matrix ist in Stufenform: 1 2 0 0 −2 0 0 1 0 −1 0 0 0 1 3 0 0 0 0 0 ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 513 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen durch Matrixmultiplikation Satz 5.2.4 Jede elementare Zeilenumformung (und damit jede Folge von elementaren Zeilenumformungen) an einer Matrix A ∈ K n×m ist Ergebnis einer Multiplikation von links mit einer regulären Matrix U ∈ K n×n . Beweis: Für jeden Typ der elementaren Zeilenumformungen wollen wir die entsprechende reguläre Matrix U ∈ K n×n angeben. Definition 5.2.3 (Elementare Zeilenumformungen) Elementare Zeilenumformungen auf Matrizen aus K n×m sind Abbildungen der folgenden Form (für 1 ≤ k, l ≤ n): (i) Vk,l : K n×m → K n×m : “Vertausche k-te und l-te Zeile einer Matrix.” (ii) Ak,l (c) : K n×m → K n×m für c ∈ K : “Addiere das c-fache der k-ten Zeile zur l-ten Zeile einer Matrix.” (iii) Mk (c) : K n×m → K n×m für c ∈ K \ {0}: “Multipliziere die k-te Zeile einer Matrix mit c.” Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 514 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen durch Matrixmultiplikation (Forts.) Beweis: Sei Eij diejenige Matrix aus K n×n , die überall mit Nullen besetzt ist bis auf die Position (i, j), an der sie eine 1 hat: 0 ... 0 .. . .. Eij = ... 1 . .. . 0 ... 0 Die elementaren Zeilenumformungen entsprechen dann einer Multiplikation von links mit den folgenden Matrizen U: Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 515 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen durch Matrixmultiplikation (Forts.) Beweis: (i) Vk,l : K n×m → K n×m : ”‘Vertausche k-te und l-te Zeile einer Matrix.”’ U ist regulär, da U · U = En . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 516 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen durch Matrixmultiplikation (Forts.) Beweis: (ii) Ak,l (c) : K n×m → K n×m für c ∈ K : ”‘Addiere das c-fache der k-ten Zeile zur l-ten Zeile einer Matrix.”’ U 0 ist regulär, da U 0 = En + c · Elk und (U 0 )−1 = En − c · Elk Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 517 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Umformungen durch Matrixmultiplikation (Forts.) Beweis: (iii) Mk (c) : K n×m → K n×m für c ∈ K \ {0}: ”‘Multipliziere die k-te Zeile einer Matrix mit c.”’ U 00 ist regulär, da U 00 = En + (c − 1) · Ekk und (U 00 )−1 = En + (c −1 − 1) · Ekk Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 518 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Definition der Stufenform Durch elementare Zeilenumformungen kann man eine beliebige n × m Matrix auf sogenannte Stufenform bringen. Definition 5.2.5 (Stufenform) Eine Matrix A ∈ K n×m hat Stufenform, wenn sie wie folgt aussieht: Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 519 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Reduktion auf Stufenform Satz 5.2.6 (Stufenform) Jede Matrix A ∈ K n×m kann man durch elementare Zeilenumformungen auf Stufenform bringen. Beweis: Induktion über die Zahl n der Zeilen. n = 1 : A = (a11 , a12 , . . . , a1m ). 1. Fall: alle a1j = 0 ⇒ A ist in Stufenform 2. Fall: es gibt ein j1 = min{j | a1j 6= 0}. ⇒ A = (0, . . . , 0, a1j1 , ∗ · · · ∗) −1 M1 (a1j ) → 1 (0, . . . , 0, 1, ∗ · · · ∗) ist in Stufenform. I. V.: Alle Matrizen des K n×m lassen sich auf Stufenform bringen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 520 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Reduktion auf Stufenform Beweis: Induktion über die Zahl n der Zeilen. I. V.: Alle Matrizen des K n×m lassen sich auf Stufenform bringen. n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen. 1. Fall: alle aij = 0 ⇒ A ist in Stufenform 2. Fall: es gibt ein j1 = min{j | ∃i : aij 6= 0} und ein i1 = min{i | aij1 6= 0}, 0 0 A= 0 0 0 Prof. Dr. Bernhard Steffen ... .. . ... ... ... .. . ... 0 0 0 0 0 0 .. . 0 ai1 j1 ∗ .. . ∗ ∗ ∗ ∗ ∗ ∗ Mathematik für Informatiker 1 - 2012 ... .. . ... ... ... .. . ... ∗ ∗ ∗ ∗ ∗ 521 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Reduktion auf Stufenform Beweis: Induktion über die Zahl n der Zeilen. I. V.: Alle Matrizen aus K n×m lassen sich auf Stufenform bringen. n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen. 1. Fall alle aij = 0 ⇒ A ist in Stufenform 2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}. 0 0 0 0 0 ... .. . ... ... ... .. . ... Prof. Dr. Bernhard Steffen 0 0 0 0 0 0 .. . 0 ai1 j1 ∗ .. . ∗ ∗ ∗ ∗ ∗ ∗ ... .. . ... ... ... .. . ... ∗ ∗ ∗ ∗ 0 −1 0 Mi1 (ai j ) →1 1 0 0 ∗ Mathematik für Informatiker 1 - 2012 0 ... .. . ... ... ... .. . ... 0 0 0 0 0 0 .. . 0 1 ∗ .. . ∗ ∗ ∗ ∗ ∗ ∗ ... .. . ... ... ... .. . ... ∗ ∗ ∗ ∗ ∗ 522 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Reduktion auf Stufenform Beweis: Induktion über die Zahl n der Zeilen. I. V.: Alle Matrizen aus K n×m lassen sich auf Stufenform bringen. n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen. 1. Fall alle aij = 0 ⇒ A ist in Stufenform 2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}. 0 0 0 0 0 ... .. . ... ... ... .. . ... Prof. Dr. Bernhard Steffen 0 0 0 0 0 0 .. . 0 1 ∗ .. . ∗ ∗ ∗ ∗ ∗ ∗ ... .. . ... ... ... .. . ... ∗ ∗ ∗ ∗ Ai1 ,k (−akj1 ),k6=i1 → ∗ Mathematik für Informatiker 1 - 2012 0 0 0 0 0 ... .. . ... ... ... .. . ... 0 0 0 0 0 0 .. . 0 1 0 .. . 0 ∗ ∗ ∗ ∗ ∗ ... .. . ... ... ... .. . ... ∗ ∗ ∗ ∗ ∗ 523 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Reduktion auf Stufenform Beweis: Induktion über die Zahl n der Zeilen. I. V.: Alle Matrizen aus K n×m lassen sich auf Stufenform bringen. n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen. 1. Fall alle aij = 0 ⇒ A ist in Stufenform 2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}. 0 0 0 0 0 ... .. . ... ... ... .. . ... Prof. Dr. Bernhard Steffen 0 0 0 0 0 0 .. . 0 1 0 .. . 0 ∗ ∗ ∗ ∗ ∗ ... .. . ... ... ... .. . ... ∗ 0 ∗ Vi1 ,1 0 ∗ → ∗ 0 ... ... .. . ... 0 0 0 1 0 .. . 0 ∗ ∗ ∗ ... ... .. . ... ∗ ∗ ∗ ∗ Mathematik für Informatiker 1 - 2012 524 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Reduktion auf Stufenform Beweis: Induktion über die Zahl n der Zeilen. I. V.: Alle Matrizen aus K n×m lassen sich auf Stufenform bringen. n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen. 1. Fall alle aij = 0 ⇒ A ist in Stufenform 2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}. 0 0 0 Prof. Dr. Bernhard Steffen ... ... .. . ... 0 0 0 1 0 .. . 0 ∗ ∗ ∗ ... ... .. . ... Mathematik für Informatiker 1 - 2012 ∗ ∗ ∗ 525 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Reduktion auf Stufenform Beweis: Induktion über die Zahl n der Zeilen. I. V.: Alle Matrizen aus K n×m lassen sich auf Stufenform bringen. n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen. 1. Fall alle aij = 0 ⇒ A ist in Stufenform 2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}. 0 0 0 ... ... .. . ... 0 0 0 1 0 .. . 0 ∗ ∗ ∗ ... ... .. . ... ∗ ∗ ∗ Sei B ∈ K n×m die Matrix, die aus den Zeilen 2 bis n + 1 besteht. I.V.: B lässt sich auf Stufenform bringen. Die Einträge in der ersten Zeile oberhalb der Stufen können schließlich mithilfe von Ak,1 (c)- Operationen auf 0 gebracht werden. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 526 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Reduktion auf Stufenform Satz 5.2.6 (Stufenform) Jede Matrix A ∈ K n×m kann man durch elementare Zeilenumformungen auf Stufenform bringen. Wir wenden den Satz auf die erweiterte Matrix (A, ~b) eines linearen Gleichungssystems an und nehmen an, dass die Stufen in den Spalten j1 ≤ j2 ≤ · · · ≤ jr ≤ m + 1 auftreten. Die Spalte ji , i = 1, . . . , r , ist also die Spalte, in der die i-te Zeile den ersten Eintrag ungleich Null (bzw. gleich 1) enthält. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 527 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Behandlung der Stufenform Wir unterscheiden nun zwei Fälle. 1. Fall: jr = m + 1, d.h., die r -te Gleichung des umgeformten linearen Gleichungssystems lautet 0x1 + 0x2 + · · · + 0xn = 1, so dass das Gleichungssystem offenbar keine Lösung besitzt. In diesem Fall ist also L = ∅. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 528 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Behandlung der Stufenform (Forts.) 2. Fall: jr ≤ m Das umgeformte Gleichungssystem lautet also: n X xj 1 + xj 2 + j=j1 +1 j6=j2 ,...,jr n X j=j2 +1 j6=j3 ,...,jr xjr + n X 0 a10 j xj = a1,n+1 0 a20 j xj = a2,n+1 .. . ar0j xj = ar0 ,n+1 j=jr +1 0=0 .. . 0=0 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 529 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Behandlung der Stufenform (Forts.) Alle xi außer den xj1 , . . . , xjr sind frei wählbar; aus der Wahl dieser anderen xi ergeben sich dann die restlichen xj1 , . . . , xjr wie folgt: 0 xj1 := a1,n+1 − 0 xj2 := a2,n+1 − n X a10 j xj j=j1 +1 j6=j2 ,...,jr n X a20 j xj j=j2 +1 j6=j3 ,...,jr .. . xjr := ar0 ,n+1 − n X ar0 j xj j=jr +1 Damit haben wir also eine vollständige Beschreibung der Lösungsmenge des linearen Gleichungssystems. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 530 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Eindeutige Lösbarkeit Aus der konstruktiven Beschreibung der Lösungsmenge sehen wir sofort, dass das Gleichungssystem genau dann eindeutig lösbar ist, wenn keine xi mehr frei wählbar sind, sondern die Lösungen durch die (umgeformten) rechten Seiten eindeutig bestimmt werden. Das ist genau dann der Fall, wenn {j1 , . . . , jr } = {1, . . . , m} ist. Insbesondere ist dann r = m. Da es höchstens so viele Stufen wie Zeilen gibt, erhalten wir also das folgende Korollar: Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 531 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Eindeutige Lösbarkeit Wdh. Definition 5.1.1 Ein lineares Gleichungssystem mit n Gleichungen und m Variablen hat die Form: a1,1 x1 a2,1 x1 + + a1,2 x2 a2,2 x2 + + an,1 x1 + an,2 x2 + ··· ··· .. . ··· + + a1,m xm a2,m xm = = b1 b2 + an,m xm = bn Die aij heißen Koeffizienten und die bi heißen rechte Seiten, mit aij , bi ∈ K . Korollar 5.2.7 Falls das lineare Gleichungssystem (s.o.) eine eindeutige Lösung besitzt, so gilt m ≤ n. Beweis: Falls das lineare Gleichungssystem eine eindeutige Lösung besitzt, gilt {j1 , . . . , jr } = {1, . . . , m}. ⇒ r = m, r ≤ n ⇒ m ≤ n Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 532 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Homogene lineare Gleichungssysteme Wdh. Definition 5.1.1 Ein lineares Gleichungssystem mit n Gleichungen und m Variablen hat die Form: a1,1 x1 a2,1 x1 + + a1,2 x2 a2,2 x2 + + an,1 x1 + an,2 x2 + ··· ··· .. . ··· + + a1,m xm a2,m xm = = b1 b2 + an,m xm = bn Die aij heißen Koeffizienten und die bi heißen rechte Seiten, mit aij , bi ∈ K . Definition 5.2.8 (Homogene lineare Gleichungssysteme) Das lineare Gleichungssystem (5.1) heißt homogen, wenn b1 = b2 = . . . = bm = 0. Ein homogen lineares Gleichungssystem hat immer eine Lösung, nämlich x1 = x2 = . . . = xn = 0. Diese Lösung (x1 , . . . , xn )t = ~0 heißt triviale Lösung. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 533 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Homogene Systeme und eindeutige Lösbarkeit Satz 5.2.9 Ist n = m und hat das homogene lineare Gleichungssystem a11 x1 a21 x1 + + a12 x2 a22 x2 + ··· + ··· .. . am1 x1 + am2 x2 + · · · + + a1n xn = 0 a2n xn = 0 + amn xn = 0 nur die triviale Lösung, so hat (5.1) für jede rechte Seite b1 , . . . , bm eine eindeutig bestimmte Lösung. Beweis: Wir betrachten die erweiterte Matrix (A, ~0) des homogenen Gleichungssystems. Da dieses eindeutig lösbar ist, muss sich (A, ~0) durch elementare Zeilenumformungen in die folgende Stufenform bringen lassen: Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 534 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Homogene Systeme und eindeutige Lösbarkeit Beweis: Wir betrachten die erweiterte Matrix (A, ~0) des homogenen Gleichungssystems. Da dieses eindeutig lösbar ist, muss sich (A, ~0) durch elementare Zeilenumformungen in die folgende Stufenform bringen lassen: 1 0 ... 0 0 0 1 ... 0 0 .. .. . . .. .. . . . . . 0 0 ... 1 0 (⇒ n = m). Wendet man dieselben Zeilenumformungen auf die Matrix (A, ~b) für ein beliebiges ~b ∈ K n an, so erhält man die Matrix 1 0 . . . 0 b10 0 1 . . . 0 b0 2 .. .. . . . . . . . .. .. 0 0 ... Prof. Dr. Bernhard Steffen 1 bn0 Mathematik für Informatiker 1 - 2012 535 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren Homogene Systeme und eindeutige Lösbarkeit Beweis:Wendet man dieselben Zeilenumformungen auf die Matrix (A, ~b) für ein beliebiges ~b ∈ K n an, so erhält man die Matrix 1 0 . . . 0 b10 0 1 . . . 0 b0 2 .. .. . . .. .. . . . . . 0 0 . . . 1 bn0 Die eindeutige Lösung des zugehörigen Gleichungssystems lässt sich daraus ablesen. x1 = b10 , x2 = b20 , . . . , xn = bn0 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 536 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen Übersicht Kapitel 10 Lineare Gleichungssysteme und Invertieren von Matrizen 10.1 Definitionen und Beispiele 10.2 Das Gauß’sche Eliminationsverfahren 10.3 Invertieren von Matrizen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 537 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen Kapitel 10 Lineare Gleichungssysteme und Invertieren von Matrizen 10.3 Invertieren von Matrizen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 538 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen Erweiterung des Gauß-Algorithmus Im letzten Abschnitt haben wir gesehen, wie man lineare Gleichungssysteme A~x = ~b algorithmisch löst und dabei gleichzeitig Aussagen über die allgemeine Lösbarkeit solcher Gleichungssysteme erhält. Von zentraler Bedeutung waren dabei elementare Zeilenumformungen, die man auch durch Multiplikation (von links) mit regulären, d.h. invertierbaren Matrizen realisieren kann. Die Lösbarkeit homogener Gleichungssysteme ist fundamental für die Lösbarkeit ganzer Klassen von Gleichungssystemen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 539 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen Erweiterung des Gauß-Algorithmus (Forts.) In diesem Abschnitt wollen wir zeigen, wie man durch eine Erweiterung der Anwendung des Gauß-Algorithmus gleichzeitig Lösungen für beliebige rechte Seiten erhalten (bzw. vorbereiten) und das Inverse einer regulären Matrix berechnen kann. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 540 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen Eine allgemeine Gleichungssystem-Matrix Um ein Gleichungssystem A~x = ~b, A ∈ K n×m zu lösen, haben wir den Gauß-Algorithmus auf die Matrix (A, ~b) angewendet. Wollen wir danach ein System A~x = ~c lösen, müssen wir den Algorithmus mit der Matrix (A, ~c ) wiederholen. Um diesen Aufwand zu reduzieren, lösen wir nun Gleichungssysteme mit einer generischen rechten Seite – wir wenden den Gauß-Algorithmus auf die Matrix (A, En ) ∈ K n×(m+n) an. Die Matrix En nimmt bei der Modifizierung die Informationen der Zeilenumformungen auf. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 541 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen Identifikation der Umformungsinformationen Konkret passiert bei den Zeilenumformungen der Matrix (A, En ) folgendes: Wir formen A und damit (A, En ) auf Stufenform um und erhalten eine Matrix (B, C ); dies entspricht einer Multiplikation von links mit einer (regulären) Umformungsmatrix U, also B = U · A und C = U · En = U. B hat Stufenform und C ist die Umformungsmatrix. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 542 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen Lösung beliebiger Gleichungssysteme A~x = ∗ Für beliebige rechte Seiten ~b des Gleichungssystems A~x = ~b kann man nun die Informationen zur Stufenform wie folgt ausnutzen: Stufenform wird erreicht durch B~x = U · A~x = U · ~b; Wegen U · A~x = U · ~b genau dann, wenn A~x = ~b (U invertierbar!) ist jede Lösung von U · A~x = U · ~b (die sich in der Regel leicht berechnen lässt) auch eine Lösung von A~x = ~b. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 543 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen Invertieren von Matrizen Dieselbe Idee – nämlich die Betrachtung der Matrix (A, En ) anstelle von A – kann man auch benutzen, um das Inverse von (regulären) Matrizen auszurechnen. Sei A~x = ~b ein Gleichungssystem mit regulärer Matrix A ∈ K n×n . Dann ist A~x = ~b genau dann, wenn ~x = A−1 ~b, das Gleichungssystem ist also eindeutig lösbar. Durch Anwendung des Gauß-Algorithmus erhalten wir aus der Matrix (A, En ) die Matrix (En , U) mit En = B = U · A, also ist U = A−1 . Wir können daher mit Hilfe des Gauß-Algorithmus zu regulären Matrizen das (multiplikative) Inverse bestimmen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 544 / 669 Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen Invertieren von Matrizen (Forts.) Satz 5.3.1 Sei A ∈ K n×n eine reguläre quadratische Matrix. Dann ist A~x = ~b eindeutig lösbar, und man erhält das Inverse A−1 , indem man dieselben Zeilenumformungen auf die Einheitsmatrix in derselben Reihenfolge anwendet. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 545 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Übersicht Kapitel 11 Lineare Abbildungen und Matrizen 11.1 Lineare Abbildungen und Isomorphismen 11.2 Matrizen linearer Abbildungen 11.3 Dimensionssatz und Homomorphiesatz 11.4 Hauptsatz über lineare Gleichungssysteme 11.5 Algebra der linearen Abbildungen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 546 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Übersicht Kapitel 11 Lineare Abbildungen und Matrizen 11.1 Lineare Abbildungen und Isomorphismen 11.2 Matrizen linearer Abbildungen 11.3 Dimensionssatz und Homomorphiesatz 11.4 Hauptsatz über lineare Gleichungssysteme 11.5 Algebra der linearen Abbildungen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 547 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Kapitel 11 Lineare Abbildungen und Matrizen 11.1 Lineare Abbildungen und Isomorphismen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 548 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Lineare Abbildungen Homomorphismen sind strukturerhaltende Abbildungen, d.h. Abbildungen, die mit den Verknüpfungen auf Mengen verträglich sind. Vektorraumhomomorphismen werden auch lineare Abbildungen genannt; sie sind mit der Addition von Vektoren und mit der Skalarmultiplikation verträglich. Definition 6.1.1 (Lineare Abbildungen, Vektorraumhomomorphismus) Es seien V und W zwei K -Vektorräume und ϕ : V → W eine Abbildung. Dann heißt ϕ linear oder Vektorraumhomomorphismus, falls ϕ(~v + ~v 0 ) = ϕ(~v ) + ϕ(~v 0 ) für alle ~v , ~v 0 ∈ V und ϕ(s · ~v ) = s · ϕ(~v ) Prof. Dr. Bernhard Steffen für alle s ∈ K und ~v ∈ V . Mathematik für Informatiker 1 - 2012 549 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Eigenschaften linearer Abbildungen Nullvektoren werden unter Vektorraumhomomorphismen wieder auf Nullvektoren abgebildet: Satz 6.1.2 Sind V und W zwei K -Vektorräume und ist ϕ : V → W eine lineare Abbildung, so ist ϕ(~0) = ~0. Beweis: ϕ(~0) = ϕ(0 · ~0) = 0 · ϕ(~0) = ~0. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 550 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Eigenschaften linearer Abbildungen (Forts.) Vektorraumhomomorphismen/Lineare Abbildungen lassen sich auch durch eine Bedingung charaktierisieren: Satz 6.1.3 (Charakterisierung linearer Abbildungen) Es seien V und W zwei K -Vektorräume und ϕ : V → W eine Abbildung. Die Abbildung ϕ ist genau dann linear, wenn ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 ) für alle s ∈ K und ~v , ~v 0 ∈ V . (6.1) Beweis: Seien ~v , ~v 0 ∈ V , s ∈ K . ”‘⇒”’ Sei ϕ linear. Dann ist ϕ(s · ~v + ~v 0 ) = ϕ(s · ~v ) + ϕ(~v 0 ) (Additivität) 0 = s · ϕ(~v ) + ϕ(~v ). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 (Homogenität) 551 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Eigenschaften linearer Abbildungen (Forts.) Satz 6.1.3 (Charakterisierung linearer Abbildungen) Es seien V und W zwei K -Vektorräume und ϕ : V → W eine Abbildung. Die Abbildung ϕ ist genau dann linear, wenn ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 ) für alle s ∈ K und ~v , ~v 0 ∈ V . Beweis: Seien ~v , ~v 0 ∈ V , s ∈ K . ”‘⇐”’ Sei ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 ) für alle s ∈ K und ~v , ~v 0 ∈ V . Additivität: ϕ(~v + ~v 0 ) = ϕ(1 · ~v + ~v 0 ) = 1 · ϕ(~v ) + ϕ(~v 0 ) = ϕ(~v ) + ϕ(~v 0 ) Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 552 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Eigenschaften linearer Abbildungen (Forts.) Satz 6.1.3 (Charakterisierung linearer Abbildungen) Es seien V und W zwei K -Vektorräume und ϕ : V → W eine Abbildung. Die Abbildung ϕ ist genau dann linear, wenn ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 ) für alle s ∈ K und ~v , ~v 0 ∈ V . Beweis: Seien ~v , ~v 0 ∈ V , s ∈ K . ”‘⇐”’ Sei ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 ) für alle s ∈ K und ~v , ~v 0 ∈ V . Additivität Homogenität: ϕ(s · ~v ) = ϕ(s · ~v + ~0) = s · ϕ(~v ) + ϕ(~0) = s · ϕ(~v ) Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 553 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Lineare Abbildungen – Beispiele Beispiel: Es sei V ein K -Vektorraum und c ∈ K ein Skalar. Dann ist die Abbildung ϕc : V → V ~v 7→ c · ~v linear. Denn ϕc (s · ~v + ~v 0 ) = c · (s · ~v + ~v 0 ) = s · (c · ~v ) + c · ~v 0 = s · ϕc (~v ) + ϕc (~v 0 ) für alle s ∈ K und ~v , ~v 0 ∈ V . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 ♣ 554 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Lineare Abbildungen – Beispiele (Forts.) Beispiel (Nullabbildung): Sind V und W zwei K -Vektorräume, dann ist die Abbildung ϕ:V →W ~v 7→ ~0 für alle ~v ∈ V linear, also ein Vektorraumhomomorphismus. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 ♣ 555 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Lineare Abbildungen – Beispiele (Forts.) Beispiel (Differenzierbare Funktionen): Es sei V der R-Vektorraum aller differenzierbarer Funktionen von R nach R, also V := { f : R → R | f ist differenzierbar } ⊂ RR , und f 0 bezeichne die Ableitung der Funktion f ∈ V . Dann ist die durch f 7→ f 0 definierte Abbildung von V nach RR linear. Dies folgt sofort aus den bekannten Ableitungsregeln für Funktionen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 ♣ 556 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Lineare Abbildung einer Matrix Ein besonders wichtiges Beispiel für eine lineare Abbildung wird durch den folgenden Satz gegeben: Satz 6.1.4 Sei A ∈ K m×n eine Matrix. Definiere ϕA durch ϕA : K n → K m , ~x 7→ A · ~x . Jede solche Abbildung ϕA ist linear. Beweis: Folgt sofort aus den Rechenregeln für Matrizen. Wir werden später sehen, dass alle linearen Abbildungen zwischen Vektorräumen K m und K n diese Form haben, also durch Matrizen darstellbar sind. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 557 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Hintereinanderschaltung linearer Abbildungen Schaltet man zwei lineare Abbildungen (geeignet) hintereinander, so erhält man wieder eine lineare Abbildung: Lemma 6.1.5 Es seien U, V und W drei K -Vektorräume. Sind ϕ : U → V und ψ : V → W lineare Abbildungen, so ist die Hintereinanderausführung ψ◦ϕ : U →W ~v 7→ ψ(ϕ(~v )) ebenfalls eine lineare Abbildung. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 558 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Hintereinanderschaltung linearer Abbildungen Lemma 6.1.5 Es seien U, V und W drei K -Vektorräume. Sind ϕ : U → V und ψ : V → W lineare Abbildungen, so ist die Hintereinanderausführung ψ◦ϕ : U →W ~ v 7→ ψ(ϕ(~ v )) ebenfalls eine lineare Abbildung. ~ ∈ V und s ∈ K . Beweis: Seien ~v , w ~ ) = s · ψ ◦ ϕ(~v ) + ψ ◦ ϕ(~ z.z.: ψ ◦ ϕ (s · ~v + w w) ~ ) = ψ(ϕ(s · ~v + w ~ )) ψ ◦ ϕ (s · ~v + w = ψ(s · ϕ(~v ) + ϕ(~ w )) = s · ψ(ϕ(~v )) + ψ(ϕ(~ w )) = s · ψ ◦ ϕ(~v ) + ψ ◦ ϕ(~ w) Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 559 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Basen und lineare Abbildungen Satz 6.1.6 Es seien V und W zwei K -Vektorräume, {~v1 , . . . , ~vn } ⊂ V sei eine Basis ~ 1, . . . , w ~ n ∈ W seien n Vektoren in W . von V , und w Dann gibt es genau eine lineare Abbildung ϕ:V →W mit ~i ϕ(~vi ) = w für i = 1, · · · , n. (6.2) Lineare Abbildungen auf V sind also durch die Bilder auf einer Basis von V eindeutig bestimmt. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 560 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Basen und lineare Abbildungen Satz 6.1.6 Es seien V und W zwei K -Vektorräume, {~ v1 , . . . , ~ vn } ⊂ V sei eine Basis von V , und ~ 1, . . . , w ~ n ∈ W seien n Vektoren in W . Dann gibt es genau eine lineare Abbildung w ϕ:V →W mit ~i ϕ(~ vi ) = w für i = 1, · · · , n. (6.3) ~ i für i = 1, · · · , n. Beweis: Sei ~v ∈ V , ϕ : V → W linear mit ϕ(~vi ) = w ⇒ ϕ(~v ) = ϕ(s1 · ~v1 + · · · + sn · ~vn ) = s1 ϕ(~v1 ) + · · · + sn ϕ(~vn ) ~ 1 + · · · + sn · w ~n = s1 · w Eindeutigkeit der Darstellung als Linearkombination von Basisvektoren ⇒ ϕ ist unter den Annahmen eindeutig bestimmt Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 561 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Basen und lineare Abbildungen ~ i für i = 1, · · · , n. Beweis: Sei ~v ∈ V , ϕ : V → W linear mit ϕ(~vi ) = w ⇒ ϕ(~v ) = ϕ(s1 · ~v1 + · · · + sn · ~vn ) ~ 1 + · · · + sn · w ~n = s1 · w ⇒ ϕ ist unter den Annahmen eindeutig bestimmt z.z.: Die Annahmen treffen auf ϕ zu Linearität: Seien u~, ~v ∈ V . ⇒ ϕ(r · u~ + ~v ) = ϕ(r · (s1 · ~v1 + · · · + sn · ~vn ) + t1 · ~v1 + · · · + tn · ~vn ) = ϕ((rs1 + t1 ) · ~v1 + · · · + (rsn + tn ) · ~vn ) ~ 1 + · · · + (rsn + tn ) · w ~n = (rs1 + t1 ) · w ~ 1 + · · · + sn · w ~ n ) + t1 · w ~ 1 + · · · + tn · w ~n = r (s1 · w = r ϕ(~ u ) + ϕ(~v ). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 562 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Basen und lineare Abbildungen ~ i für i = 1, · · · , n. Beweis: Sei ~v ∈ V , ϕ : V → W linear mit ϕ(~vi ) = w ⇒ ϕ(~v ) = ϕ(s1 · ~v1 + · · · + sn · ~vn ) ~ 1 + · · · + sn · w ~n = s1 · w ⇒ ϕ ist unter den Annahmen eindeutig bestimmt z.z.: Die Annahmen treffen auf ϕ zu Linearität ~ i für i = 1, · · · , n : Sei i ∈ {1, · · · , n} ϕ(~vi ) = w ⇒ ϕ(~ vi ) = ϕ(1 · ~vi ) = 1~ wi Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 563 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Basen und lineare Abbildungen Beispiel (im R2 ): Wir betrachten den R-Vektorraum R2 mit der Basis {~ e1 , e~2 }. Eine lineare Abbildung ϕ : R2 → R2 ist dann eindeutig durch die Bilder 1 ~ ~ ~ ~ 2 = 02 ). w1 := ϕ(~ e1 ) und w2 := ϕ(~ e2 ) gegeben (z.B. w1 = 1 und w Für einen beliebigen Vektor ~v = ss12 ∈ R2 gilt dann ~ 1 + s2 · w ~ 2. ϕ(~v ) = s1 · w s1 ~ 1 = 11 und w ~ 2 = 02 ist dann ϕ(~v ) = s1 +2s Für w . 2 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 ♣ 564 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Darstellende Matrix einer linearen Abbildung Korollar 6.1.7 Jede lineare Abbildung ϕ : K n → K m ist von der Form ϕ = ϕA für eine Matrix A ∈ K m×n , wobei ϕA : K n → K m , ~x 7→ A · ~x . Die Matrix A heißt auch darstellende Matrix von ϕ. Beweis: Sei ϕ : K n → K m eine lineare Abbildung z.z.: Es gibt ein A ∈ K m×n mit ϕ(~x ) = A · ~x ∀~x ∈ K n Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 565 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Darstellende Matrix einer linearen Abbildung Beweis: Sei ϕ : K n → K m eine lineare Abbildung. z.z.: Es gibt ein A ∈ K m×n mit ϕ(~x ) = A · ~x ∀~x ∈ K n Sei {~ e1 , . . . , e~n } die Standardbasis des K n und a1i .. ϕ(~ ei ) = . ∈ K m , 1 ≤ i ≤ n. ami Definiere a11 .. A= . ... am1 . . . Prof. Dr. Bernhard Steffen a1n .. ∈ K m×n . . amn Mathematik für Informatiker 1 - 2012 566 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Darstellende Matrix einer linearen Abbildung Beweis: Sei ϕ : K n → K m eine lineare Abbildung. z.z.: Es gibt ein A ∈ K m×n mit ϕ(~x ) = A · ~x ∀~x ∈ K n Sei {~ e1 , . . . , e~n } die Standardbasis des K n und a1i a11 . . . a1n .. ∈ K m×n . ϕ(~ ei ) = ... , A = ... . ami am1 . . . amn a1i ⇒ ϕ(~ ei ) = ... = A · e~i ami ⇒ ϕ(~x ) = A · ~x ∀~x ∈ K n Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 567 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Charakterisierung linearer Abbildungen – Idee Damit kennen wir alle linearen Abbildungen zwischen K n und K m . Wir wollen diese Erkenntnis im nächsten Unterkapitel auch für lineare Abbildungen zwischen beliebigen Vektorräumen V und W nutzen. Idee: Wir “zerlegen” eine lineare Abbildung ϕ : V → W durch Hintereinanderschaltung linearer Abbildungen ϕ1 ϕ2 ϕ3 ϕ : V −→ K n −→ K m −→W (n, m geeignet). ϕ2 muss dann ein Homomorphismus ϕA sein, ϕ1 und ϕ3 “klassifizieren” V bzw. W . Zu diesem Zweck sind die Eigenschaften der Injektivität und Surjektivität nützlich. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 568 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Isomorphismen & Co. Lineare Abbildungen können injektiv, surjektiv und auch bijektiv sein: Definition 6.1.8 (Monomorphismus, Epimorphismus, Isomorphismus) (i) Ein injektiver Vektorraumhomomorphismus heißt (Vektorraum-) Monomorphismus. (ii) Ein surjektiver Vektorraumhomomorphismus heißt (Vektorraum-) Epimorphismus. (iii) Ein bijektiver Vektorraumhomomorphismus heißt (Vektorraum-) Isomorphismus. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 569 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Isomorphe Vektorräume Definition 6.1.9 (Isomorphie) Zwei K -Vektorräume V und W heißen isomorph (in Zeichen V ∼ = W ), falls es einen Vektorraumisomorphismus ϕ : V → W gibt. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 570 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Eigenschaften von Isomorphismen Satz 6.1.10 (Eigenschaften von Isomorphismen) Es seien U, V und W drei K -Vektorräume. (i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung ϕ−1 : V → U ein Isomorphismus. (ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus. (iii) Die Isomorphie “ ∼ = “ ist eine Äquivalenzrelation auf der Menge der K -Vektorräume. Beweis: (i) Sei ϕ : U → V ein Isomorphismus (linear und bijektiv). ⇒ ϕ−1 : V → U ist definiert und bijektiv. z.z.: ϕ−1 ist linear Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 571 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Eigenschaften von Isomorphismen Beweis: (i) Sei ϕ : U → V ein Isomorphismus (linear und bijektiv). ⇒ ϕ−1 : V → U ist definiert und bijektiv. z.z.: ϕ−1 ist linear ϕ−1 (s · ~v1 + ~v2 ) = ϕ−1 (s · ϕ(~ u1 ) + ϕ(~ u2 )) = ϕ−1 (ϕ(s · u~1 ) + ϕ(~ u2 )) = ϕ−1 (ϕ(s · u~1 + u~2 )) = s · u~1 + u~2 = s · ϕ−1 (~v1 ) + ϕ−1 (~v2 ) Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 572 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Eigenschaften von Isomorphismen Satz 6.1.10 (Eigenschaften von Isomorphismen) Es seien U, V und W drei K -Vektorräume. (i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung ϕ−1 : V → U ein Isomorphismus. (ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus. (iii) Die Isomorphie “ ∼ = “ ist eine Äquivalenzrelation auf der Menge der K -Vektorräume. Beweis: (ii) Folgt aus der Bijektivität von Hintereinanderausführungen bijektiver Abbildungen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 573 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Eigenschaften von Isomorphismen Satz 6.1.10 (Eigenschaften von Isomorphismen) Es seien U, V und W drei K -Vektorräume. (i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung ϕ−1 : V → U ein Isomorphismus. (ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus. (iii) Die Isomorphie “ ∼ = “ ist eine Äquivalenzrelation auf der Menge der K -Vektorräume. Beweis: (iii) V ∼ = W ⇔ ∃ Isomorphismus ϕ : V → W Reflexivität: idV : V → V , ~v 7→ ~v ist ein Isomorphismus ⇒V ∼ =V Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 574 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Eigenschaften von Isomorphismen Satz 6.1.10 (Eigenschaften von Isomorphismen) Es seien U, V und W drei K -Vektorräume. (i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung ϕ−1 : V → U ein Isomorphismus. (ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus. (iii) Die Isomorphie “ ∼ = “ ist eine Äquivalenzrelation auf der Menge der K -Vektorräume. Beweis: (iii) V ∼ = W ⇔ ∃ Isomorphismus ϕ : V → W Reflexivität Symmetrie: (i) ⇒ aus V ∼ = W folgt W ∼ =V Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 575 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Eigenschaften von Isomorphismen Satz 6.1.10 (Eigenschaften von Isomorphismen) Es seien U, V und W drei K -Vektorräume. (i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung ϕ−1 : V → U ein Isomorphismus. (ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus. (iii) Die Isomorphie “ ∼ = “ ist eine Äquivalenzrelation auf der Menge der K -Vektorräume. Beweis: (iii) V ∼ = W ⇔ ∃ Isomorphismus ϕ : V → W Reflexivität Symmetrie Transitivität: (ii) ⇒ aus U ∼ = V und V ∼ = W folgt U ∼ =W Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 576 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Die Abbildung cB Sei V ein K -Vektorraum der Dimension n, sei B = {~v1 , . . . , ~vn } ⊂ V eine Basis von V . Wir wollen im Folgenden immer voraussetzen, dass durch die Nummerierung i = 1, . . . , n eine Reihenfolge der Basiselemente ~v1 , . . . , ~vn von B festgelegt ist. Aus der Definition von Basen folgt, dass es zu jedem Vektor ~v ∈ V eindeutige Koeffizienten s1 , . . . , sn ∈ K gibt mit ~v = s1 · ~v1 + · · · + sn · ~vn . Wegen der Festlegung der Reihenfolge können wir dem Vektor ~v ∈ V diese Koeffizienten eindeutig zuordnen und erhalten eine Abbildung s1 .. n ~v = s1 · ~v1 + · · · + sn · ~vn 7→ . . cB : V → K , (6.4) sn Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 577 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Die Abbildung cB (Forts.) Satz 6.1.11 Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit Umkehrabbildung s1 .. −1 n cB : K → V , . 7→ ~v = s1 · ~v1 + · · · + sn · ~vn . sn Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 578 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Die Abbildung cB (Forts.) Satz 6.1.11 Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit Umkehrabbildung s1 .. −1 n cB : K → V , v = s1 · ~ v1 + · · · + sn · ~ vn . . 7→ ~ sn ~ ∈ V , s ∈ K , und Beweis: Seien ~v , w ~v = s1 · ~v1 + · · · + sn · ~vn ~ = t1 · ~v1 + · · · + tn · w ~ n. w cB ist linear: Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 579 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Die Abbildung cB (Forts.) ~ ∈ V , s ∈ K , und Beweis: Seien ~v , w ~v = s1 · ~v1 + · · · + sn · ~vn ~ = t1 · ~v1 + · · · + tn · w ~ n. w cB ist linear: ~ = (ss1 + t1 ) · ~v1 + · · · + (ssn + tn ) · ~vn s · ~v + w ss1 + t1 ~ ) = ... ⇒ cB (s · ~v + w ssn + tn s1 t1 .. .. =s.+. sn tn = s · cB (~v ) + cB (~ w) Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 580 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Die Abbildung cB (Forts.) Satz 6.1.11 Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit Umkehrabbildung s1 .. −1 n cB : K → V , v = s1 · ~ v1 + · · · + sn · ~ vn . . 7→ ~ sn ~ ∈ V , s ∈ K , und Beweis: Seien ~v , w ~v = s1 · ~v1 + · · · + sn · ~vn ~ = t1 · ~v1 + · · · + tn · w ~ n. w cB ist linear cB ist injektiv: Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 581 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Die Abbildung cB (Forts.) ~ ∈ V , s ∈ K , und Beweis: Seien ~v , w ~v = s1 · ~v1 + · · · + sn · ~vn ~ = t1 · ~v1 + · · · + tn · w ~ n. w cB ist linear cB ist injektiv: Sei cB (~v ) = cB (~ w ), d.h. t1 s1 .. .. ~ . = . ⇒ s1 = t1 , . . . , sn = tn ⇒ ~v = w tn sn Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 582 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Die Abbildung cB (Forts.) Satz 6.1.11 Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit Umkehrabbildung s1 .. cB−1 : K n → V , v = s1 · ~ v1 + · · · + sn · ~ vn . . 7→ ~ sn ~ ∈ V , s ∈ K , und Beweis: Seien ~v , w ~v = s1 · ~v1 + · · · + sn · ~vn ~ = t1 · ~v1 + · · · + tn · w ~ n. w cB ist linear cB ist injektiv cB ist surjektiv: Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 583 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Die Abbildung cB (Forts.) ~ ∈ V , s ∈ K , und Beweis: Seien ~v , w ~v = s1 · ~v1 + · · · + sn · ~vn ~ = t1 · ~v1 + · · · + tn · w ~ n. w cB ist linear cB ist injektiv s1 .. cB ist surjektiv: Sei . ∈ K n sn s1 .. ⇒ ∃~v = s1 · ~v1 + · · · + sn · ~vn ∈ V , cB (~v ) = . ∈ K n sn Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 584 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Die Abbildung cB (Forts.) Satz 6.1.11 Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit Umkehrabbildung s1 .. −1 n v = s1 · ~ v1 + · · · + sn · ~ vn . cB : K → V , . 7→ ~ sn ~ ∈ V , s ∈ K , und Beweis: Seien ~v , w ~v = s1 · ~v1 + · · · + sn · ~vn ~ = t1 · ~v1 + · · · + tn · w ~ n. w cB ist linear cB ist injektiv cB ist surjektiv Die Umkehrabbildung ist wie angegeben X Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 585 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen Die Abbildung cB (Forts.) Satz 6.1.11 Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit Umkehrabbildung s1 .. cB−1 : K n → V , v = s1 · ~ v1 + · · · + sn · ~ vn . . 7→ ~ sn Korollar 6.1.12 Jeder n-dimensionale Vektorraum ist isomorph zu K n . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 586 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen K n als Prototyp eines n-dimensionalen Vektorraumes Daraus ergibt sich sofort der folgende Satz: Satz 6.1.13 Je zwei endlich dimensionale K -Vektorräume derselben Dimension n sind isomorph. Die K -Vektorräume der Dimension n bilden also eine Isomorphie-Äquivalenzklasse mit dem bekanntesten Vertreter K n . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 587 / 669 Lineare Abbildungen und Matrizen Lineare Abbildungen K n als Prototyp eines n-dimensionalen Vektorraumes Satz 6.1.13 Je zwei endlich dimensionale K -Vektorräume derselben Dimension n sind isomorph. Beweis: Seien V1 , V2 zwei K -Vektorr”aume mit dim V1 = dim V2 = n und B1 , B2 Basen von V1 bzw V2 mit festgelegter Reihenfolge. ⇒ cB1 : V1 → K n cB−1 : K n → V2 2 sind Isomorphismen. ⇒ cB1 ◦ cB−1 : V1 → V2 2 ist ein Isomorphismus. ⇒ V1 ∼ = V2 , Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 588 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Übersicht Kapitel 11 Lineare Abbildungen und Matrizen 11.1 Lineare Abbildungen und Isomorphismen 11.2 Matrizen linearer Abbildungen 11.3 Dimensionssatz und Homomorphiesatz 11.4 Hauptsatz über lineare Gleichungssysteme 11.5 Algebra der linearen Abbildungen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 589 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Kapitel 11 Lineare Abbildungen und Matrizen 11.2 Matrizen linearer Abbildungen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 590 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Charakterisierung linearer Abbildungen Wir setzen unsere Überlegungen zur Charakterisierung beliebiger linearer Abbildungen ϕ : V → W (V , W endlich dimensionale K -Vektorräume) fort. Nach Satz 6.1.6 ist ϕ eindeutig bestimmt durch die Bilder auf einer Basis von V . Ganz ähnlich wie im Beweis von Korollar 6.1.7 kann ϕ durch eine Matrix beschrieben werden. Dies wollen wir uns im Folgenden genauer anschauen. Sei dim V = n dim W = m mit Basis mit Basis B = (~v1 , . . . , ~vn ), ~ m ), B 0 = (~ w1 , . . . , w wobei wir – wie üblich – sowohl für B als auch für B 0 die Reihenfolge der Elemente festlegen (sonst muss man alle Permutationen der Reihenfolge betrachten). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 591 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Festlegung linearer Abbildungen durch Basen Dann ist nach Satz 6.1.6 ϕ durch die Angabe von ϕ(~vj ) ∈ W für j = 1, . . . , n vollständig bestimmt. Der Vektor ϕ(~vj ) ∈ W lässt sich eindeutig in der Basis B 0 ausdrücken: ϕ(~vj ) = m X ~i aij · w für j = 1, . . . , n, i=1 wobei aij ∈ K für i = 1, . . . , m und j = 1, . . . , n, d.h. (aij ) ∈ K m×n . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 592 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Festlegung linearer Abbildungen durch Basen (Forts.) Definition 6.2.1 (Matrix einer linearen Abbildung) Seien V , W endlich dimensionale K -Vektorräume, dim V = n mit Basis ~ m ), sei B = (~v1 , . . . , ~vn ) und dim W = m mit Basis B 0 = (~ w1 , . . . , w ϕ : V → W eine lineare Abbildung. Die durch ϕ(~vj ) = m X ~i aij · w für i = 1, . . . , m, j = 1, . . . , n, (6.5) i=1 definierte Matrix (aij ) ∈ K m×n heißt Matrix von ϕ bezüglich der Basen B und B’, in Zeichen m×n . B 0 [ϕ]B = (aij ) ∈ K Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 593 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Matrix bzgl. B und B 0 – Beispiel 1 Es sei A ∈ K m×n und ϕA : K n → K m die zugehörige lineare Abbildung mit ϕA (~x ) = A · ~x . Es seien B = (~ e1 , . . . , e~n ) die Standardbasis von K n und B 0 = (e~0 1 , . . . , e~0 m ) die Standardbasis von K m . Dann ist a1j m X .. aij · e~0 i ϕA (~ ej ) = A · e~j = . = i=1 amj für j = 1, . . . , n. Folglich ist also B 0 [ϕA ]B = A. ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 594 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Matrix bzgl. B und B 0 – Beispiel 2 Sei V = R3 , W = R2 mit den Basen 1 1 0 ~v1 = 1 , ~v2 = 0 , ~v3 = 1 , B = Basis von V 0 1 1 1 0 ~1 = ~2 = B0 = w , w , Basis von W . 0 1 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 595 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Matrix bzgl. B und B 0 – Beispiel 2 (Forts.) Sei ϕ : V → W definiert durch 1 ~1 + 1 · w ~2 ϕ(~v1 ) = = 1·w 1 1 ~1 + 0 · w ~2 ϕ(~v2 ) = = 1·w 0 0 ~1 + 1 · w ~2 ϕ(~v3 ) = = 0·w 1 Dann ist Prof. Dr. Bernhard Steffen 1 1 0 . B 0 [ϕ]B = 1 0 1 Mathematik für Informatiker 1 - 2012 596 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Die Isomorphismen cB Es gilt V ∼ = K n und W ∼ = K m dank der Isomorphismen cB : V → K n , s1 .. ~v = s1 · ~v1 + · · · + sn · ~vn 7→ . sn cB 0 : W → K m , t1 ~ = t1 · w ~ 1 + · · · + tm · w ~ m 7→ ... w tm (s. (6.4)). Ist also ϕ : V → W eine lineare Abbildung von V nach W , so ist cB 0 ◦ ϕ : V → K m eine lineare Abbildung von V nach K m . Wir wollen im Folgenden cB 0 ◦ ϕ mit Hilfe der Matrix B 0 [ϕA ]B beschreiben. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 597 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Kombinationen mit cB Satz 6.2.2 Es seien V und W zwei K -Vektorräume, B = {~v1 , . . . , ~vn } eine Basis von ~ m } eine Basis von W . Sei weiterhin ϕ : V → W V und B 0 = {~ w1 , . . . , w eine lineare Abbildung, und sei A := B 0 [ϕ]B . Dann gilt cB 0 ◦ ϕ = ϕA ◦ cB . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 598 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Kombinationen mit cB Satz 6.2.2 Es seien V und W zwei K -Vektorräume, B = {~ v1 , . . . , ~ vn } eine Basis von V und ~ 1, . . . , w ~ m } eine Basis von W . Sei weiterhin ϕ : V → W eine lineare Abbildung, B 0 = {w und sei A := B 0 [ϕ]B . Dann gilt cB 0 ◦ ϕ = ϕA ◦ cB . Beweis: Sei 1 ≤ i ≤ n. z.z.:cB 0 ◦ ϕ(~vi ) = ϕA ◦ cB (~vi ) ~ 1 + · · · + ami w ~ m , dann gilt Sei ϕ(~vi ) = a1i w a1i .. cB 0 ◦ ϕ(~vi ) = cB 0 (ϕ(~vi )) = . ami ϕA ◦ cB (~vi ) = ϕA (~ ei ) = A · e~i Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 599 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Kombinationen mit cB Satz 6.2.2 Es seien V und W zwei K -Vektorräume, B = {~ v1 , . . . , ~ vn } eine Basis von V und ~ 1, . . . , w ~ m } eine Basis von W . Sei weiterhin ϕ : V → W eine lineare Abbildung, B 0 = {w und sei A := B 0 [ϕ]B . Dann gilt cB 0 ◦ ϕ = ϕA ◦ cB . Beweis: Sei 1 ≤ i ≤ n. z.z.:cB 0 ◦ ϕ(~vi ) = ϕA ◦ cB (~vi ) ~ m , dann gilt ~ 1 + · · · + ami w Sei ϕ(~vi ) = a1i w a11 . . . a1i . . . a1n a1i .. .. . . . . A= . . . ⇒ A · e~i = . am1 . . . ami . . . amn ami Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 600 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Kombinationen mit cB Satz 6.2.2 Es seien V und W zwei K -Vektorräume, B = {~ v1 , . . . , ~ vn } eine Basis von V und ~ 1, . . . , w ~ m } eine Basis von W . Sei weiterhin ϕ : V → W eine lineare Abbildung, B 0 = {w und sei A := B 0 [ϕ]B . Dann gilt cB 0 ◦ ϕ = ϕA ◦ cB . Beweis: Sei 1 ≤ i ≤ n. z.z.:cB 0 ◦ ϕ(~vi ) = ϕA ◦ cB (~vi ) ~ 1 + · · · + ami w ~ m , dann gilt Sei ϕ(~vi ) = a1i w a1i .. cB 0 ◦ ϕ(~vi ) = cB 0 (ϕ(~vi )) = . ami a1i .. ϕA ◦ cB (~vi ) = ϕA (~ ei ) = A · e~i = . ami Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 601 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Ein kommutatives Abbildungsdiagramm Das folgende Abbildungsdiagramm ist also kommutativ: V cB ϕ W cB 0 ϕA Kn Km cB 0 ◦ ϕ = ϕA ◦ cB Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 602 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Motivation der Matrixmultiplikation Das folgende Korollar zeigt, dass die Matrixmultiplikation durch die Kompatibilität mit der Hintereinanderschaltung linearer Abbildungen motiviert ist: Korollar 6.2.3 Es seien U, V und W drei endlich-dimensionale K -Vektorräume und ϕ : U → V und ψ : V → W lineare Abbildungen. Ist B Basis von U, B 0 Basis von V und B 00 Basis von W , so gilt B 00 [ψ Prof. Dr. Bernhard Steffen ◦ ϕ]B = B 00 [ψ]B 0 · B 0 [ϕ]B . Mathematik für Informatiker 1 - 2012 603 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Motivation der Matrixmultiplikation Korollar 6.2.3 Es seien U, V und W drei endlich-dimensionale K -Vektorräume und ϕ : U → V und ψ : V → W lineare Abbildungen. Ist B Basis von U, B 0 Basis von V und B 00 Basis von W , so gilt B 00 [ψ ◦ ϕ]B = B 00 [ψ]B 0 · B 0 [ϕ]B . Beweis: Sei B = {~ u1 , . . . , u~n }, 1 ≤ i ≤ n. z.z.: |B 00 B 00 [ψ [ψ ◦ ϕ]B ·~ e = 00 [ψ]B 0 · B 0 [ϕ]B ·~ e | {z } | {z } i {z } i B D C A ◦ ϕ]B · e~i = ϕD ◦ cB (~ ui ) ui ) = cB 00 ◦ (ψ ◦ ϕ)(~ = (cB 00 ◦ ψ) ◦ ϕ(~ ui ) = (ϕC ◦ cB 0 ) ◦ ϕ(~ ui ) = ϕC ◦ (cB 0 ◦ ϕ)(~ ui ) Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 604 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Motivation der Matrixmultiplikation Korollar 6.2.3 Es seien U, V und W drei endlich-dimensionale K -Vektorräume und ϕ : U → V und ψ : V → W lineare Abbildungen. Ist B Basis von U, B 0 Basis von V und B 00 Basis von W , so gilt B 00 [ψ ◦ ϕ]B = B 00 [ψ]B 0 · B 0 [ϕ]B . Beweis: Sei B = {~ u1 , . . . , u~n }, 1 ≤ i ≤ n. z.z.: B 00 [ψ |B 00 e = 00 [ψ]B 0 · B 0 [ϕ]B ·~ e [ψ ◦ ϕ]B ·~ | {z } | {z } i {z } i B D C A ui ) ◦ ϕ]B · e~i = ϕC ◦ (cB 0 ◦ ϕ)(~ = ϕC ◦ (ϕA ◦ cB )(~ ui ) = ϕC (ϕA (cB (~ ui ))) = ϕC (ϕA (~ ei )) = ϕC (B 0 [ϕ]B · e~i ) =B 00 [ψ]B 0 ·B 0 [ϕ]B · e~i Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 605 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Assoziativität der Matrixmultiplikation Man kann die Assoziativität der Matrixmultiplikation durch Ausrechnen zeigen, eleganter folgt das mit diesem Korollar: Korollar 6.2.4 Die Matrixmultiplikation ist assoziativ, d.h. für A ∈ K m×n , B ∈ K n×p und C ∈ K p×q gilt (A · B) · C = A · (B · C ). Dies folgt leicht durch Betrachtung der zugehörigen linearen Abbildungen ϕA , ϕB , ϕC aus Satz 6.2.3, da die Hintereinanderschaltung von Abbildungen assoziativ ist. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 606 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Basiswechsel Im Folgenden wollen wir uns nicht auf die lineare Abbildung selbst konzentrieren, sondern die Darstellung von Vektoren bezgl. unterschiedlicher Basen (desselben Vektorraums) untersuchen. Sei also V ein K -Vektorraum mit dim V = n und idV : V → V die identische Abbildung. Definition 6.2.5 (Basiswechselmatrix) Sei V ein K -Vektorraum mit Basen B = (~v1 , . . . , ~vn ) und ~ n ). Dann heißt die Matrix Q = (qij ) := B 0 [idV ]B B 0 = (~ w1 , . . . , w Basiswechselmatrix. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 607 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Basiswechsel (Forts.) Jeder Vektor ~v ∈ V lässt sich sowohl bzgl. B als auch bzgl. B 0 eindeutig darstellen: n n X X ~v = ~i , si ~vi und ~v = si0 w i=1 das heißt s1 .. cB (~v ) = . sn i=1 und 0 s1 .. cB 0 (~v ) = . . sn0 Mit Hilfe der Basiswechselmatrix Q = (qij ) lässt sich die eine Darstellung leicht aus der anderen gewinnen: Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 608 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Basiswechsel (Forts.) Lemma 6.2.6 Die Voraussetzungen und Notationen seien wie in Definition 6.2.5. Für jeden Vektor ~v ∈ V gilt dann cB 0 (~v ) = Q · cB (~v ), und insbesondere erhält man für jeden Basisvektor ~vj die folgende Darstellung: n X ~i . ~vj = qij w i=1 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 609 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Iterierter Basiswechsel Wir können nun die Abbildung idV auch bezgl. iterierter Basiswechsel betrachten: B → B0 → B B0 → B → B0 Mit Satz 6.2.3 gilt dann (wegen idV ◦ idV = idV ) B 0 [idV ]B · B [idV ]B 0 = B 0 [idV ]B 0 B [idV ]B 0 · B 0 [idV ]B = B [idV ]B = En und = En , wobei En ∈ K n×n die n × n Einheitsmatrix ist. Folglich ist B [idV ]B 0 = Q −1 die zu Q := B 0 [idV ]B inverse Matrix. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 610 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Invertierbarkeit der Basiswechselmatrix Satz 6.2.7 Sei V ein K -Vektorraum der Dimension n, seien B, B 0 Basen von V . Dann ist die Basiswechselmatrix Q =B 0 [idV ]B invertierbar, die inverse Matrix ist Q −1 =B [idV ]B 0 . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 611 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Basiswechsel bei linearen Abbildungen Wir untersuchen nun, wie sich Basiswechsel auf die Matrizen linearer Abbildungen auswirken: Satz 6.2.8 Es seien V und W zwei endlich-dimensionale K -Vektorräume und ϕ : V → W eine lineare Abbildung. Weiter seien B und B 0 Basen von V und C und C 0 Basen von W . Dann ist C 0 [ϕ]B 0 Prof. Dr. Bernhard Steffen = C 0 [idW ]C · C [ϕ]B · Mathematik für Informatiker 1 - 2012 B [idV ]B 0 . 612 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Basiswechsel – Beispiel Wir betrachten den Vektorraum V = R2 mit den Basen 1 0 1 1 0 ~ 2} = B = {~ e1 , e~2 } = , und B = {~ w1 , w , 0 1 2 −1 Es sei ϕ : V → V die durch ϕ(~ e1 ) = − 31 4 3 ! und ϕ(~ e2 ) = 2 3 1 3 ! definierte lineare Abbildung. Dann ist für beliebige Vektoren 1 x1 − 3 x1 + 32 x2 ϕ . = x1 ϕ(~ e1 ) + x2 ϕ(~ e2 ) = 4 1 x2 3 x1 + 3 x2 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 613 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Basiswechsel – Beispiel (Forts.) Wegen ϕ(~ e1 ) = − 13 und ϕ(~ e2 ) = ! 4 3 2 3 1 3 ! ist B [ϕ]B 1 4 = − e~1 + e~2 3 3 = = 2 1 e~1 + e~2 3 3 2 3 1 3 ! B [ϕ]B · − 13 4 3 Mit Satz 6.2.8 ist dann B 0 [ϕ]B 0 mit B 0 [idV ]B = B 0 [idV ]B · B [idV ]B 0 = (B [idV ]B 0 )−1 . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 614 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Basiswechsel – Beispiel (Forts.) Man sieht sofort, dass B [idV ]B 0 1 = ! 1 2 −1 ist, daraus erhält man durch Invertieren B 0 [idV ]B Prof. Dr. Bernhard Steffen = 1 3 2 3 1 3 ! − 13 Mathematik für Informatiker 1 - 2012 . 615 / 669 Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung Basiswechsel – Beispiel (Forts.) Insgesamt ist also B 0 [ϕ]B 0 = = = ! 1 3 1 3 2 3 · − 13 1 3 1 3 1 3 − 23 1 0 0 −1 ! · 2 3 1 3 − 13 4 3 1 1 ! · 1 1 ! 2 −1 ! 2 −1 ! . ♣ Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 616 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Übersicht Kapitel 11 Lineare Abbildungen und Matrizen 11.1 Lineare Abbildungen und Isomorphismen 11.2 Matrizen linearer Abbildungen 11.3 Dimensionssatz und Homomorphiesatz 11.4 Hauptsatz über lineare Gleichungssysteme 11.5 Algebra der linearen Abbildungen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 617 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Kapitel 11 Lineare Abbildungen und Matrizen 11.3 Dimensionssatz und Homomorphiesatz Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 618 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Kern und Bild Auch bei Vektorraumhomomorphismen sind Kern und Bild besonders interessant: Definition 6.3.1 (Kern und Bild einer linearen Abbildung) Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare Abbildung. Dann ist Kern(ϕ) := { ~v ∈ V | ϕ(~v ) = ~0 } ⊆ V Bild(ϕ) := { ϕ(~v ) | ~v ∈ V } = ϕ(V ) ⊆ W Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 619 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Kern und Bild – Beispiel Wir betrachten den R-Vektorraum V = W = R2 und die lineare Abbildung ϕ : V → W mit x x −y 1 −1 x ϕ := = · . y y −x −1 1 y Dann ist x Kern(ϕ) = ∈ R2 y und Bild(ϕ) = Prof. Dr. Bernhard Steffen 1 x −y =0 ∧ y −x =0 = 1 a 1 ∈ R2 b = −a = b −1 Mathematik für Informatiker 1 - 2012 620 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Kern und Bild – Beispiel (Forts.) Kern(ϕ) Bild(ϕ) Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 621 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Kern, Bild und Homomorphismen Satz 6.3.2 Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare Abbildung. Dann gilt: (i) Kern(ϕ) ist Teilraum von V und Kern(ϕ) = {~0} ⇔ ϕ injektiv (Monomorphismus). (ii) Bild(ϕ) ist Teilraum von W und Bild(ϕ) = W ⇔ ϕ surjektiv (Epimorphismus). Ist V = h~v1 , . . . , ~vn i, so ist Bild(ϕ) = hϕ(~v1 ), . . . , ϕ(~vn )i Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 622 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Der Dimensionssatz Satz 6.3.3 (Dimensionssatz für Homomorphismen) Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare Abbildung. Ist V endlich-dimensional, so ist dim V = dim Kern(ϕ) + dim Bild(ϕ) Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 623 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Rang einer linearen Abbildung Definition 6.3.4 Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare Abbildung. Der Rang von ϕ ist die Dimension von Bild(ϕ), also Rang (ϕ) := dim Bild(ϕ). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 624 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Eigenschaften des Rangs Satz 6.3.5 Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare Abbildung. Ist V endlich dimensional, so gilt: (i) ϕ surjektiv ⇔ Rang (ϕ) = dimW (ii) ϕ injektiv ⇔ Rang (ϕ) = dimV (iii) Ist dimV = dimW , so gilt: ϕ surjektiv ⇔ ϕ injektiv. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 625 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Kern, Bild und Gleichungssysteme Es sei A eine m × n Matrix über dem Körper K , also A ∈ K m×n , und ϕA : K n → K m , ~x 7→ A · ~x . Dann ist Kern(ϕA ) = { ~x ∈ K n | A · ~x = ~0 } die Lösungsmenge des duch die Matrix A gegebenen homogenen linearen Gleichungssystems A · ~x = ~0. Nach dem Dimensionssatz 6.3.3 gilt dim Kern(ϕA ) = n − Rang (ϕA ). Für ~b ∈ K m ist die Lösungsmenge { ~x ∈ K n | A · ~x = ~b } des (inhomogenen) linearen Gleichungssystems A · ~x = ~b das Urbild des Vektors ~b unter der Abbildung ϕA , also ~ { ~x ∈ K n | A · ~x = ~b } = ϕ−1 A (b). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 626 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Rang und Isomorphismen Kombiniert man eine lineare Abbildung mit Isomorphismen, so ändert sich ihr Rang nicht. Satz 6.3.6 Seien U, V , W , Y K -Vektorräume, sei ϕ : V → W eine lineare Abbildung, seien ϕ1 : U → V und ϕ2 : W → Y Isomorphismen. Dann ist Rang (ϕ) = Rang (ϕ ◦ ϕ1 ) = Rang (ϕ2 ◦ ϕ) Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 627 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Nebenklassen von Teilräumen Bei Gruppen haben wir Restklassen und Faktorgruppen kennengelernt, solche Strukturen gibt es auch bei Vektorräumen: Definition 6.3.7 Ist U ein Teilraum des K -Vektorraums V und ~v0 ∈ V , dann sei ~v0 + U := { ~v0 + u~ | u~ ∈ U }. Man nennt ~v0 + U auch die Nebenklasse oder Restklasse von ~v0 nach U. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 628 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Nebenklassen – Beispiel 1 2 V =R , U= s· s ∈ R , ~v0 = 2 0 2 1 s∈R ⇒ ~v0 + U = +s · 0 2 2 y ~v0 + U U 3 2 1 ~v0 1 Prof. Dr. Bernhard Steffen 2 3 x Mathematik für Informatiker 1 - 2012 629 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Nebenklassen und lineare Abbildungen Nebenklassen entstehen z.B. durch Bildung von Urbildern linearer Abbildungen: Satz 6.3.8 Es seien V und W zwei K -Vektorräume, ϕ : V → W eine lineare Abbildung ~ ∈ W mit ϕ(~v0 ) = w ~ . Dann ist Weiter seien ~v0 ∈ V und w ϕ−1 (~ w ) = ~v0 + Kern(ϕ). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 630 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Nebenklassen – Beispiel A= Bild(ϕ) 2 −6 −1 3 ∈ K 2×2 , ϕA : R2 → R2 , ~x 7→ A · ~x 3 2 ⇒ Kern(ϕ) = h i, Bild(ϕ) = h i 1 −1 4 . ~ = −2 Sei w y Dann ist ( 20 ) ∈ ϕ−1 (~ w ), und damit 3 gilt 2 Kern(ϕ) 4 ϕ−1 −2 = {( 20 ) + s · ( 31 )|s ∈ R} . 1 −2 −1 1 ϕ−1 (~ w) Prof. Dr. Bernhard Steffen 2 3 x Mathematik für Informatiker 1 - 2012 631 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Partitionierung durch Nebenklassen Lemma 6.3.9 Die Menge der Nebenklassen eines Teilraums U des K -Vektorraums V bildet eine Partitionierung der Menge V . Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 632 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Partitionierung durch Nebenklassen – Beispiel V = R2 = [ ~ v0 = (~v0 + U), U = Kern(ϕ) ∈R2 3 2 ~ ~v0 + s · v ∈ R , s ∈ R 1 0 V lässt sich in Nebenklassen nach U zerlegen. y 2 U 1 x −2 −1 1 Prof. Dr. Bernhard Steffen 2 Mathematik für Informatiker 1 - 2012 633 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Partitionierung durch Nebenklassen – Beispiel V = R2 = [ ~ v0 = (~v0 + U), U = Kern(ϕ) ∈R2 3 2 ~ ~v0 + s · v ∈ R , s ∈ R 1 0 V lässt sich in Nebenklassen nach U zerlegen. y 2 U 1 x −2 −1 1 Prof. Dr. Bernhard Steffen 2 Mathematik für Informatiker 1 - 2012 634 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Partitionierung durch Nebenklassen – Beispiel V = R2 = [ ~ v0 = 3 2 ~ ~v0 + s · v ∈ R , s ∈ R 1 0 Die Nebenklasse zu einem Punkt in V ist ~ ∈V eindeutig bestimmt. Sei w y 2 ~U w 1 x ~ +U w −2 −1 Prof. Dr. Bernhard Steffen (~v0 + U), U = Kern(ϕ) ∈R2 1 2 ⇒ Es gibt genau eine Nebenklasse die ~ enthält. w Mathematik für Informatiker 1 - 2012 635 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Faktorraum Satz 6.3.10 (Restklassenraum, Faktorraum, Quotientenraum) Es seien V ein K -Vektorraum und U ein Teilraum von V . Weiter sei V /U := { ~v + U | ~v ∈ V } ~ ∈ V und s ∈ K definiert die Menge der Nebenklassen nach U. Für ~v , w man ~)+U (~v + U) + (~ w + U) := (~v + w und s · (~v + U) := (s · ~v ) + U, damit wird V /U ein K -Vektorraum. V /U wird Restklassenraum, Quotientenraum oder Faktorraum von V nach U genannt. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 636 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Die Abbildung π : V → V /U Lemma 6.3.11 Es seien V ein K -Vektorraum, U ein Teilraum von V und V /U der Faktorraum von V nach U. Die Abbildung π : V → V /U mit π(~v ) := ~v + U ist ein Epimorphismus mit Kern(π) = U. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 637 / 669 Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz Der Homomorphiesatz Satz 6.3.12 (Homomorphiesatz für Vektorräume) Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare Abbildung. Dann ist die Abbildung Φ : V /Kern(ϕ) → Bild(ϕ) mit Φ(~v + Kern(ϕ)) := ϕ(~v ) ein Isomorphismus. Daraus folgt sofort: Korollar 6.3.13 Es seien V und W zwei K -Vektorräume und ϕ : V → W eine lineare Abbildung. Dann ist V /Kern(ϕ) ∼ = Bild(ϕ). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 638 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Übersicht Kapitel 11 Lineare Abbildungen und Matrizen 11.1 Lineare Abbildungen und Isomorphismen 11.2 Matrizen linearer Abbildunge 11.3 Dimensionssatz und Homomorphiesatz 11.4 Hauptsatz über lineare Gleichungssysteme 11.5 Algebra der linearen Abbildungen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 639 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Kapitel 11 Lineare Abbildungen und Matrizen 11.4 Hauptsatz über lineare Gleichungssysteme Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 640 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Rang einer Matrix Um den Rang einer Matrix zu definieren, nutzen wir die Verbindung zwischen Matrizen und linearen Abbildungen. Definition 6.4.1 (Rang einer Matrix) Zu einer n × m Matrix A über dem Körper K , also A ∈ K n×m , betrachten wir die zugehörige lineare Abbildung ϕA : K m → K n , ~x 7→ A · ~x . Dann ist der Rang der Matrix A definiert als Rang (A) := Rang (ϕA ) = dim Bild(ϕA ). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 641 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Ränge von linearen Abbildungen und Matrizen Die Rangbegriffe von Matrizen und linearen Abbildungen sind voll miteinander kompatibel. Satz 6.4.2 Es seien V und W zwei K -Vektorräume, B = {~v1 , . . . , ~vn } eine Basis von ~ m } eine Basis von W . Für eine lineare Abbildung V und B 0 = {~ w1 , . . . , w ϕ : V → W gilt dann Rang (ϕ) = Rang (B 0 [ϕ]B ). Insbesondere ist der Rang der Matrizen der speziellen B, B 0 . Prof. Dr. Bernhard Steffen B 0 [ϕ]B unabhängig von der Wahl Mathematik für Informatiker 1 - 2012 642 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Spaltenraum einer Matrix Im Folgenden sei A eine n × m Matrix über dem Körper K , also a11 · · · a1m .. ∈ K n×m . A = ... . an1 · · · anm Definition 6.4.3 (Spaltenraum) Der Spaltenraum SR(A) ist der Teilvektorraum von K n , der durch die Spalten von A erzeugt wird, also * a11 a12 a1m + .. .. . SR(A) := . , . , . . . , .. . an1 an2 anm Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 643 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Zeilenraum einer Matrix Definition 6.4.4 (Zeilenraum) Der Zeilenraum ZR(A) ist der Teilvektorraum von K 1×m , der durch die Zeilen von A erzeugt wird, also ZR(A) := h(a11 , . . . , a1m ), (a21 , . . . , a2m ), . . . , (an1 , . . . , anm )i Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 644 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Rang (A) als Invariante Elementare Spaltenumformungen lassen sich analog zu elementaren Zeilenumformungen definieren (vgl. Kapitel 11.2). Satz 6.4.5 (Charakterisierung des Rangs einer Matrix) Es sei A eine n × m Matrix über dem Körper K . Dann gilt: (i) Rang (A) = dim SR(A), d.h., der Rang von A ist die Dimension ihres Spaltenraumes. (ii) Der Rang von A ändert sich durch elementare Spaltenumformungen nicht. (iii) Der Rang von A ändert sich durch elementare Zeilenumformungen nicht. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 645 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Zeilenrang = Rang = Spaltenrang Satz 6.4.6 Es sei A eine n × m Matrix über dem Körper K . Dann gilt: (i) Man kann A durch elementare Zeilen- und Spaltenumformungen auf die Form 1 0 .. . 0 0 . .. 1 .. . ··· ··· ··· .. . .. . 0 0 .. . 0 ··· 0 0 0 .. . ··· 0 0 1 0 0 0 .. .. . . 0 0 ··· ··· ··· 0 .. . ··· 0 .. . 0 0 0 .. . 0 (6.6) mit r Einsen auf der Hauptdiagonalen bringen. Insbesondere erhält man dadurch Rang (A) = r . (ii) Rang (A) = dim(SR(A)) = dim(ZR(A)). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 646 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Berechnung des Rangs einer Matrix 1 2 3 4 2 4 7 8 rang 3 6 9 12 1 2 3 4 0 0 1 0 =rang 0 0 0 0 Prof. Dr. Bernhard Steffen −1 4 3 5 13 14 5 0 2 10 4 −5 −1 15 5 4 6 −2 Mathematik für Informatiker 1 - 2012 3 −1 −5 (−2) (−3) 5 − 10 − 20 647 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Berechnung des Rangs einer Matrix 3 5 1 2 3 4 −1 4 rang 0 0 1 0 15 6 −1 −10 0 0 0 0 5 −2 −5 −20 1 0 0 0 0 0 0 0 6 − 1 − 10 =rang 0 0 1 0 15 0 0 0 0 5 − 2 − 5 − 20 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 648 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Berechnung des Rangs einer Matrix 1 0 0 0 0 0 1 0 rang 0 0 0 0 1 0 0 0 0 0 1 0 =rang 0 0 0 0 Prof. Dr. Bernhard Steffen 0 0 0 0 15 6 −1 −10 5 −2 −5 −20 0 0 0 0 0 0 0 0 5 − 2 − 5 − 20 Mathematik für Informatiker 1 - 2012 649 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Berechnung des Rangs einer Matrix 1 0 0 0 0 0 1 0 rang 0 0 0 0 1 0 0 0 0 0 1 0 =rang 0 0 0 0 Prof. Dr. Bernhard Steffen 0 0 0 0 0 0 0 0 |· 5 −2 −5 −20 0 0 0 0 0 0 0 0 2 1 − 5 −1 −4 Mathematik für Informatiker 1 - 2012 1 5 650 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Berechnung des Rangs einer Matrix 1 0 0 0 0 0 1 0 rang 0 0 0 0 1 0 0 0 0 0 1 0 =rang 0 0 0 0 Prof. Dr. Bernhard Steffen 0 0 0 0 1 − 25 0 0 1 0 0 0 Mathematik für Informatiker 1 - 2012 0 0 0 0 −1 −4 0 0 0 0 0 0 651 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Berechnung des Rangs einer Matrix 1 0 0 0 0 0 1 0 rang 0 0 0 0 1 0 0 0 0 1 0 0 =rang 0 0 0 0 Prof. Dr. Bernhard Steffen 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 Mathematik für Informatiker 1 - 2012 652 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Berechnung des Rangs einer Matrix 1 0 0 0 rang 0 1 0 0 0 0 0 0 1 0 0 0 =rang 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 =3 Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 653 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Hauptsatz über lineare Gleichungssysteme I Damit können wir nun direkt Aussagen über Lösbarkeit und Lösungsmenge linearer Gleichungssysteme machen. Satz 6.4.7 (Hauptsatz über homogene lineare Gleichungssysteme) Es sei A ∈ K n×m . (i) Die Lösungsmenge L := {~x ∈ K m | A · ~x = ~0} des homogenen linearen Gleichungssystems A · ~x = ~0 ist ein Teilraum von K m mit dim L = m − Rang (A). (ii) Insbesondere ist A · ~x = ~0 genau dann eindeutig lösbar, wenn Rang (A) = m ist. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 654 / 669 Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme Hauptsatz über lineare Gleichungssysteme II Satz 6.4.8 (Hauptsatz über inhomogene lin. Gleichungssysteme) Es sei A ∈ K n×m , sei ~b ∈ K m . (i) Das inhomogene lineare Gleichungssystem A · ~x = ~b ist genau dann lösbar, wenn Rang (A) = Rang ([A, ~b]), wobei [A, ~b] die erweiterte Matrix des linearen Gleichungssystems A · ~x = ~b ist. (ii) Ist v~0 ∈ K m mit A · v~0 = ~b eine Lösung des Gleichungssystems, so kann die Lösungsmenge L~b := {~x ∈ K m | A · ~x = ~b} geschrieben werden als (L wie in Satz 6.4.7) ~ ∈ Km | w ~ ∈ L}. L~b = v~0 + L = {v~0 + w Insbesondere ist das inhomogene lin. Gleichungssystem A · ~x = ~b genau dann eindeutig lösbar, wenn Rang (A) = m und L~b 6= 0 ist. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 655 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen Übersicht Kapitel 11 Lineare Abbildungen und Matrizen 11.1 Lineare Abbildungen und Isomorphismen 11.2 Matrizen linearer Abbildungen 11.3 Dimensionssatz und Homomorphiesatz 11.4 Hauptsatz über lineare Gleichungssysteme 11.5 Algebra der linearen Abbildungen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 656 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen Kapitel 11 Lineare Abbildungen und Matrizen 11.5 Algebra der linearen Abbildungen Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 657 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen Der Raum Hom(V , W ) der Homomorphismen Definition 6.5.1 (Hom(V , W ), Endomorphismen) Es seien V und W zwei K -Vektorräume. Dann bezeichnen wir die Menge der linearen Abbildungen von V nach W mit Hom(V , W ) := {ϕ : V → W | ϕ linear}. Im Spezialfall V = W bezeichnen wir eine lineare Abbildung von V nach V auch als Endomorphismus und setzen End(V ) := {ϕ : V → V | ϕ linear}. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 658 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen Der Raum Hom(V , W ) der Homomorphismen (Forts.) Satz 6.5.2 Es seien V und W zwei K -Vektorräume. (i) Die Menge Hom(V , W ) bildet einen Teilraum des K -Vektorraums Abb(V , W ) aller Abbildungen von V nach W . (ii) Ist dim(V ) = n und dim(W ) = m, so ist Hom(V , W ) ∼ = K m×n . Insbesondere ist dim(Hom(V , W )) = m · n. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 659 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen Der Ring der Endomorphismen Satz 6.5.3 Es sei V ein K -Vektorraum. Die Menge der Endomorphismen End(V ) bildet mit der Addition (ϕ + ψ)(~v ) := ϕ(~v ) + ψ(~v ) für ϕ, ψ ∈ End(V ), ~v ∈ V und der Multiplikation (ϕ ◦ ψ)(~v ) := ϕ(ψ(~v )) für ϕ, ψ ∈ End(V ), ~v ∈ V einen Ring mit Eins. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 660 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen Matrix ≡ Endomorphismus Satz 6.5.4 Ist dim(V ) = n und B eine Basis von V , dann ist µB : End(V ) → K n×n ϕ 7→ B [ϕ]B ein Ring-Isomorphismus, d.h., µB ist bijektiv mit µB (ϕ + ψ) = µB (ϕ) + µB (ψ) und µB (ϕ ◦ ψ) = µB (ϕ) · µB (ψ) für ϕ, ψ ∈ End(V ). Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 661 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen K-Algebren Definition 6.5.5 (K -Algebra) Es sei K ein Körper. Ein Ring R mit Eins, der gleichzeitig ein K -Vektorraum ist (mit derselben Addition wie im Ring), so dass außerdem noch s · (a · b) = (s · a) · b = a · (s · b) für alle s ∈ K , a, b ∈ R (6.7) gilt, heißt eine K -Algebra (mit Eins). Endomorphismenringe und Matrizenringe sind also K -Algebren. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 662 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen Automorphismen Satz 6.5.6 (Automorphismen, volle lineare Gruppe) (i) Ist V ein K -Vektorraum, so ist GL(V ) := {ϕ ∈ End(V ) | ϕ ist bijektiv} zusammen mit der Verknüpfung von Abbildungen “ ◦ “ eine Gruppe, genannt die volle lineare Gruppe. Die Elemente von GL(V ) heißen auch Automorphismen. (ii) Für n ∈ N ist GL(n, K ) := {A ∈ K n×n | A invertierbar}, mit der Matrixmultiplikation eine Gruppe, die Gruppe der regulären n × n Matrizen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 663 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen GL(V ) ∼ = GL(n, K ) Lemma 6.5.7 Sind V ein K -Vektorraum mit dim V = n und B eine Basis von V , so ist µB : GL(V ) → GL(n, K ) ϕ 7→ B [ϕ]B ein Isomorphismus von Gruppen, das heißt µB ist bijektiv und µB (ϕ ◦ ψ) = µB (ϕ) · µB (ψ) Prof. Dr. Bernhard Steffen für ϕ, ψ ∈ GL(V ). Mathematik für Informatiker 1 - 2012 (6.8) 664 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen Charakterisierung von GL(V ) und GL(n, K ) Korollar 6.5.8 Es sei V ein K -Vektorraum mit dim V = n, ϕ ∈ End(V ) und A ∈ K n×n . Dann gilt ϕ ∈ GL(V ) ⇐⇒ Rang (ϕ) = n und A ∈ GL(n, K ) ⇐⇒ Rang (A) = n. Mit Satz 6.4.8 folgt dann: Korollar 6.5.9 Es sei A ∈ K n×n , sei ~b ∈ K n . Das lineare Gleichungssystem A · ~x = ~b ist genau dann eindeutig lösbar, wenn A invertierbar, also A ∈ GL(n, K ) ist. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 665 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen GL(V ) ist (i.Allg.) nicht kommutativ Bemerkung: Ist V ein K -Vektorraum mit dim V > 1, so ist GL(V ) nicht kommutativ. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 666 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen Zeilenumformungen und Invertierbarkeit von Matrizen Aus Kapitel 10.2 wissen wir: Es sei A ∈ GL(n, K ). Bringt man die n × 2n Matrix (A, En ) durch elementare Zeilenoperationen auf Stufenform, so erhält man eine n × 2n Matrix der Form (En , U), wobei U = A−1 ist. Ist A nicht regulär, so lässt sich die Matrix (A, En ) durch elementare Zeilenoperationen nicht in diese Form bringen. Jede elementare Zeilenoperation entspricht der Multiplikation mit einer regulären Matrix von links (Satz 10.2.4). Diese Matrizen werden auch Elementarmatrizen genannt. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 667 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen Elementarmatrizen Definition 6.5.10 (Elementarmatrizen) Es sei n ∈ N, i, j ∈ {1, . . . , n} mit i 6= j und s ∈ K \{0}. (i) Die Elementarmatrix Vi,j ∈ GL(n, K ) entsteht aus der Einheitsmatrix En durch Vertauschen der i-ten und j-ten Zeile. (ii) Die Elementarmatrix Mi (s) ∈ GL(n, K ) entsteht aus der Einheitsmatrix En durch Multiplikation der i-ten Zeile mit s. (iii) Die Elementarmatrix Ai,j (s) ∈ GL(n, K ) entsteht aus der Einheitsmatrix En durch Addition des s-fachen der i-ten Zeile zur j-ten Zeile. Diese Matrizen sind gerade die im Zusammenhang mit Satz 10.2.4 behandelten Matrizen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 668 / 669 Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen Matrizen aus GL(n, K ) Lemma 6.5.11 Die inverse Matrix einer Elementarmatrix ist selbst eine Elementarmatrix. Da die Umformungsmatrix einer regulären Matrix das Inverse der Matrix ist und diese Umformungsmatrix als Produkt von Elementarmatrizen entsteht, folgt sofort: Satz 6.5.12 Jede Matrix A ∈ GL(n, K ) ist ein Produkt von Elementarmatrizen. Prof. Dr. Bernhard Steffen Mathematik für Informatiker 1 - 2012 669 / 669