Mathematik für Informatiker 1 Vorlesungsskriptum Wintersemester 2011/2012 Gabriele Kern-Isberner Bernhard Steffen Oliver Rüthing unter Mitwirkung von Sibylle Hess und Timo Stöcker Fakultät für Informatik Technische Universität Dortmund 2011 2 Mathematik für Informatiker I Teil II Lineare Algebra Der zweite Teil des Skriptes zur Mathematik für Informatiker I ist der Linearen Algebra gewidmet und beschäftigt sich mit Strukturen in Vektorräumen, wobei die Begriffe Vektor und Matrix Schlüsselkonzepte darstellen. Vektoren und Matrizen tauchen in vielen Anwendungen auf, Vektoren oft als Tupel, mit denen Objekte beschrieben werden, Matrizen als Schemata, die Zusammenhänge darstellen, z.B. zur Beschreibung der Abhängigkeiten von Variablen in linearen Gleichungssystemen. Die Rolle der Homomorphismen als strukturerhaltende Abbildungen zwischen Vektorräumen wird von den linearen Abbildungen übernommen. Eines der wichtigsten Resultate dieses zweiten Teils ist die Ausarbeitung der sehr engen Beziehung zwischen Matrizen und linearen Abbildungen, so dass man – unter gewissen Rahmenbedingungen – diese beiden Konzepte eindeutig aufeinander abbilden und damit wichtige Definitionen wie Rang, Invertierbarkeit etc. übertragen kann. Wir schließen diesen Teil mit einer skizzenhaften Betrachtung von Anwendungen der linearen Algebra in der Informatik. Disclaimer Version: Dies ist Version 1.0 des Skriptes, in dem noch Fehler enthalten sein können, insbesondere Druckfehler und falsche Referenzen. Über entsprechende Hinweise freuen wir uns. Disclaimer Literatur: Inhalte und Aufbau dieses Skriptes orientieren sich stark an [3]. außerdem wurden die Literaturquellen [1] und [2] verwendet (s. Literaturverzeichnis am Ende des Skriptes). Danksagung: Wir möchten den engagierten studentischen Hilfskräften danken, ohne deren Unterstützung Folien und Skript zu dieser Vorlesung kaum erstellt worden wären. Diana Howey hat sich insbesondere um die Folien verdient gemacht. Sibylle Hess hat ganz wesentlich am Skript mitgearbeitet und auch eigene Texte (insbesondere in den Kapiteln 12 und 13) beigesteuert, um die Inhalte besser verständlich zu machen. Timo Stöcker und Sibylle Hess haben das EigenfacesBeispiel in Kapitel 13 für Vorlesung und Skript aufbereitet. Inhaltsverzeichnis 10 Vektorräume 5 10.1 Definition und Geometrie von Vektoren . . . . . . . . . . . . . . 5 10.2 Teilräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 10.3 Linearkombinationen und Erzeugendensysteme . . . . . . . . . . 18 10.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten . . . . . . 22 10.5 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . 26 11 Lineare Gleichungssysteme 38 11.1 Definitionen und Beispiele . . . . . . . . . . . . . . . . . . . . . . 38 11.2 Das Gau’sche Eliminationsverfahren . . . . . . . . . . . . . . . . 41 11.3 Invertieren von Matrizen . . . . . . . . . . . . . . . . . . . . . . . 50 12 Lineare Abbildungen und Matrizen 54 12.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . 54 12.2 Matrix einer linearen Abbildung . . . . . . . . . . . . . . . . . . 62 12.3 Dimensionssatz und Homomorphiesatz . . . . . . . . . . . . . . . 71 12.4 Hauptsatz über lineare Gleichungssysteme . . . . . . . . . . . . . 82 12.5 Algebra der linearen Abbildungen . . . . . . . . . . . . . . . . . . 87 13 Determinanten und Eigenwerte 3 97 INHALTSVERZEICHNIS 13.1 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 97 13.2 Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 13.3 Anwendung: Eigenfaces . . . . . . . . . . . . . . . . . . . . . . . 115 13.3.1 Gesichtserkennung . . . . . . . . . . . . . . . . . . . . . . 115 13.3.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Kapitel 10 Vektorräume Vektorräume bilden eine zentrale Struktur in der linearen Algebra. Ihre Struktur erlaubt es, die Elemente eines Vektorraums mit denen eines Körpers zu multiplizieren oder untereinander zu addieren. Damit die Addition und die Multiplikation auf intuitive Weise erfolgen kann, werden einige Regeln zur Rechenweise in Vektorräumen eingeführt. So stellt zum Beispiel in einem R-Vektorraum die Distributivität bezgl. des Körpers u.A. sicher, dass ~v + ~v = 2 · ~v ist (und nicht etwa 3 · ~v o. Ä.) für ein beliebiges Element ~v des R-Vektorraums. Es gibt geometrisch anschauliche Beispiele eines Vektorraums, wie z.B. die euklidische Ebene, aber auch abstraktere Strukturen wie den Vektorraum der linearen Abbildungen oder kurios anmutende Strukturen wie den Vektorraum aller magischen Quadrate. In der Informatik finden Vektorräume der anschaulichen Art Anwendung zur Wegebestimmung, wie es z. Bsp. für einen Roboter, der Regale einräumen soll, notwendig ist, aber auch abstraktere Formen der Vektorräume finden Anwendung, wie z. Bsp. in der linearen Codierungstheorie. 10.1 Definition und Geometrie von Vektoren Die folgende Definition führt Vektorräume über Körpern formal ein. Definition 10.1.1 (K-Vektorraum). Es sei (K, +, ·) ein Körper. Ein K-Vektorraum ist eine Menge V zusammen mit Abbildungen + : V ×V → V · : K ×V → V (~v , w) ~ → 7 ~v + w ~ (s, ~v ) → 7 s · ~v (Addition) (skalare Mult.) für die die folgenden Regeln gelten: (i) (V, +) ist eine kommutative Gruppe. Das neutrale Element der Addition ist der Nullvektor ~0. Das inverse Element zu ~v wird mit −~v bezeichnet. 5 KAPITEL 10. VEKTORRÄUME 6 (ii) 1 · ~v = ~v für alle ~v ∈ V. (Dabei bezeichnet 1 das Einselement des Körpers K.) (iii) (s · s0 ) · ~v = s · (s0 · ~v ) für alle s, s0 ∈ K, ~v ∈ V. (iv) (s + s0 ) · ~v = (s · ~v ) + (s0 · ~v ) für alle s, s0 ∈ K, ~v ∈ V (Distributivität bezgl. K). (v) s · (~v + w) ~ = (s · ~v ) + (s · w) ~ für alle s ∈ K, ~v , w ~ ∈V (Distributivität bezgl. V ). Die Elemente ~v ∈ V heißen Vektoren. Bitte beachten Sie: Die Symbole “+” und “·” werden üblicherweise sowohl für Addition und Multiplikation im Körper K als auch für Addition und Skalarmultiplikation für den Vektorraum V verwendet! Das Multiplikationssymbol “·” wird oft auch weggelassen, d.h. anstelle von “s · ~v ” schreibt man auch “s~v ”. Bemerkung: Ist (V, +, ·) kein Körper, sondern nur ein Ring mit Eins, so spricht man statt von einem K-Vektorraum von einem K-Modul. Beispiel 10.1.1. 1. Eines der wichtigsten Beispiele ist der Vektorraum K n der n-dimensionalen Spaltenvektoren x1 x2 ~x = . .. xn mit x1 , . . . , xn ∈ K. Addition und Skalarmultiplikation werden hier wie folgt definiert: x1 y1 x1 + y1 x1 s · x1 x2 y2 x2 + y2 x2 s · x2 s· . = . .. + .. = , .. . . .. .. . xn yn xn + yn xn s · xn Wir weisen nach, dass (K n , +, ·) ein K-Vektorraum ist: (i) z.z.: (K n , +) ist kommutative Gruppe: • Kommutativität ~x + ~y = ~y + ~x, da die Addition in K kommutativ ist. • Assoziativität (~x + ~y ) + ~z = ~x + (~y + ~z), da die Addition in K assoziativ ist. 0 .. ~ • 0 = . ist der Nullvektor. 0 KAPITEL 10. VEKTORRÄUME 7 • InverseElemente −x1 x1 Zu ~x = ... ist −~x = ... der inverse Vektor. −xn xn x1 1 · x1 x1 .. .. .. (ii) 1 · ~x = 1 · . = . = . = ~v für alle ~x ∈ K n . xn 1 · xn xn (iii) folgt aus der Assoziativität der Multiplikation in K. (iv), (v) folgen aus der Distributivität in K. Für K = R und n = 2 kann man sich den Vektorraum R2 als Ebene mit üblicher Vektoraddition und skalarer Multiplikation vorstellen. Entsprechend kann man den Vektorraum R3 mit dem dreidimensionalen Raum assoziieren. Abbildung 10.1 illustriert die Addition und Streckung von Vektoren in der Ebene. 2. Seien m, n ∈ N. Ein Schema der a11 a21 A= an1 Form a12 a22 ··· ··· .. . an2 ··· a1m a2m anm mit aij ∈ K heißt Matrix, genauer n × m-Matrix über K. Dabei ist n die Anzahl der Zeilen und m die Anzahl der Spalten. Die Menge aller n × m-Matrizen über K wird mit K n×m bezeichnet. Eine n×1-Matrix ist nichts anderes als ein n-dimensionaler Spaltenvektor: K n×1 = K n . Seien A, B ∈ K n×m n×m-Matrizen, A = (aij ), B = (bij ). Wir definieren eine Verknüpfung (Addition) “+” auf K n×m wie folgt: A + B := (aij + bij ), d.h. Matrixelemente auf derselben Position werden addiert. Weiterhin definieren wir die skalare Multiplikation “·” wie folgt: Für s ∈ K und A = (aij ) ∈ K n×m sei (s · A) := (s · aij ), d.h. alle Matrixelemente werden mit dem Skalar s multipliziert. Die Menge K n×m der n × m Matrizen über K ist mit der Matrixaddition und der Skalarmultiplikation ein K-Vektorraum. 3. Es sei M eine beliebige Menge und K ein beliebiger Körper. Dann wird die Menge K M der Abbildungen von M nach K mit der folgenden Addition und Skalarmultiplikation zu einem Vektorraum: Für f, g ∈ K M und s ∈ K definieren wir (f + g)(x) := f (x) + g(x) (s · f )(x) := s · f (x) für alle x ∈ M, für alle x ∈ M. Der Nullvektor dieses Vektorraums ist die Nullabbildung, d.h. x 7→ 0 für alle x ∈ M . Das Inverse zu f ist die Abbildung −f mit (−f )(x) := −f (x). KAPITEL 10. VEKTORRÄUME 8 ~x + ~y x2 +y2 y2 ~y 3 x 2~ x2 ~x y1 x1 x1 +y1 Abbildung 10.1: Addition und Streckung von Vektoren in der Ebene. 4. Die Menge {~0} ist ein K-Vektorraum. Lemma 10.1.2 (Rechenregeln in Vektorräumen). Es sei (K, +, ·) ein Körper und (V, +, ·) ein K-Vektorraum. Dann gilt: (i) 0 · ~v = ~0 für alle ~v ∈ V . (ii) s · ~0 = ~0 für alle s ∈ K. (iii) Für s ∈ K und ~v ∈ V gilt: s · ~v = ~0 ⇐⇒ (s = 0 ∨ ~v = ~0). (iv) (−s) · ~v = −(s · ~v ) für alle s ∈ K, ~v ∈ V , d.h. das Inverse zum Vektor s · ~v ist der Vektor (−s) · ~v . Beweis: (i) 0 · ~v = (0 + 0) · ~v = 0 · ~v + 0 · ~v | − 0 · ~v ⇒ 0 · ~v = ~0 für alle ~v ∈ V (ii) s · ~0 = s · (~0 + ~0) = s · ~0 + s · ~0 | − s · ~0 ⇒ s · ~0 = ~0 für alle s ∈ K (iii) Seien s ∈ K und ~v ∈ V . „⇒“ Sei s · ~v = ~0. Wir müssen zeigen, dass s = 0 oder ~v = ~0 ist. Ist s = 0, so sind wir fertig. KAPITEL 10. VEKTORRÄUME 9 Betrachten wir nun den Fall, dass s 6= 0 ist. Dann gibt es ein s−1 ∈ K, und es gilt: ~0 = s · ~v ⇔ ~0 = s−1 · (s · ~v ) −1 = (s | · s−1 wegen (ii) · s) · ~v = 1 · ~v = ~v . “⇐“ Klar wegen (i) und (ii). (iv) Seien s ∈ K, ~v ∈ V . Wir müssen zeigen, dass (−s) · ~v das (additive) Inverse zu s · ~v in K ist. (−s) · ~v + s · ~v = (−s + s) · ~v = 0 · ~v = ~0 Matrizen spielen eine große Rolle in der linearen Algebra. Für sie ist auch eine innere Multiplikation, d.h. eine Multiplikation von Matrizen definiert. Definition 10.1.3 (Matrixmultiplikation). Es seien l, m, n ∈ N und A = (aik ) ∈ K n×m , B = (bkj ) ∈ K m×l . Dann ist das Produkt A·B ∈ K n×l wie folgt definiert: (A · B)ij := ai1 · b1j + ai2 · b2j + · · · + ain · bnj = m X aik · bkj k=1 Es muss also gelten: Spaltenzahl der linken Matrix = Zeilenzahl der rechten Matrix. Abb. 1.2 illustriert die Multiplikation zweier Matrizen aus K n×m und K m×l . Wenn l = m = n ist, dann lassen sich je zwei Matrizen derselben Art (also aus K n×n ) miteinander multiplizieren. Satz 10.1.4 (Ring der n × n Matrizen). Die Menge K n×n der n × n Matrizen über einem Körper K bilden zusammen mit der oben definierten Addition und Multiplikation einen nicht-kommutativen Ring mit Einselement 1 0 ··· 0 0 1 · · · 0 En = . .. . 0 0 ··· 1 KAPITEL 10. VEKTORRÄUME 10 l + b11 b21 2 1 b · 1 2 2 a .. · b2 . 2 2 a bm1 2 · bm a 2m a12 . . . a1m c11 a22 . . . a2m c21 .. .. .. .. . . . . cn1 an2 . . . anm b12 ... b1l b22 ... b2l .. . .. .. . bm2 ... . .. + .+ a11 a21 n .. . an1 m bml m c12 ... c1l c22 ... c2l .. . .. .. . cn2 ... . cnl m l Abbildung 10.2: Veranschaulichung der Matrixmultiplikation. Source KAPITEL 10. VEKTORRÄUME 11 Beweis: (K n×n , +) ist eine kommutative Gruppe, da sich die Eigenschaften der Addition von dem Körper K auf die Addition von Matrizen übertragen. Das neutrale Element ist dementsprechend die Nullmatrix, d.i. eine Matrix, die nur Nullen als Einträge hat. Wir zeigen hier als Beispiel die Kommutativität, die anderen Eigenschaften kann man in ähnlicher Weise nachrechnen. Sei A, B ∈ K n×n , A = (aij ), B = (bij ), dann gilt: A + B = (aij + bij ) = (bij + aij ) = B + A Die Matrixmultiplikation ist assoziativ, da für A, B, C ∈ K n×n , A = (aij ), B = (bij ), C = (cij ) gilt: ((A · B) · C)ij = = = = = n X k=1 n X (A · B)ik · ckj n X ( ail · blk ) · ckj k=1 l=1 n X n X k=1 l=1 n X n X ail · blk · ckj (Assoziativität bzgl. “+” und Distributivität in K) ail · blk · ckj (Kommutativität bzgl. “+” in K) l=1 k=1 n X n X l=1 k=1 ail · ( | blk · ckj ) (Distributivität in K) {z (B·C)lj } = (A · (B · C))ij Die Matrixmultiplikation ist allerdings nicht kommutativ, z.B. ist 2 3 1 2 2·1+3·3 2·2+3·4 = 4 1 3 4 4·1+1·3 4·2+1·4 11 16 = 7 12 1 2 2 3 1·2+2·4 1·3+2·1 = 3 4 4 1 3·2+4·4 3·3+4·1 10 5 = , 22 13 die beiden Multiplikationen haben also unterschiedliche Ergebnisse. Einselement ist die Matrix 1 ... 0 E n = ... . . . ... , 0 ... 1 die nur Einsen in der Diagonale hat und ansonsten mit Nullen besetzt ist, d.h. ( 1, falls i = j n E = (eij ) mit eij = . 0, sonst KAPITEL 10. VEKTORRÄUME 12 Wir zeigen nun, dass E n das neutrale Element bzgl. der Matrixmultiplikation ist. Für eine beliebige Matrix A = (aij ) ∈ K n×n gilt: A · E n = (aik )(ekj ) = ( n X aik ekj ) k=1 = (aij ejj ) = (aij ). Ebenso zeigt man, dass E n · A = (eik )(akj ) = (aij ) ist. Beachten Sie, dass i, j und k Laufindizes sind, deren Benennung geeignet angepasst werden kann. Manchmal benötigt man Matrizen in einer “umgedrehten” Form, d.h. tauschten Zeilen und Spalten: a11 a12 · · · a1m a11 a21 · · · a21 a22 · · · a2m a12 a22 · · · T ransponierung A= −→ At = .. .. . . an1 an2 · · · anm a1m a2m · · · mit ver an1 an2 anm At heißt transponierte Matrix von A. Ist A ∈ K n×m , so ist At ∈ K m×n . n×n sind invertierbar (beispielsweise ist Bemerkung: Nicht alle Matrizen aus K 3 2 2×2 ∈K die Matrix nicht invertierbar). Invertierbare Matrizen werden 6 4 auch reguläre Matrizen genannt. Vektoren aus K n lassen sich nicht einfach miteinander multiplizieren, da das Format nicht passt (Spaltenzahl = 1, aber Zeilenzahl = n). Durch Transponierung kann man jedoch erreichen, dass die Formate zueinander passen. x1 y1 x2 y2 Definition 10.1.5 (Skalarprodukt). Seien ~x = . , ~y = . ∈ K n . . .. . xn yn Dann ist ~x • ~y := ~x t · ~y = x1 y1 + . . . + xn yn ∈ K das Skalarprodukt auf K n . Beispiel 10.1.2. Betrachte die Vektoren (im R2 ) 2 1 2 ~u = , ~v = , ~x = , 0 1 2 Es ist ~u ~x ~u ~v • • • • ~v ~y ~y ~x = = = = 2 4 0 4 ~y = 0 . 2 KAPITEL 10. VEKTORRÄUME 13 v1 v2 Definition 10.1.6 (Länge von Vektoren). Die Länge eines Vektors ~v = . ∈ .. vn Rn ist definiert als | ~v |= q v12 + v22 + . . . + vn2 . √ Es ist also | ~v |= ~v • ~v . Seien ~x, ~y ∈ Rn , sei ∠(~x, ~y ) der Winkel zwischen diesen Vektoren. Man kann zeigen, dass ~x • ~y =| ~x || ~y | cos ∠(~x, ~y ). Aus dieser Relation folgt eine geometrische Veranschaulichung. Der Wert eines Skalarprodukts ~x • ~y beträgt die Länge der Projektion des Vektors, der die Länge | ~x || ~y | hat und den Winkel ∠(~x, ~y ) mit der x-Achse einschließt, auf die x-Achse. Sei Θ dieser Winkel, dann ergibt sich folgendes Bild: 1 | ~a || ~b | Θ cos Θ 1 | ~a || ~b | cos Θ Aus dieser Beziehung ergibt sich folgendes Lemma: Lemma 10.1.7. Seien ~x, ~y ∈ Rn Vektoren. • Stehen ~x, ~y aufeinander senkrecht, so gilt ~x • ~y = 0. • cos ∠(~x, ~y ) = ~x • ~y . | ~x || ~y | Wegen der Beziehung zum Cosinus wird das Skalarprodukt in Anwendungen (z.B. Information Retrieval, Suchmaschinen) oft als Ähnlichkeitsmaß verwendet. Beispiel 10.1.3. Betrachte die Vektoren 2 1 2 ~u = , ~v = , ~x = , 0 1 2 0 ~y = . 2 KAPITEL 10. VEKTORRÄUME 14 aus Beispiel 1.7. Es ist | ~u |= 2, | ~v |= 10.2 √ √ 2, | ~x |= 2 2, | ~y |= 2. √1 2 √1 2 ~u • ~v = 2 cos∠(~u, ~v ) = ~x • ~y = 4 cos∠(~x, ~y ) = ~u • ~y = 0 ~v • ~x = 4 cos∠(~u, ~y ) = 0 cos∠(~v , ~x) = 1 orthogonal vollkommen ähnlich! Teilräume Definition 10.2.1 (Teilräume, Untervektorräume). Es seien (K, +, ·) ein Körper und (V, +, ·) ein K-Vektorraum. Sei U ⊆ V eine Teilmenge von V . U heißt Teilraum oder Untervektorraum von V , wenn es die folgenden Bedingungen erfüllt: (i) U 6= ∅, (ii) ~v , w ~ ∈ U ⇒ (~v + w) ~ ∈ U, (iii) s ∈ K, ~v ∈ U ⇒ (s · ~v ) ∈ U . Satz 10.2.2. Ein Teilraum U eines K-Vektorraumes (V, +, ·) zusammen mit der Einschränkung der Addition +|U ×U und Skalarmultiplikation ·|K×U auf U ist selbst wieder ein K-Vektorraum. Beweis: Sei U ein Teilraum von V . Bedingungen (ii)-(v) von Definition 10.1.1 gelten für alle ~v ∈ V , also auch für alle ~v ∈ U . Bleibt noch (i) zu zeigen, d.h. (U, +) ist eine kommutative Gruppe, und die Wohldefiniertheit der Abbildungen „+“,“·“. Letzteres bedeutet: ~v , w ~ ∈ U ⇒ ~v + w ~ ∈U s ∈ K, ~v ∈ U ⇒ s · ~v ∈ U Dies aber sind gerade die Bedingungen (ii), (iii) von Def. 10.2.1. Wir zeigen nun, dass (U, +) eine kommutative Gruppe ist. „+” ist assoziativ und kommutativ in V, also auch in U. Wir müssen noch zeigen • Für ~v ∈ U ist auch −~v ∈ U : Das ist klar, denn −~v = −(1 · ~v ) Lemma10.1.2 = (−1) · ~v ∈ U wegen (iii). • ~0 ∈ U : Wegen (i) ist U 6= ∅, also gibt es einen Vektor ~v ∈ U . Dann ist aber auch −~v ∈ U , und daher auch ~0 = ~v + (−~v ) = ~v − ~v ∈ U. KAPITEL 10. VEKTORRÄUME 15 Korollar 10.2.3 (Teilräume und Nullvektor). Zu jedem Teilraum gehört der Nullvektor ~0. Beweis: Jeder Teilraum U ist nichtleer, enthält also einen Vektor ~v ∈ U . Damit ist auch 0 · ~v = ~0 ∈ U . Lemma 10.2.4 (Charakterisierung von Teilräumen). Es sei (V, +, ·) ein KVektorraum. Eine nichtleere Teilmenge U ⊆ V ist genau dann ein Teilraum von V , wenn die folgende Bedingung erfüllt ist: s ∈ K, ~v , w ~ ∈ U ⇒ ((s · ~v ) + w) ~ ∈ U. Beweis: Seien (V, +, ·) ein K-Vektorraum, U ∈ V und U 6= ∅. Z.z.: U ist ein Teilraum ⇔ ∀s ∈ K, ~v , w ~ ∈ U : ((s · ~v ) + w) ~ ∈ U. „⇒“ Sei U ein Teilraum, s ∈ K und ~v , w ~ ∈ U . z.z.: ((s · ~v ) + w) ~ ∈U Nach Def 10.1.6 gilt (s ·~v ) ∈ U , und daher nach Def. 10.1.6 ((s ·~v ) + w) ~ ∈ U. „⇐“ Sei U ∈ V, U 6= ∅, und für alle s ∈ K, ~v , w ~ ∈ U gilt ((s · ~v ) + w) ~ ∈ U. z.z.: U erfüllt die Bedingungen (i), (ii), (iii) von Def. 10.2.1. zu (i): U 6= ∅ nach Voraussetzung. zu (ii): Sei ~v , w ~ ∈ U . Dann gilt nach den Voraussetzungen (~v + w) ~ = ((1 · ~v ) + w) ~ ∈ U. zu (iii): Sei s ∈ K, ~v ∈ U . Dann ist (s · ~v ) = (s · ~v ) + ~0 ∈ U, da nach Korollar 10.2.3 ~0 ∈ U ist. Beispiel 10.2.1. 1. Geraden im R2 /R3 : Jede durch den Ursprung verlaufende Gerade im R2 /R3 ist ein Untervektorraum des (R2 /R3 , +, ·). 2. Ebenen im R3 : Es sei M ⊆ R3 die Menge M = { (x, y, z) ∈ R3 | z = x + y } M ist ein Untervektorraum des (R3 , +, ·). Alle Ebenen des R3 , die durch den Ursprung verlaufen, sind Untervektorräume des (R3 , +, ·). KAPITEL 10. VEKTORRÄUME 16 3. Sei A ∈ K n×m eine n × m-Matrix. Sei N (A) ⊆ K m die Menge N (A) = { ~x ∈ K m | A~x = ~0 }. Dann ist N (A) ein Teilvektorraum von (K m , +, ·) und heißt Nullraum der Matrix A. Diesen kann man sich auch geometrisch veranschaulichen. Schauen wir uns hierzu allgemein eine Matrix A = (aij ) ∈ K n×m und die Zeilenvektoren a~i t = ai1 ai2 . . . ain . an. Dann gilt: a11 a12 · · · a21 a22 · · · .. . an1 an2 ··· Pm a1m x1 a~1 • ~x 0 k=1 a1k xk Pm x2 a2m a x a ~ • ~ x k=1 2k k 2 0 · .. = = .. = .. .. . . . Pm . anm xm a~n • ~x 0 k=1 ank xk ⇔ a~i • ~x = ~0 ∀1 ≤ i ≤ n, wobei • das Skalarprodukt ist. Das bedeutet, dass die Vektoren der Menge N (A) genau die Vektoren sind, die auf allen Zeilenvektoren der Matrix senkrecht stehen. Zur Illustration schauen wir uns zum Beispiel die Matrix 2 3 1 A= 4 6 2 2 4 mit den Zeilenvektoren a~1 = 3 und a~2 = 6 an. Dann ergibt sich das 1 2 in Abbildung 10.3 dargestellte Bild, wobei der Nullraum eine Ebene ähnlich zu der hier angedeuteten roten Fläche bildet, die sich aber natürlich ins Unendliche weiter erstreckt. Satz 10.2.5. Jeder Vektorraum V enthält auf jeden Fall die trivialen Untervektorräume V (also sich selbst) und den Nullvektorraum {~0}. Wir diskutieren als nächstes Teilräume, die aus anderen Teilräumen durch Schnittbildung und Addition entstehen. Lemma 10.2.6. Es seien (V, +, ·) ein K-Vektorraum und U1 , U2 zwei Teilräume von V . Dann sind auch • U1 ∩ U2 und • U1 + U2 := {~u1 + ~u2 | ~u1 ∈ U1 und ~u2 ∈ U2 } Teilräume von V . Beweis: Seien U1 , U2 Teilräume von V . Dann ist ~0 ∈ U1 ∩ U2 (nach Korollar 10.2.3), also U1 ∩ U2 6= ∅, und auch U1 + U2 6= ∅, da ~0 = ~0 + ~0 ∈ U1 + U2 . KAPITEL 10. VEKTORRÄUME 17 a~2 a~1 Abbildung 10.3: Nullraum einer Matrix. 1. z.z.: U1 ∩ U2 ist ein Teilraum von V . Sei s ∈ K, ~v , w ~ ∈ U1 ∩ U2 . Dann gilt sowohl ~v , w ~ ∈ U1 als auch ~v , w ~ ∈ U2 . Nach Lemma 10.2.4 gilt dann ((s · ~v ) + w) ~ ∈ U1 ∩ U2 , folglich ist nach demselben Lemma U1 ∩ U2 ein Teilraum. 2. z.z.: U1 + U2 ist ein Teilraum von V. Sei s ∈ K, seien u~1 + u~2 , v~1 + v~2 ∈ U1 + U2 (mit u~1 , v~1 ∈ U1 , u~2 , v~2 ∈ U2 ). Dann ist (s · (u~1 + u~2 )) + (v~1 + v~2 ) = ((s · u~1 ) + (s · u~2 )) + (v~1 + v~2 ) = ((s · u~1 ) + v~1 ) + ((s · u~2 ) + v~2 ) ∈ U1 + U2 . {z } | {z } | ∈U1 ∈U2 Bemerkung: Ist I eine beliebige Indexmenge und ist für alle i ∈ I die Menge T Ui ein Teilraum von V , so ist auch i∈I Ui ein Teilraum von V . Es sei nun V ein K-Vektorraum. Für ~v ∈ V definieren wir h~v i := {s · ~v | s ∈ K}. Dann ist h~v i ein Teilraum von V . Man nennt ihn den von ~v erzeugten Teilraum. Beispiel 10.2.2. (Geraden im R2 ): Im R-Vektorraum R2 kann man sich den x ~ von einem Vektor y 6= 0 erzeugten Teilraum als die Punkte auf der eindeutigen Geraden durch den Nullpunkt und den Punkt xy vorstellen. Sind v~1 und v~2 zwei Vektoren in V , so ist (nach Lemma 10.2.6) auch hv~1 i + hv~2 i = {s1 v~1 + s2 v~2 | s1 , s2 ∈ K} KAPITEL 10. VEKTORRÄUME 18 auch ein Teilraum. Solche Teilräume wollen wir uns im Folgenden näher anschauen. 10.3 Linearkombinationen und Erzeugendensysteme Eine wichtige Rolle im Zusammenhang mit Vektor- und Teilräumen spielen Linearkombinationen von Vektoren. Das sind neue Vektoren, die durch Skalarmultiplikation und Vektoraddition aus gegebenen Vektoren entstehen. Wir hatten gerade gesehen, dass solche sog. Linearkombinationen bei der Erzeugung von Teilräumen auftreten. Mit Hilfe von Linearkombinationen kann man einen Teilraum also “von innen heraus” erzeugen. Definition 10.3.1 (Linearkombinationen, Erzeugnisse). Es sei (V, +, ·) ein KVektorraum mit Vektoren ~v1 , . . . , ~vn ∈ V . Dann heißt der Vektor ~v ∈ V eine Linearkombination der Vektoren {~v1 , . . . , ~vn }, wenn es s1 , . . . , sn ∈ K gibt mit ~v = s1 · ~v1 + · · · + sn · ~vn . Ist M ⊆ V eine Teilmenge von V , so definieren wir das Erzeugnis von M als ( n ) X hM i := si · ~vi n ∈ N, si ∈ K und ~vi ∈ M für i = 1, . . . , n , i=1 wobei der leeren Summe der Nullvektor entspricht: X = ~0 ∅ Lemma 10.3.2. Es sei (V, +, ·) ein K-Vektorraum und M ⊆ V eine beliebige Teilmenge von V . Dann ist das Erzeugnis hM i von M ein Teilraum von V . Beweis: Sei (V, +, ·) ein K-Vektorraum und sei M ⊆ V . z.z.: hM i ist ein Teilraum von V . Wir benutzen wieder Lemma 10.2.4. hM i ist nicht leer, da auf jeden Fall X ~0 = ∈ hM i. ∅ Seien s ∈ K, ~v , w ~ ∈ hM i, d.h. ~v = s1 · ~v1 + · · · + sn · ~vn , w ~ = t1 · w ~ 1 + · · · + tn · w ~ n, KAPITEL 10. VEKTORRÄUME 19 für ~v1 , . . . ~vn , w ~1 . . . w ~ n ∈ M und n, m ∈ N. Dann ist s · ~v + w ~ = s · (s1 · ~v1 + · · · + sn · ~vn ) + t1 · w ~ 1 + · · · + tn · w ~n = (s · s1 )~v1 + · · · + (s · sn )~vn + t1 · w ~ 1 + · · · + tn · w ~n ∈< M > Also ist hM i ein Teilraum von V . hM i heißt auch der von M erzeugte Teilraum von V . Die Menge M heißt Erzeugendensystem von hM i. Lemma 10.3.3. hM i ist der kleinste Teilraum (bezüglich Mengeninklusion) von V , der M enthält. Beweis: Sei M ⊆ V . Wir müssen zeigen: Wenn U ein Teilraum von V ist mit M ⊆ U , dann ist auch hM i ⊆ U . Sei U ein Teilraum von V mit M ⊆ U . hM i besteht aus allen Linearkombinationen von Vektoren aus M, wir müssen also zeigen, dass alle solche Linearkombinationen in U liegen. Seien also ~v1 , . . . , ~vn ∈ M, s1 , . . . , sn ∈ K. Wegen M ⊆ U sind dann auch alle ~v1 , . . . , ~vn ∈ U , folglich sind s1 · ~v1 , . . . , sn · ~vn ∈ U und daher s1 · ~v1 + · · · + sn · ~vn ∈ U nach Definition des Teilraumes. Daher ist hM i ⊆ U . Demnach macht es Sinn, als Erzeugnis der leeren Menge den trivialen Teilraum von V , der nur aus dem Nullvektor besteht, zu definieren, also h∅i := {~0}. Definition 10.3.4 (Endlich erzeugter (Unter)Vektorraum). Es sei (V, +, ·) ein K-Vektorraum und U ⊆ V ein Untervektorraum. Gibt es eine endliche Menge M ⊆ V , also M = {~v1 , . . . ~vn } mit n ∈ N, sodass U = hM i, so sagen wir, dass U endlich erzeugt ist. Wir schreiben auch hM i = h{~v1 , . . . , ~vn }i = h~v1 , . . . , ~vn i ( n ) X si · ~vi si ∈ K für i = 1, . . . , n = i=1 2 2 Beispiel 10.3.1. 1 −11. 1Ein erzeugter Teilraum 2im R : Es sei V = R und M = , , . Dann ist hM i = R , denn ein beliebiger Vektor 1 1 0 x 2 ∈ R kann wie folgt als Linearkombination der Elemente von M y geschrieben werden: x 1 −1 1 + (y − x) · =x· + (y − x) · y 1 1 0 1 −1 1 Damit ist 1 , 1 , 0 also ein Erzeugendensystem des Vektorraums R2 und R2 ist folglich endlich erzeugt. Bereits die kleinere Menge 11 , 10 KAPITEL 10. VEKTORRÄUME ist ein Erzeugendensystem von R2 , da ein beliebiger Vektor geschrieben werden kann als x 1 1 =y· + (x − y) · y 1 0 20 x y ∈ R2 2. Das Standard-Erzeugendensystem des K n : Wir betrachten den K-Vektorraum K n . Für i = 1, . . . , n sei ~ei der Vektor, dessen i-ter Eintrag 1 ist und alle anderen Einträge 0, d.h. 0 .. . ( 0 1 falls j = i, ~ei = (~ei )j = 1 ← i 0 sonst. 0 . .. 0 Der Vektor ~ei heißt i-ter Einheitsvektor. Dann ist {~e1 , . . . , ~en } ein Erzeugendensystem von K n , also K n = h~e1 , . . . , ~en i, denn x1 .. für alle x1 , . . . , xn ∈ K. . = x1 · ~e1 + · · · + xn · ~en xn Folglich ist der Vektorraum K n endlich erzeugt. Die Beispiele illustrieren, dass ein Vektorraum kompakt durch ein Erzeugendensystem dargestellt werden kann. Wenn wir diese Darstellung nun möglichst klein erhalten wollen, müssen wir Erzeugendensysteme minimieren. Dies führt uns zu der Idee der Basis als minimales Erzeugendensystem. Idee der Basis: Mit Hilfe von Erzeugendensysteme lassen sich (Unter)Vektorräume leicht kompakt repräsentieren, sie enthalten offenbar alle wichtigen Informationen über den Vektorraum. Wie kann man diese Art der Repräsentation von Vektorräumen optimieren? • Minimalität: Kein Vektor in dem optimalen Erzeugendensystem ist überflüssig. • Unabhängigkeit: Die Vektoren im optimalen Erzeugendensystem sind (irgendwie) unabhängig voneinander. • Eindeutigkeit: Jeder Vektor des erzeugten Vektorraumes hat genau eine Darstellung als Linearkombination der Vektoren des Erzeugendensystems. Definition 10.3.5 (Basis). Es sei (V, +, ·) ein K-Vektorraum. Eine Teilmenge M ⊆ V heißt Basis von V , wenn sich jedes ~v ∈ V eindeutig als Linearkombination von paarweise verschiedenen Vektoren aus M schreiben lässt. Außerdem definieren wir, dass die leere Menge ∅ eine Basis des trivialen K-Vektorraums {~0} ist. KAPITEL 10. VEKTORRÄUME 21 Insbesondere ist jede Basis von V auch ein Erzeugendensystem von V . Zunächst einmal charakterisieren wir endliche Basen, die für viele Beispiele und Anwendungen wichtig sind: Satz 10.3.6. Es sei (V, +, ·) ein K-Vektorraum. Die endliche Teilmenge {~v1 , . . . , ~vn } ⊆ V ist eine Basis von V genau dann, wenn ~v1 , . . . , ~vn paarweise verschieden sind und es zu jedem ~u ∈ V genau ein n-Tupel (x1 , . . . , xn )t ∈ K n gibt mit ~u = x1 · ~v1 + · + xn · ~vn Beweis: Sei {~v1 , . . . , ~vn } ⊆ V , {~v1 , . . . , ~vn } ist eine Basis von V Def. ⇔ jedes ~v ∈ V lässt sich eindeutig als Linearkombination von paarweise verschiedenen ~vi ∈ {~v1 , . . . , ~vn } schreiben. Wir müssen jetzt noch zeigen, dass dies äquivalent ist zu ~v1 , . . . , ~vn sind paarweise verschieden, und es gibt zu jedem ~v ∈ V genau ein n-Tupel (x1 , . . . , xn )t ∈ K n mit ~v = x1 · ~v1 + · · · + xn~vn . „⇒“ {~v1 , . . . , ~vn } sei eine Basis von V. Dann sind ~v1 , . . . , ~vn paarweise verschieden, da falls ~vi = ~vj , für i und j, 1 ≤ i < j ≤ n gilt, dass ~v := ~vi = 1 · ~vi = 1 · ~vj , und damit wäre die Eindeutigkeit der Darstellung von ~v verletzt. Sei ~v ∈ V . Dann lässt sich ~v eindeutig darstellen in der Form ~v = x1 · ~v1 + · · · + xn~vn , wobei einige xi = 0 sein können. Damit ist das Tupel (x1 , . . . , xn )t ∈ K n ebenfalls eindeutig bestimmt. „⇐“ Diese Richtung ist trivial. Beispiel 10.3.2. 1. Einheitsvektoren im K n : Die Menge der Einheitsvektoren {~e1 , . . . , ~en } ist eine Basis des K-Vektorraums K n . 2. Nicht jedes Erzeugendensystem 1ist eine2 Basis: Wie wir 1weiter −1 oben be1 obachtet haben, gilt 11 , −1 , = R . Die Menge , , ist 1 0 1 1 0 jedoch keine Basis von R2 , denn −1 1 −1 1 = 0· + 1· + 0· 1 1 1 0 und andererseits −1 1 −1 1 = 1· + 0· − 2· 1 1 1 0 KAPITEL 10. VEKTORRÄUME 22 3. Der Nullvektor und Basen: Der Nullvektor ~0 kann nie Element einer Basis sein, denn 0 · ~0 = 1 · ~0 = ~0 , so dass also die Darstellung des Nullvektors nicht eindeutig sein kann. 1 1 2 Basis des R : Die Menge ist Basis von R2 , denn für 4. Eine 1 , 0 x 2 y ∈ R gilt x 1 1 = y· + (x − y) · . y 1 0 Gilt auch x 1 1 = a· + b· y 1 0 für a, b ∈ R, so muss x = a + b und y = a gelten. Daraus folgt aber a = y und b = x − y, so dass die Koeffizienten der Darstellung also eindeutig sind. 5. Der R-Vektorraum R2 hat unendlich viele Basen: Zum Beispiel ist die Menge {~e1 , c · ~e2 } für alle c ∈ R\{0} eine Basis von R2 . 10.4 Lineare Abhängigkeiten und lineare Unabhängigkeiten Bei der Idee eines optimalen Erzeugendensystems (also einer Basis) sollte auch die Idee der Unabhängigkeit umgesetzt werden. Das wollen wir nun konkretisieren. Definition 10.4.1 (Lineare Unabhängigkeit). Es sei (V, +, ·) ein K-Vektorraum. Eine Teilmenge M ⊆ V heißt linear unabhängig, wenn für jedes ~v ∈ M gilt, dass D E ~ 6= hM i. M \ {v} Die Teilmenge M heißt linear abhängig, wenn M nicht linear unabhängig ist, das heißt M ist linear abhängig Beispiel 10.4.1. ⇔ ∃~v ∈ M : hM \ {~v }i = hM i. 1. Die leere Menge ∅ ist linear unabhängig. 2. Ist ~0 ∈ M , so ist M linear abhängig, da hM \ {~0}i = hM i. 1 3. Die Menge 11 , −1 ist linear abhängig, weil hM i = R2 , aber auch 1 , 0 −1 2 schon M \ =R . 1 Lemma 10.4.2. Es sei V ein K-Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig. (ii) Es gibt ein ~v ∈ M mit ~v ∈ hM \ {~v }i. KAPITEL 10. VEKTORRÄUME 23 Beweis: (i) ⇒ (ii) Sei M ⊆ V eine linear abhängige Teilmenge von V . Dann gibt es ein ~v ∈ M mit hM \ {~v }i = hM i. Wegen M ⊆ hM i und ~v ∈ M gilt dann auch ~v ∈ M ⊆ hM i = hM \ {~v }i. (ii) ⇒ (i) Sei ~v ∈ M mit ~v ∈ hM \ {~v }i. Dann gibt es si ∈ K und ~vi ∈ M \ {~v } , 1 ≤ i ≤ n mit n X ~v = si · ~vi (10.4.1) i=1 Wir zeigen nun, dass hM \ {~v }i = hM i (10.4.2) ist. Nach Definition ist M dann linear abhängig. z.z.: Gleichung 10.4.2 gilt Wegen M \ {~v } ⊆ M ist auch hM \ {~v }i ⊆ hM i. Sei umgekehrt w ~ ∈ hM i, d.h. w ~= m X tj · w ~j (3) j=1 mit tj ∈ K, w~j ∈ M, 1 ≤ j ≤ m. Ist keines der w ~ j gleich ~v , so ist w ~ ∈ hM \{~v }i, und wir sind fertig. Andernfalls ist ~v = w ~ j für ein j, o.B.d.A. ~v = w ~ 1 . Mit 10.4.1 und 3 können wir dann schreiben: w ~ = t1 · ~v + m X tj · w ~j j=2 n m X X = t1 ( si · ~vi ) + tj · w ~j = i=1 n X j=2 m X (t1 · si ) · ~vi + i=1 | tj · w ~ j ∈ hM \ {~v }i j=2 {z ∈hM \{~ v }i } | {z } ∈hM \{~ v }i Insgesamt gilt damit 10.4.2. Das Lemma sagt also aus, dass es in einer linear abhängigen Teilmenge M ein Element gibt, das als Linearkombination der anderen Elemente aus M geschrieben werden kann. Beispiel 10.4.2. Es sei V = R3 und 1 0 0 1 1 , 0 , 1 , 0 . M := 0 0 0 1 KAPITEL 10. VEKTORRÄUME 24 Dann ist M linear abhängig, da 1 1 0 0 1 = 1 · 0 + 1 · 1 + 0 · 0 0 0 0 1 * 1 0 0 + ∈ 0 , 1 , 0 0 0 1 . Es gilt auch * + 1 1 0 0 0 ∈ 1 , 1 , 0 0 0 0 1 und * + 0 1 1 0 1 ∈ 1 , 0 , 0 . 0 0 0 1 Man beachte jedoch, dass * + 0 1 1 0 0 ∈ / 1 , 0 , 1 . 0 0 0 1 Welche Folgerung können wir aus dem letzten Beispiel ziehen? Bemerkung: Bei einer linear abhängigen Menge M muss nicht jedes Element ~v ∈ M in dem von den übrigen erzeugten Teilraum liegen. Lemma 10.4.3. Es sei V ein K-Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig. (ii) Es gibt paarweise verschiedene Vektoren ~v1 , . . . , ~vn ∈ M mit zugehörigen Skalaren s1 , . . . , sn ∈ K, die nicht alle Null sind, mit s1 · ~v1 + · · · + sn · ~vn = ~0. Beweis: Wir zeigen zunächst (i) ⇒ (ii). M sei linear abhängig. Nach Lemma 10.4.2 gibt es ein ~v1 ∈ M mit ~v1 ∈ hM \ {~v1 }i. Fall 1: M \ {~v1 } = ∅. Dann ist ~v1 ∈ h∅i = ~0 , also ~v1 = 0. Wähle (z.B.) s1 = 1 ∈ K, dann ist s1 · ~v1 = 1 · ~0 = ~0. Fall 2: M \{~v1 } = 6 ∅. Dann gibt es paarweise verschiedene ~v2 , . . . , ~vn ∈ hM \{~v1 }i und s1 , . . . , sn ∈ K mit ~v1 = s2 · ~v2 + · · · + sn · ~vn . KAPITEL 10. VEKTORRÄUME 25 Dann ist aber −~v1 + s2 · ~v2 + · · · + sn · ~vn = ~0, wobei ~v1 , ~v2 , . . . , ~vn paarweise verschieden sind und zumindest der Koeffizient von ~v1 von 0 verschieden ist (−1 6= 0). Es bleibt noch zu zeigen, dass (ii) ⇒ (i) gilt. Nach Voraussetzung gibt es (paarweise verschiedene) Vektoren ~v1 , . . . , ~vn ∈ M und Skalare s1 , . . . , sn ∈ K, nicht alle gleich 0, mit s1 · ~v1 + · · · + sn · ~vn = ~0. Mindestens eines der si ist 6= 0, sei dies o.B.d.A. s1 . Dann ist s1 · ~v1 ⇒ s−1 1 = − s2 · ~v2 − · · · − sn · ~vn · (s1 · ~v1 )= − s−1 v2 ) − · · · − s−1 vn ) 1 (s2 · ~ 1 (sn · ~ =1 · ~v1 = (s−1 v1 1 · s1 ) · ~ ⇒ ~v1 = − (s−1 v2 − · · · − (s−1 vn 1 s2 ) · ~ 1 sn ) · ~ ⇒ ~v1 ∈h~v2 , . . . , ~vn i ⊆ hM \ {~v1 }i. Also ist M linear abhängig. Als unmittelbare Folgerung aus Lemma 10.4.3 erhalten wir das nächste Korollar. Korollar 10.4.4. Es sei V ein K-Vektorraum und M ⊆ V . Die folgenden Aussagen sind äquivalent: (i) M ist linear unabhängig. (ii) Für beliebige paarweise verschiedene Vektoren ~v1 , . . . , ~vn ∈ M und beliebige Skalare s1 , . . . , sn ∈ K gilt: s1 · ~v1 + · · · + sn · ~vn = ~0 ⇒ s1 = · · · = sn = 0. (10.4.3) Beweis: Dieses Korollar ergibt sich aus Lemma 10.4.3 durch Negation von (i) und (ii) unter Beachtung der logischen Äquivalenz A ⇔ B gdw. ¬A ⇔ ¬B. Negation von (i), Lem. 10.4.3: M ist linear unabhängig. Negation von (ii), Lem. 10.4.3: ¬(∃~v1 , . . . , ~vn ∈ M paarweise verschieden, ∃s1 , . . . , sn ∈ K, nicht alle si = 0: s1~v1 + · · · + sn~vn = ~0.) ≡ ∀~v1 , . . . , ~vn ∈ M paarweise verschieden, ∀s1 , . . . , sn ∈ K, nicht alle si = 0: s1~v1 + · · · + sn~vn 6= ~0. ≡ ∀~v1 , . . . , ~vn ∈ M paarweise verschieden, ∀s1 , . . . , sn ∈ K : s1~v1 + · · · + sn~vn = ~0 ⇒ si = 0 für alle i mit 1 ≤ i ≤ n. KAPITEL 10. VEKTORRÄUME 26 Bedingung 10.4.3 liefert eine sehr häufig verwandte Methode, um lineare Unabhängigkeit nachzuweisen. Bemerkung: Die Implikation in Teil (ii) des obigen Korollars ist eigentlich eine Äquivalenz. Aus diesem Korollar kann man nun wiederum ein weiteres ableiten. Korollar 10.4.5. Teilmengen linear unabhängiger Mengen sind selbst wieder linear unabhängig. Dieses Korollar gilt jedoch nicht für linear abhängige Mengen, was sich leicht anhand eines Gegenbeispiels verdeutlichen lässt. Beispiel 10.4.3. Es sei V = R3 und 1 1 1 1 , 2 , 3 ⊆ V. M= 1 3 5 Um festzustellen, ob M linear abhängig ist, müssen wir nach Lemma 10.4.3 überprüfen, ob es Skalare x1 , x2 , x3 ∈ R gibt mit (x1 , x2 , x3 ) 6= (0, 0, 0), so dass 1 1 0 1 x1 · 1 + x2 · 2 + x3 · 3 = 0 1 3 5 0 gilt. Dies ist z.B. für (x1 , x2 , x3 ) = (1, −2, 1) der Fall. 1 Also ist M linear abhängig. Allerdings ist jede der Teilmengen M1 = 1 , 1 1 1 M2 = 2 und M3 = 3 linear unabhängig. 3 5 10.5 Basis und Dimension Wir bringen nun die Begriffe “Vektorraumbasis” und “lineare Unabhängigkeit” zusammen und verbinden diese au?erdem mit dem Begriff der “Minimalität”. Wir werden auch sehen, dass eine Vektorraumbasis optimal ist in Bezug auf “maximale Ausschöpfung”. Satz 10.5.1 (Charakterisierung von Basen). Es sei (V, +, ·) ein K-Vektorraum und M ⊆ V . Dann sind die folgenden Aussagen äquivalent: (i) M ist Basis von V . KAPITEL 10. VEKTORRÄUME 27 (ii) M ist linear unabhängiges Erzeugendensystem von V . (iii) M ist inklusionsminimales Erzeugendensystem von V , d.h. hM i = V und hM \ {~u}i = 6 V für alle ~u ∈ M. „Wenn man einen Vektor wegnimmt, erhält man kein Erzeugendensystem mehr.“ (iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V , d.h. M ist linear unabhängig, aber M ∪ {~v } ist für jedes ~v ∈ V \ M linear abhängig. „Wenn man einen Vektor hinzunimmt, erhält man keine linear unabhängige Menge mehr.“ Beweis: Wir beweisen den Satz mit folgendem Ringschluss: (i) ⇒ (ii) ⇒ (iii) ⇒ (iv) ⇒ (i) (i) ⇒ (ii) Sei M eine Basis von V . Dann ist M auch ein Erzeugendensystem von V nach Definition 10.3.5. Wir müssen noch zeigen, dass M linear unabhängig ist. Wir benutzen dazu Korollar 10.4.4 bzw. Bedingung (4). Seien also ~v1 , . . . , ~vn ∈ M , paarweise verschieden, mit s1 , . . . , sn ∈ K, so dass s1 · ~v1 + · · · + sn · ~vn = ~0 = 0 · ~v1 + · · · + 0 · ~vn . Wegen der Eindeutigkeit der Darstellung ist dann s1 = · · · = sn = 0. Damit ist (4) erfüllt, und also gilt (ii). (ii) ⇒ (iii) Sei M ein linear unabhängiges Erzeugendensystem von V . Wir müssen zeigen: M ist inklusionsminimales Erzeugendensystem, d.h. es gibt keine echte Teilmenge M 0 ( M , die auch V erzeugt, d.h. hM \{~u}i = 6 V = hM i für alle ~u ∈ M . Das ist aber gerade die Defnition der linearen Unabhängigkeit. Damit ist M inklusionsminimales Erzeugendensystem. (iii) ⇒ (iv) Es gelte hM i = V und hM \ {~u}i = 6 V für alle ~u ∈ M .Damit ist M linear unabhängig. Noch z.z.: M ∪ {~v } ist für jedes ~v ∈ V \ M linear abhängig. Sei ~v ∈ V \ M . Dann ist V = hM i ⊆ hM ∪ {~v }i ⊆ V, da ~v ∈ V und M ⊆ V . Also ist hM i = hM ∪ {~v }i = V, und damit ist M ∪ {~v } linear abhängig. (iv) ⇒ (i) Sei M inklusionsmaximale linear unabhängige Teilmenge von V. Wir müssen zeigen, dass M eine Basis von V ist. Wir zeigen zunächst, dass M ein Erzeugendensystem von V ist, d.h. dass jeder Vektor ~v aus V als Linearkombination von endlich vielen Vektoren aus M geschrieben werden KAPITEL 10. VEKTORRÄUME 28 kann. Für ~v ∈ M ist das klar. Sei nun ~v ∈ / M . Da M inklusionsmaximale linear unabhängige Teilmenge von V ist und M ⊂ M ∪ {~v } ist, muss M ∪ {v} linear abhängig sein. Also gibt es ~v1 , . . . , ~vn ∈ M und s, s1 , . . . , sn ∈ K, nicht alle gleich 0, mit s · ~v + s1 · ~v1 + · · · + sn~vn = ~0. Da M linear unabhängig ist, muss insbesondere s 6= 0 sein. Also gilt − s · ~v =s1 · ~v1 + · · · + sn · ~vn ⇒ ~v =(−s)−1 s1 · ~v1 + · · · + (−s)−1 sn · ~vn . Also ist ~v ∈ hM i und daher hM i = V . Es bleibt, die Eindeutigkeit der Darstellung als Linearkombination zu zeigen. Sei ~v ∈ V , und nehmen wir an, es gilt ~v = s1~v1 + · · · + sn~vn = t1 w ~ 1 + · · · + tm w ~m (10.5.1) mit s1 , . . . , sn , t1 , . . . , tm ∈ K, ~v1 , . . . , ~vn , w ~ 1, . . . , w ~ m ∈ M . Wir betrachten die beteiligten Vektoren gemeinsam: {~v1 , . . . , ~vn , w ~ 1, . . . , w ~ m } = {~u1 , . . . , ~uq } ⊆ M mit q ≤ n + m (es können Vektoren ~vi und w ~ j identisch sein, für 1 ≤ i ≤ n, 1 ≤ j ≤ m). Dann können wir schreiben ~v = s01 ~u1 + · · · + s0q ~uq = t01 ~u1 + · · · + t0q ~uq , indem wir die Darstellungen von 10.5.1 übernehmen und für zusätzliche Vektoren ~ui die zugehörigen Skalare (s0i bzw. t0i ) gleich 0 setzen. Durch Subtraktion erhält man ~0 = (s01 − t01 )~u1 + · · · + (s0q − t0q )~uq . Da {~u1 , . . . , ~uq } ⊆ M und M linear unabhängig ist, gilt s0i = t0i für alle i, 1 ≤ i ≤ q, und damit sind die obigen Darstellungen in 10.5.1 identisch. Wir haben bislang nur an speziellen Beispielen gesehen, dass Basen von Vektorräumen tatsächlich existieren können. Der folgende Satz belegt, dass das kein Zufall ist. Satz 10.5.2 (Existenz von Basen). Jeder endlich erzeugte K-Vektorraum besitzt eine Basis. Beweis: Sei M ein Erzeugendensystem von V . Solange es (rekursiv) einen Vektor ~v ∈ M gibt, so dass hM \ ~v i = hV i ist, entferne diesen. Da M endlich ist, sind wir in endlich vielen Schritten fertig und erhalten ein inklusionsminimales Erzeugendensystem von V , also eine Basis nach Satz 10.5.1. Aus dem Beweis ergibt sich sofort das folgende Korollar: KAPITEL 10. VEKTORRÄUME 29 Korollar 10.5.3. Jedes endliche Erzeugendensystem eines Vektorraums enthält eine Basis. Wir wenden uns jetzt dem Problem zu, für einen endlich erzeugten Vektorraum eine Basis aus einem Erzeugendensystem heraus zu konstruieren. Das Verfahren beruht auf dem folgenden Lemma. Lemma 10.5.4. Es sei V ein K-Vektorraum und ~v1 , . . . , ~vn ∈ V . (i) Für i 6= j und s ∈ K gilt h~v1 , . . . , ~vj , . . . , ~vn i = h~v1 , . . . , ~vj + s~vi , . . . , ~vn i. (ii) Für i ∈ {1, . . . , n} und t ∈ K\{0} gilt h~v1 , . . . , ~vi , . . . , ~vn i = h~v1 , . . . , t~vi , . . . , ~vn i (iii) h~v1 , . . . , ~vn i = h~v1 , . . . , ~vn , ~0i. Beweis: Um jeweils zu zeigen, dass beide Vektorräume identisch sind, muss man zeigen, dass jeder Vektor des einen Erzeugendensystems sich auch als Linearkombination des anderen Erzeugendensystems schreiben l?sst. F?r die unver?nderten Vektoren v~k ist das klar. Wir m?ssen uns also nur die Vektoren an der ge?nderten Stelle anschauen. zu (i) Sei s ∈ K. Die Teilmengenrelation „⊆“ gilt, da ~vj = (~vj + s~vi ) − s~vi ∈ h~v1 , . . . , ~vj + s~vi , . . . , ~vn i als Linearkombination der Vektoren ~vj + s~vi und ~vi ist . Die andere Teilmengenrelation gilt, da ~vj + s~vi ∈ h~v1 , . . . , ~vj , . . . , ~vn i ist, und somit gilt die Gleichheit. zu (ii) Klar, da ~vi = t−1 · t~vi zu (iii) Wegen ~0 ∈ h~v1 , . . . , ~vn i gilt h~v1 , . . . , ~vn i ⊆ h~v1 , . . . , ~vn , ~0i ⊆ h~v1 , . . . , ~vn i. Wir wenden Lemma 10.5.4 an, um Erzeugendensysteme so zu modifizieren, dass linear abhängige Teile auf Nullvektoren reduziert werden, so dass die Basisvektoren (als Nicht-Nullvektoren) direkt abgelesen werden können. KAPITEL 10. VEKTORRÄUME 30 Beispiel 10.5.1. Es sei K = R und * 1 1 1 + V := 1, 3, 6 . 1 5 11 | {z } | {z } | {z } =:~ v1 =:~ v2 =:~ v3 Wegen Lemma 10.5.4 ist dann V = h~v1 , ~v2 − ~v1 , ~v3 i = h~v1 , ~v2 − ~v1 , ~v3 − ~v1 i * + 1 0 0 = 1, 2, 5 1 4 10 | {z } | {z } | {z } =:~ v10 =:~ v20 =:~ v30 Wir halten jetzt ~v10 fest und machen mit ~v20 , ~v30 nach Lemma 10.5.4 weiter: 5 0 0 1 0 0 V = ~v1 , ~v2 , ~v3 − ~v2 2 2 * 1 0 0 + = 1 , 1 , 0 1 2 0 * 1 0 + = 1 , 1 1 2 (wegen Lemma 10.5.4 (iii)) Da die letzten beiden Vektoren linear unabhängig sind, bilden sie also eine Basis von V . Vektorraumbasen haben zwei charakteristische Eigenschaften: • sie sind linear unabhängig, und • sie bilden ein Erzeugendensystem. Wir haben oben gezeigt, dass man mit Hilfe von Lemma 10.5.4 aus jedem endlichen Erzeugendensystem eines Vektorraums V eine Basis von V erhalten kann. Der folgende Satz stellt die umgekehrte Vorgehensweise zur Findung einer Basis dar – linear unabhängige Teilmengen lassen sich zur Basis ergänzen. Satz 10.5.5 (Basisergänzungssatz). Es sei V ein endlich erzeugter K-Vektorraum mit endlichem Erzeugendensystem E ⊆ V , also V = hEi. Weiterhin sei M ⊆ V linear unabhängig. Dann gibt es eine Teilmenge E 0 ⊆ E, so dass M ∪ E 0 eine Basis von V ist. KAPITEL 10. VEKTORRÄUME 31 Beweis: Seien V = hEi mit E ⊆ V , E endlich und M ⊆ V , M linear unabhängig. Es ist hM i ⊆ hM ∪ Ei ⊆ V = hEi, also hM ∪ Ei = V . D.h., durch Hinzunahme von Vektoren aus E kann man aus M ein Erzeugendensystem gewinnen. Sei E 0 ⊆ E eine inklusionsminimale Menge mit hE 0 ∪ M i = V (d.h. h(E 0 \ {~v }) ∪ Mi = 6 V für alle ~v ∈ E 0 ). Dann ist E 0 ∪ M eine Basis von V , denn: 0 E ∪ M ist wegen hE 0 ∪ M i = V ein Erzeugendensystem von V . Wir müssen nur noch zeigen, dass E 0 ∪ M linear unabhängig ist. Seien dazu ~v1 , . . . , ~vm ∈ E 0 und w ~ 1, . . . , w ~ n ∈ M mit s1~v1 + · · · + sm~vm + t1 w ~ 1 + · · · + tn w ~ n = ~0. Z.z. ist s1 = · · · = sm = t1 = · · · = tn = 0. Wir schauen uns zunächst die si an. Ist eines der si 6= 0, so gilt (nach Umstellung) si~vi + m X sk~vk + k=1,k6=i m X ⇒ ~vi = − n X tl w ~ l = ~0 l=1 (s−1 vk − i sk )~ k=1,k6=i n X (s−1 ~l i tl )w l=1 0 ∈E \ {~vi } ∪ M 0 0 also hE ∪ M i = hE \ {~vi } ∪ M i, das aber verletzt die Minimalität von E 0 . Also muss gelten s1 = · · · = sm = 0. Dann ist aber t1 w ~ 1 + · · · + tn w ~ n = ~0. Aus der linearen Unabhängigkeit von M folgt t1 = · · · = tn = 0. Damit sind alle Koeffizienten si und tj gleich 0, und folglich ist E 0 ∪ M linear unabhängig. Beispiel 10.5.2. Wir betrachten das Erzeugendensystem 1 0 0 1 0 0 0 0 E := , , , 0 0 0 0 1 0 0 1 des R-Vektorraums R2×2 (Raum der reellen 2 × 2-Matrizen). Die Menge 1 0 0 1 M := , 0 1 1 0 ist linear unabhängig. Wir bilden wie im Beweis zu Satz 10.5.5 die Menge M ∪ E und reduzieren dann den Anteil aus E, bis wir ein linear unabhängiges Erzeugendensystem M ∪ E 0 mit E 0 ⊆ E erhalten. Es ist 0 0 1 0 1 0 = − ∈ hM ∪ E (1) i 0 1 0 1 0 0 | {z } | {z } ∈M mit E (1) ∈E (1) 0 0 =E\ , also ist hM ∪ Ei = hM ∪ E (1) i. Weiterhin ist 0 1 0 0 0 1 0 1 = − ∈ hM ∪ E (2) i 1 0 0 0 1 0 | {z } | {z } ∈M ∈E (2) KAPITEL 10. VEKTORRÄUME mit E (2) = E (1) \ 32 0 0 , also ist hM ∪ E (1) i = hM ∪ E (2) i. Die Menge 1 0 B = M ∪ E (2) 1 0 0 1 1 0 0 1 , = , , 0 0 0 0 0 1 1 0 {z } | {z } | M E (2) ist linear unabhängig, denn: Sei 0 0 1 0 0 1 1 0 0 1 = s1 + s2 + s3 + s4 0 0 0 1 1 0 0 0 0 0 s + s3 s2 + s4 = 1 , s2 s1 so muss gelten s1 +s3 s1 =0 s2 +s4 =0 s2 =0 =0 Hieraus folgt sofort s1 = s2 = s3 = s4 = 0. Damit ist B eine Basis. Man beachte jedoch, dass die Menge 1 0 0 1 1 0 0 0 0 B := , , , 0 1 1 0 0 0 0 1 zwar M enthält, aber keine Basis von R2×2 ist, da diese Menge linear abhängig ist (der erste Vektor ist die Summe der beiden letzten Vektoren). Wir fassen noch einmal die Ergebnisse bisher zusammen: Korollar 10.5.6. 1. Jeder Vektorraum besitzt eine Basis. 2. In jedem Erzeugendensystem eines Vektorraumes ist eine Basis enthalten. 3. Jede linear unabhängige Menge lässt sich zu einer Basis ergänzen. Das folgende Korollar verdeutlicht noch einmal die Optimalität von Basen: Korollar 10.5.7. Die folgenden Aussagen für eine Teilmenge B eines Vektorraumes V sind äquivalent: 1. B ist eine Basis von V . KAPITEL 10. VEKTORRÄUME 33 2. B ist eine minimale1 Erzeugendenmenge. 3. B ist eine maximal2 linear unabhängige Menge. Wir haben gesehen, dass Basen als minimale Erzeugendensysteme optimale (und platzsparende) Darstellungen der Information in einem Vektorraum sind. Wir wollen nun diese Minimalität zahlenmäßig erfassen und fragen: Wie “groß” ist eine Basis? Kann die Größe der Basis in Abhängigkeit von den gewählten Vektoren variieren? Ziel des Folgenden ist es zu zeigen, dass alle Basen eines Vektorraums dieselbe Kardinalität besitzen, die dann die Dimension des Vektorraums genannt wird. Dazu müssen wir unsere vorherigen Überlegungen noch stärker präzisieren. Satz 10.5.8 (Austauschsatz von Steinitz). Es sei V ein K-Vektorraum und {~v1 , . . . , ~vn } Basis von V . Ferner sei I eine beliebige Indexmenge und {~ui | i ∈ I} eine weitere Basis von V . Dann gibt es zu jedem i ∈ {1, . . . , n} ein ji ∈ I, so dass {~v1 , . . . , ~vi−1 , ~uji , ~vi+1 , . . . , ~vn } eine Basis von V ist. D.h., jedes Element einer Basis lässt sich durch ein geeignetes Element einer anderen Basis ersetzen. Beweis: Sei B = {~v1 , . . . , ~vn } eine Basis von V , und sei {~ui |i ∈ I} eine weitere Basis von V . Sei i ∈ {1, . . . , n}. Dann ist die Menge Ḃ = {~v1 , . . . .~vi−1 , ~vi+1 . . . . , ~vn } zwar linear unabhängig, aber kein Erzeugendensystem von V (siehe Satz 10.5.1). Folglich kann V = h~ui |i ∈ Ii keine Teilmenge von hḂi sein, d.h. es gibt ein ji ∈ I mit ~uji ∈ / hḂi. Wir zeigen, dass B 0 = {~v1 , . . . , ~vi−1 , ~uji , ~vi+1 , . . . , ~vn } eine Basis von V ist. Zunächst zur linearen Unabhängigkeit: Sei s1~v1 + · · · + si−1~vi−1 + t~uji + si+1~vi+1 + · · · + sn~vn = ~0 mit s1 , . . . , si−1 , si+1 , . . . , sn , t ∈ K. Wegen ~uji ∈ / h~v1 , . . . , ~vi−1 , ~vi+1 , . . . , ~vn i muss t = 0 sein. Aus der linearen Unabhängigkeit von {~v1 , . . . , ~vi−1 , ~vi+1 , . . . , ~vn } folgt weiter s1 = · · · = si−1 = si+1 = sn = 0. Also ist B 0 linear unabhängig. Da {~v1 , . . . , ~vn } ein Erzeugendensystem von V ist, kann man nach Satz 10.5.5 B 0 mit Vektoren aus {~v1 , . . . , ~vn } zu einer Basis ergänzen, d.h. es gibt eine Teilmenge E 0 ⊆ {~v1 , . . . , ~vn }, so dass B 0 ∪ E 0 eine Basis von V ist. Ist ~vi ∈ / E 0 , so ist B 0 ∪ E 0 = B 0 , und also ist B 0 eine Basis von 1 bezgl. 2 siehe Mengeninklusion Fußnote 1 KAPITEL 10. VEKTORRÄUME 34 V . Anderenfalls ist ~vi ∈ E 0 . Dann ist B 0 ∪ E 0 = {~v1 , . . . , ~vn , ~uji } eine Basis. Da schon {~v1 , . . . , ~vn } eine Basis und damit inklusionsmaximal linear unabhängig ist, muss ~uji ∈ {~v1 , . . . , ~vn } sein (insbesondere ~uji = ~vi ), d.h. B 0 = B. Der folgende Satz enthält das wichtigste Resultat zum Begriff der Dimension: Satz 10.5.9. Es sei V ein K-Vektorraum und B = {~v1 , . . . , ~vn } eine Basis von V mit n paarweise verschiedenen Elementen, d.h. |B| = n. Dann gilt: (i) Ist B 0 eine beliebige Basis von V , so ist |B 0 | = n. (ii) Ist M ⊆ V linear unabhängig, so ist |M | ≤ n. (iii) Ist M ⊆ V linear unabhängig und |M | = n, so ist M Basis von V . Beweis: Sei B = {~v1 , . . . , ~vn } eine Basis von V , |B| = n. zu (i) Sei B 0 eine beliebige Basis von V . Wir ersetzen nun nach dem Austauschsatz von Steinitz 10.5.8 sukzessive die Vektoren ~v1 , . . . , ~vn ∈ B durch Vektoren ~uj1 , . . . , ~ujn ∈ B 0 , so dass {~uj1 , . . . , ~uji , ~vi+1 , . . . , ~vn } eine Basis von V ist (1 ≤ i ≤ n). Dann gilt, dass {~uj1 , . . . , ~ujn } ⊆ B 0 | {z } =:B 00 eine Basis von V ist, und damit auch eine inklusionsmaximal linear unabhängige Menge nach Satz 10.5.1. Deshalb kann B 0 keine zusätzlichen Vektoren zu B 00 enthalten, da sonst B 0 linear abhängig und somit keine Basis wäre, also B 0 = B 00 und damit |B 0 | = n. zu (ii) Ist M ⊆ V linear unabhängig, so kann man M nach Satz 10.5.5 zu einer Basis B 0 ergänzen. Diese enthält nach (i) genau n paarweise verschiedene Vektoren und somit gilt für M ⊆ B 0 : |M | ≤ |B 0 | = n. zu (iii) Argumentation wie im Beweis zu (ii). Definition 10.5.10 (Dimension eines Vektorraums). Wenn der Vektorraum V eine endliche Basis besitzt, so wird die Anzahl n der Vektoren der Basis die Dimension von V genannt: dim V = n. Besitzt ein Vektorraum V keine endliche Basis, so ist seine Dimension unendlich, also dim V = ∞. Man sagt dann auch, dass V unendlich dimensional ist. KAPITEL 10. VEKTORRÄUME 35 Beispiel 10.5.3. 1. Die Dimension des K-Vektorraums K n ist n, da beispielsweise die Menge der Einheitsvektoren {~e1 , . . . , ~en } eine Basis von K n bildet. 2. Es sei K = R und * + 1 1 1 V := 1 , 3 , 6 . 1 5 11 Wie in Beispiel 10.5.1 schon gezeigt wurde, ist * 1 0 + V = 1 , 1 1 2 mit dim V = 2. Bemerkung: Es folgt aus Korollar 10.5.3, dass jeder endlich erzeugte Vektorraum auch endlich dimensional ist. Beispiel 10.5.4 (Matrizen). Die Dimension des K-Vektorraums aller m × n Matrizen K m×n ist m · n. Eine Basis von K m×n ist die Menge {Eij | 1 ≤ i ≤ m und 1 ≤ j ≤ n}, wobei Eij die m × n Matrix bezeichnet, deren Eintrag in der i-ten Zeile und j-ten Spalte eine Eins ist und die sonst nur Null-Einträge hat. Korollar 10.5.11. Ist V ein endlich dimensionaler K-Vektorraum und U ein Teilraum von V , dann ist auch U endlich dimensional, und es gilt dim U ≤ dim V. Ist dim U = dim V , so ist U = V . Beweis: Folgt aus Satz 10.5.9. Satz 10.5.12 (Dimensionsformel für Teilräume). Es sei V ein endlich dimensionaler K-Vektorraum und U1 , U2 seien Teilräume von V . Dann ist dim U1 + dim U2 = dim(U1 + U2 ) + dim(U1 ∩ U2 ). Beweis: Sei V ein endlich dimensionaler K-Vektorraum, und seien U1 , U2 Teilräume von V . Insbesondere sind dann U1 und U2 auch endlich dimensional. Sei B = {~u1 , . . . , ~ud } eine Basis von U1 ∩ U2 . B lässt sich nach Satz 10.5.5 zu Basen von U1 bzw. U2 erweitern: B1 = {~u1 , . . . , ~ud , ~v1 , . . . , ~vm } Basis von U1 , B2 = {~u1 , . . . , ~ud , w ~ 1, . . . , w ~ n} Basis von U2 . KAPITEL 10. VEKTORRÄUME 36 Insbesondere haben wir dim U1 ∩ U2 = d, dim U1 = d + m, dim U2 =d+n also dim U1 + dim U2 = d + m + d + n = dim(U1 ∩ U2 ) + m + n + d. Wir zeigen noch dim(U1 + U2 ) = m + n + d, damit ist die Behauptung dann gezeigt. Die Menge C = {~u1 , . . . , ~ud , ~v1 , . . . , ~vm , w ~ 1, . . . , w ~ n} hat d + m + n (paarweise verschiedene) Elemente. Es ist C ⊆ U1 ∪ U2 und auch C ⊆ U1 + U2 , da jedes Element aus C in U1 oder U2 liegt. Wir zeigen: (i) hCi = U1 + U2 , d.h. C erzeugt U1 + U2 (ii) C ist linear unabhängig. zu(i) Sei ~x ∈ U1 + U2 , also ~x = ~x1 + ~x2 , ~x1 ∈ U1 , ~x2 ∈ U2 . Da B1 eine Basis von U1 ist, gibt es s1 , . . . , sd , r1 , . . . , rm ∈ K mit ~x1 = d X si ~ui + i=1 m X rj ~vj , j=1 ebenso gibt es s01 , . . . , s0d , t1 , . . . , tn ∈ K mit ~x2 = d X s0i ~ui + i=1 m X tk~vj . k=1 Insgesamt ist dann ~x1 + ~x2 = d X (si + s0i )~ui + i=1 m X rj ~vj + j=1 n X tk w ~k k=1 ∈ hCi also ist U1 + U2 ⊆ hCi, und wegen C ⊆ U1 + U2 dann auch U1 + U2 = hCi. zu (ii) Seien s1 , . . . , sd , r1 , . . . , rm , t1 , . . . , tn ∈ K mit d X i=1 si ~ui + m X j=1 rj ~vj + n X k=1 tk w ~ k = ~0. (10.5.2) KAPITEL 10. VEKTORRÄUME 37 Dann ist ~y := d X si ~ui + i=1 rj ~vj (10.5.3) j=1 {z | =− m X ∈U1 n X } tk w ~k k=1 | {z ∈U2 } ∈ U1 ∩ U2 . Da B eine Basis von U1 ∩ U2 ist, gibt es (eindeutig bestimmte) s01 , . . . , s0d mit d X ~y = s0i ~ui , i=1 also ist d X s0i ~ui + i=1 n X tk w ~ k = ~0. k=1 Da B2 linear unabhängig ist, folgt s01 = · · · = s0d = t1 = · · · = tn = 0, insbesondere ist damit ~y = ~0, d.h. aus Gleichung 10.5.3 folgt d X si ~ui + i=1 m X rj ~vj = ~0. j=1 Da B1 linear unabhängig ist, folgt s1 = · · · = sd = r1 = · · · = rm = 0. Insgesamt müssen alle Koeffizienten in 10.5.2 gleich 0 sein, und damit ist C linear unabhängig. Aus (i) und (ii) folgt, dass C eine Basis von U1 + U2 ist, also dim U1 + U2 = |C| = d + m + n. Beispiel 10.5.5. Es sei V ein dreidimensionaler K-Vektorraum, und U1 = 6 U2 seien zwei verschiedene Teilräume von V mit dim U1 = dim U2 = 2. Dann muss dim(U1 ∩ U2 ) = 1 gelten, denn für dim(U1 + U2 ) kommen nur 2 oder 3 in Betracht. Wäre dim(U1 + U2 ) = 2 = dim Ui für i = 1, 2, dann wäre U1 = U1 + U2 = U2 nach Korollar 10.5.11, da U1 , U2 Teilräume von U1 + U2 sind, im Widerspruch zur Voraussetzung (U1 6= U2 ). Also muss dim(U1 + U2 ) = 3 sein. Mit der Dimensionsformel folgt die Behauptung. Kapitel 11 Lineare Gleichungssysteme 11.1 Definitionen und Beispiele Es sei im Folgenden immer (K, +, ·) ein Körper (z.B. Q, R, C, Z2 , Z3 . . . ), d.h., man kann “normal rechnen”. Definition 11.1.1 (Lineares Gleichungssystem). Ein lineares Gleichungssystem mit n Gleichungen und m Variablen hat die Form: a1,1 x1 a2,1 x1 + + an,1 x1 + a1,2 x2 a2,2 x2 + ··· + ··· .. . + + an,2 x2 + ··· + a1,m xm a2,m xm = = b1 b2 an,m xm = bn (11.1.1) Die aij heißen Koeffizienten und die bi heißen rechte Seiten, mit aij , bi ∈ K. Gesucht sind dann Werte x1 , x2 , . . . , xm ∈ K, die (11.1.1) erfüllen. Die Lösungsmenge des linearen Gleichungssystems (11.1.1) ist die Menge L := (x1 , x2 , . . . , xm )t ∈ K m | x1 , x2 , . . . , xm erfüllen 11.1.1 Definition 11.1.2 (Koeffizientenmatrix). Gleichungssystems (11.1.1) über K ist die a11 a12 · · · a21 a22 · · · A= .. . an1 an2 Die Koeffizientenmatrix des linearen Matrix a1m a2m ∈ K n×m . · · · anm Mit ~x = (x1 , x2 , . . . , xm )t ∈ K m und ~b = (b1 , . . . , bn )t ∈ K n können wir dann (11.1.1) auch in der Form A~x = ~b 38 KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 39 schreiben, mit Lösungsmenge n o L = ~x ∈ K m | A~x = ~b . Definition 11.1.3 (Erweiterte Koeffizientenmatrix). Die erweiterte Matrix des linearen Gleichungssystems (11.1.1) ist die Matrix a11 a12 · · · a1m b1 a21 a22 · · · a2m b2 (A, ~b) := ∈ K n×(m+1) . .. . an1 an2 · · · amm bn Beispiel 11.1.1. 1. Beispiel (mit genau einer Lösung): Es sei folgendes lineares Gleichungssystem über Q gegeben. I II III 2x + 2y y + + x = −2 = 4 = 1 z z | −z | −z (11.1.2) Dann gilt: II’ III’ y = x = 4−z 1−z Einsetzen in I liefert: ⇔ ⇔ ⇔ ⇔ 2(1 − z) + 2(4 − z) = −2 2 − 2z + 8 − 2z = −2 −4z + 10 = −2 −4z = −12 z = 3 und damit folgt: II’ ⇒ y = 4 − 3 = 1 III’ ⇒ x = 1 − 3 = −2 Das lineare Gleichungssystem hat also genau eine Lösung, nämlich L = {(−2, 1, 3)t } ⊂ Q3 . In Matrix-Schreibweise 2 0 1 | hat dieses Gleichungssystem die Form x 2 0 −2 1 1 y = 4 , z 1 0 1 {z } | {z } | {z } A ~ x ~b 2. Beispiel (mit keiner Lösung): Das lineare Gleichungssystem über Q x1 x1 + x2 + x2 + + x3 x3 besitzt offensichtlich keine Lösung: L = ∅. = 0 = 1 KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 40 3. Beispiel (mit mehreren Lösungen): Wir berechnen nun die Lösung zu folgendem linearen Gleichungssystem über R. I II III IV x1 x1 2x1 + 2x2 + 2x2 + 4x2 + + x4 + 3x4 + 3x4 + 2x4 2x3 3x3 = 1 = 5 = 5 = 3 (11.1.3) Aus IV folgt nach Subtraktion von 2x4 ⇔ IV 3x3 x3 0 3 − 2x4 1 − 32 x4 . = = | · 13 Einsetzen von IV’ in II liefert: x1 ⇔ x1 ⇔ x1 + 2x2 + 2x2 + 2x2 2(1 − 23 x4 ) + 3x4 2 − 43 x4 + 3x4 5 x 3 4 + + + =5 = 5 | −2 = 3. Wir erhalten ein neues Gleichungssystem I’ II’ III’ x1 x1 2x1 + 2x2 + 2x2 + 4x2 und subtrahieren I’-II’: ⇒ + + + − 32 x4 x4 x4 5 3 x4 3x4 = 1 = 3 = 5 −2 3. = = Mit IV’ gilt dann x3 = 1 − 2 = −1 Durch Einsetzen von x4 = 3 erhalten stem: I” x1 + II” x1 + III” 2x1 + wir wieder ein neues Gleichungssy2x2 2x2 4x2 = −2 = −2 = −4 Aus allen drei Gleichungen folgt nun x1 = −2 − 2x2 . Das Gleichungssystem besitzt also mehrere Lösungen, L = {(−2 − 2x2 , x2 , −1, 3)t |x2 ∈ R}, also z.B. die Lösungen x1 = −2, x2 = 0, x3 = −1, x4 = 3 oder x1 = 0, x2 = −1, x3 = −1, x4 = 3. Lineare Gleichungssysteme gehören zu den einfachsten Formen, um Zusammenhänge in Systemen zu beschreiben. Man findet sie z.B. in der linearen Optimierung (→ wirtschaftswissenschaftliche Anwendungen). KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 41 Beispiel 11.1.2. Anwendung von linearen Gleichungssystemen in der Informatikvorlesung Eingebettete Systeme (Prof. Marwedel): • Sog. Petri-Netze zur Modellierung der Bewegungen von Thalys-Zügen zwischen Köln, Amsterdam, Brüssel und Paris. • Matrix zur Abbildung der Transitionen zwischen den Stationen (Knoten). • Belegung der Stationen mit Zügen liefert für jede Transition eine lineare Gleichung mit konstantem Ergebnis (0) ( Invariante!). • Insgesamt entsteht ein lineares Gleichungssystem, wobei Lösungen in {0, 1}(!) gesucht werden. 11.2 Das Gau’sche Eliminationsverfahren Grundlegend für die systematische Lösung linearer Gleichungssysteme ist das folgende einfache Lemma. Lemma 11.2.1. Die Lösungsmenge eines linearen Gleichungssystems über K ändert sich nicht, wenn man (i) zwei Gleichungen vertauscht, (ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K) (iii) eine Gleichung mit c ∈ K \ {0} multipliziert. Beweis: zu (i) Sei A~x = ~b ein lineares Gleichungssystem, seien ~ati die Zeilenvektoren von A, d.h. für 1 ≤ i ≤ n muss ~ati ~x = bi gelten. Dann verletzt das Vertauschen zweier Gleichungen diese Bedingung nicht. zu (ii) Wir addieren das c-fache der j-ten Gleichung zur i-ten Gleichung und beobachten das Lösungsverhalten: ~ati ~x ⇔ ~ati ~x + c · ~atj ~x = bi + c · bj = bi , ~atj ~x , ~atj ~x = bj = bj Durch die Umformung haben sich die Lösungen also nicht verändert. zu (iii) Da c 6= 0 ist, kann die Multiplikation mit c−1 wieder rückgängig gemacht werden, sodass sich die Lösungsmenge nicht ändert. Der Gauß’sche Algorithmus (auch Gauß’sches Eliminationsverfahren|( genannt) benutzt die Operationen aus Lemma 11.2.1 sukzessive, um ein gegebenes lineares KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 42 Gleichungssystem in ein anderes mit derselben Lösungsmenge(!) zu überführen, bei dem man die Lösung direkt ablesen kann. Definition 11.2.2 (Äquivalenz von lin. Gleichungssystemen). Zwei lineare Gleichungssysteme heißen äquivalent, wenn ihre Lösungsmengen identisch sind. Man nutzt also wieder eine Invarianten-Eigenschaft aus, um ein Problem zu vereinfachen. Beispiel 11.2.1. Wir wenden nun den Gauß’schen Algorithmus an, um das folgende Gleichungssystem zu lösen: I 3x3 +2x4 =3 II x1 +2x2 +2x3 +3x4 =5 III 2x1 +4x2 +3x4 =5 IV x1 +2x2 +x4 =1 Wir vertauschen die 1. und 4. Zeile und erhalten das Beispiel-Gleichungssystem (11.1.3): IV=I0 II0 III0 I=IV x1 +2x2 +x4 =1 x1 +2x2 +2x3 +3x4 =5 2x1 +4x2 0 +3x4 =5 3x3 +2x4 =3 Die erste Zeile lassen wir nun stehen und „eliminieren“ mit dieser alle Vorkommnisse der Variable x1 in den Zeilen darunter durch geeignete Subtraktion (also Operation (ii) in Lemma 11.2.1). I00 0 0 II -I =II x1 +2x2 00 +x4 =1 2x3 +2x4 = 4 2III0 -I0 =III00 x4 =3 00 3x3 +2x4 =3 IV Dieses Schema führen wir nun mit der 2. Zeile fort und eliminieren alle Vorkommnisse der Variable x3 in den Zeilen darunter. Danach können wir durch sukzessives Einsetzen der Ergebnisse von unten nach oben die Lösungsmenge bestimmen. I000 x1 +2x2 1 00 II =II000 2 III000 000 00 3II -IV =IV 000 +x4 =1 x3 +x4 =2 ⇒ x1 = −2 − 2x2 ⇒ x3 = −1 x4 =3 ⇒ x4 = 3 x4 =3 ⇒ x4 = 3 Somit erhalten wir die Lösungsmenge L = {(−2 − 2x2 , x2 , −1, 3)|x2 ∈ R} . KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 43 Die in Lemma 11.2.1 genannten System-Umformungen wirken sich auch auf die Matrizen A bzw. (A, ~b) des Gleichungssystems aus bzw. lassen sich durch Matrix-Umformungen realisieren: Definition 11.2.3 (Elementare Zeilenumformungen). Elementare Zeilenumformungen auf Matrizen aus K n×m sind Abbildungen der folgenden Form (für 1 ≤ k, l ≤ n): (i) Vk,l : K m×n → K m×n : “Vertausche k-te und l-te Zeile." (ii) Ak,l (c) : K m×n → K m×n für c ∈ K: “Addiere das c-fache der k-ten Zeile zur l-ten Zeile." (iii) Mk (c) : K m×n → K m×n für c ∈ K \ {0}: “Multipliziere die k-te Zeile mit c." Durch elementare Zeilenumformungen kann man eine beliebige m × n Matrix auf sogenannte Stufenform bringen. Definition 11.2.4 (Stufenform). Eine Matrix A ∈ K m×n hat Stufenform, wenn sie wie folgt aussieht: Die Stufenform hat also die folgenden charakteristischen Eigenschaften: • Jede Stufe beginnt mit einer 1, davor stehen nur Nullen. • In jeder Zeile beginnt eine neue Stufe, oder die Zeile enthält nur Nullen. Insbesondere sind alle Einträge unterhalb der letzten Stufe 0. • In den Spaltenvektoren der Stufen stehen Einheitsvektoren. Satz 11.2.5. Jede Matrix A ∈ K m×n kann man durch elementare Zeilenumformungen auf Stufenform bringen. Beweis: Wir führen den Beweis durch Induktion über die Zahl n der Zeilen. n = 1 : Hier ist A = (a11 , a12 , . . . , a1m ). Sind alle a1j = 0, so hat A bereits Stufenform. Anderenfalls gibt es ein (erstes) a1j , das verschieden ist von 0. Sei j1 der Index dieses ersten a1j , d.h. j1 = min{j | a1j 6= 0}. Mit der Umformung M1 (a−1 1j1 ) erhält man aus A die Matrix (0, . . . , 0, 1, ∗ · · · ∗) mit 1 an der j1 -ten Stelle und diese Matrix hat Stufenform. KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 44 Induktionsvoraussetzung: Wir nehmen nun an, dass die Behauptung des Satzes für n bewiesen ist, d.h. dass man alle Matrizen aus K n×m auf Stufenform bringen kann. n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen. Sind alle Einträge von A gleich 0, so hat A bereits Stufenform. Anderenfalls suchen wir die erste Spalte, die Einträge 6= 0 hat: sei also j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}. 0 ... 0 0 ∗ ... ∗ .. .. .. . . . 0 . . . 0 0 ∗ . . . ∗ 0 . . . 0 ai1 j1 ∗ . . . ∗ 0 . . . 0 ∗ ∗ . . . ∗ .. .. .. . . . 0 ... 0 ∗ ∗ ... ∗ Wir führen jetzt an dieser Matrix mehrere elementare Zeilenumformungen durch: • Durch Mi1 (a−1 i1 j1 ) erhalten wir an der Stelle (i1 , j1 ) eine 1. • Durch Ai1 ,k (−akj1 ) für k 6= i1 erhält man in der Spalte j1 an allen Positionen ungleich (i1 , j1 ) eine 0. • Durch Vi1 ,1 erhält man 0 0 0 schließlich eine Matrix der folgenden Form. ... 0 1 ∗ ... ∗ . . . 0 0 ∗ . . . ∗ (11.2.1) .. .. .. . . . ... 0 0 ∗ ... ∗ Aus den unteren n Zeilen dieser Matrix (Zeilen 2 bis n + 1) erhält man die Matrix B ∈ K n×m . Nach Induktionsannahme kann man B durch elementare Zeilenumformungen auf Stufenform bringen. Schließlich können die Einträge in der ersten Zeile der Matrix (11.2.1), die oberhalb der Stufen stehen, durch geeignete Ak,1 (c)- Operationen auf 0 gebracht werden. Insgesamt hat man damit A in eine Stufenform gebracht. Wir wenden nun den Satz und das im Beweis beschriebene Verfahren auf das Beispiel 11.2.1 und ein Beispiel über einem endlichen Körper an. KAPITEL 11. LINEARE GLEICHUNGSSYSTEME Beispiel 11.2.2. A1,2 (−1), A1,3 (−2) ⇔ A4,3 (1), A4,2 (1), A4,1 (1) ⇔ 1. Ausgangsmatrix von Beispiel 0 0 3 2 3 V1,4 1 2 2 3 5 ⇔ 2 4 0 3 5 1 2 0 1 1 1 2 0 1 1 M2 ( 12 ), A2,4 (− 23 ) 0 0 2 2 4 ⇔ 0 0 0 1 3 0 0 3 2 3 1 2 0 0 −2 0 0 1 0 −1 0 0 0 0 0 0 0 0 −1 −3 Die entstandene Matrix ist in 1 0 0 0 45 11.2.1: 1 2 0 1 1 2 2 3 2 4 0 3 0 0 3 2 1 0 0 0 2 0 0 0 0 1 0 0 1 1 1 −1 1 5 5 3 1 2 3 −3 Stufenform: 2 0 0 0 0 1 0 0 0 0 1 0 −2 −1 3 0 2. Wir betrachten das folgende lineare Gleichungssystem mit Koeffizienten aus Z5 : x3 = 4 3x1 + x2 + x3 = 2 x1 + 4x2 = 4 Wir leiten daraus die erweiterte Matrix (A, ~b) ab und bringen sie auf Stufenform. 0 0 1 4 1 4 0 4 V1,3 3 1 1 2 → 3 1 1 2 1 4 0 4 0 0 1 4 1 4 0 4 1 4 0 4 A1,2 (2) M2 (4) → 0 4 1 0 → 0 1 4 0 0 0 1 4 0 0 1 4 1 4 0 4 1 0 0 3 A3,2 (1) A2,1 (1) → 0 1 0 4 → 0 1 0 4 0 0 1 4 0 0 1 4 Die entstandene Matrix hat Stufenform, aus ihr lässt sich sofort die (eindeutige) Lösung ablesen. x1 = 3 x2 = 4 x3 = 4 Satz 11.2.6. Jede elementare Zeilenumformung (und damit jede Folge von elementaren Zeilenumformungen) an einer Matrix A ∈ K n×m ist Ergebnis einer Multiplikation von links mit einer regulären Matrix U ∈ K n×n . KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 46 Für jeden Typ der elementaren Zeilenumformungen aus Definition 11.2.3 wollen wir die entsprechende reguläre Matrix U ∈ K n×n angeben. Sei Eij diejenige Matrix aus K n×n , die überall mit Nullen besetzt ist bis auf die Position (i, j), an der sie eine 1 hat. (i) Hier sieht die Matrix U wie folgt aus: d.h. 1 0 (uij ) = 1 0 für i = j 6∈ {k, l} für i = j ∈ {k, l} für i = k, j = l und für i = l, j = k sonst Für 1 ≤ i, j, k, l ≤ n gilt U = En − Ekk − Ell + Elk + Ekl ( (0) k 6= j Eij · Ekl = Eil k = j damit folgt U · U = En . (ii) Für die Addition des c-fachen der k-ten Zeile zur l-ten Zeile erhalten wir als Matrix U 0 also U 0 = En + c · Elk mit (U 0 )−1 = En − c · Elk KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 47 (iii) Für die Multiplikation der k-ten Zeile mit c erhalten wir als Matrix U 00 also U 00 = En + (c − 1) · Ekk Beispiel 11.2.3. 1. Beispiel einer Beispielmatrix. 1 2 1 2 2 4 0 0 mit (U 00 )−1 = En + (c−1 − 1) · Ekk zu (i) Vk,l : Wir vertauschen die 2. und 4. Zeile 0 2 0 3 1 3 2,4 V→ 3 2 Das gleiche Ergebnis erhält man Matrix U . 1 0 0 0 1 0 0 0 1 1 0 0 1 0 · 2 0 0 1 0 0 | {z } 1 0 2 1 2 0 4 2 0 3 0 2 1 2 3 3 bei der Multiplikation von links mit der 2 2 4 0 0 2 0 3 1 1 0 3 = 3 2 1 2 2 0 4 2 0 3 0 2 1 2 3 3 U 2. Beispiel zu (ii) Ak,l (c) : Wir 1 2 0 1 2 2 2 4 0 0 0 3 Wir können aber auch mutiplizieren. 1 0 0 0 1 0 2 0 1 0 0 0 | {z U0 addieren das 2-fache der 1. Zeile zur 3. Zeile. 1 1 2 0 1 (2) 1 2 2 3 3 A1,3 → 4 8 0 5 3 2 0 0 3 2 unsere Beispielmatrix von links mit der Matrix U 0 0 1 1 0 · 0 2 1 0 } 2 2 4 0 0 2 0 3 1 1 1 3 = 3 4 2 0 3. Beispiel zu (iii) Mk (c): Wir multiplizieren matrix mit −1. 1 2 0 1 1 1 2 2 3 M2 (−1) −1 2 4 0 3 → 2 0 0 3 2 0 2 2 8 0 0 2 0 3 1 3 5 2 die 2. Zeile unserer Beispiel2 0 −2 −2 4 0 0 3 1 −3 3 2 KAPITEL 11. LINEARE GLEICHUNGSSYSTEME Oder man multipliziert von links 1 0 0 0 1 2 0 −1 0 0 1 2 · 0 0 1 0 2 4 0 0 0 1 0 0 | {z } mit der Matrix U 00 . 0 1 1 2 2 3 = −1 −2 0 3 2 4 3 2 0 0 48 0 −2 0 3 1 −3 3 2 U 00 Wir wenden nun Satz 11.2.6 auf die erweiterte Matrix (A, ~b) ∈ K n×(m+1) eines linearen Gleichungssystems an und nehmen an, dass die Stufen in den Spalten j1 ≤ j2 ≤ · · · ≤ jr auftreten. Die Spalte ji , i = 1, . . . , r, ist also die Spalte, in der die i-te Zeile den ersten Eintrag ungleich Null - genau genommen gleich 1 - enthält. Wir unterscheiden nun zwei Fälle. Fall 1: jr = m + 1 , d.h., die r-te Gleichung des umgeformten linearen Gleichungssystems lautet 0x1 + 0x2 + · · · + 0xn = 1, so dass das Gleichungssystem offenbar keine Lösung besitzt. In diesem Fall ist also L = ∅. Fall 2: jr ≤ m Das umgeformte Gleichungssystem lautet also: m X xj1 + xj2 + j=j1 +1 j6=j2 ,...,jr m X a01j xj = a01,m+1 a02j xj = a02,m+1 j=j2 +1 j6=j3 ,...,jr .. . xjr + m X a0rj xj = a0r,m+1 j=jr +1 0=0 .. . 0=0 Alle xi außer xj1 , . . . , xjr sind frei wählbar; aus deren Wahl ergeben sich dann KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 49 die restlichen xj1 , . . . , xjr durch einfache Umstellung: xj1 := a01,m+1 m X − xj2 := a02,m+1 − j=j1 +1 j6=j2 ,...,jr m X a01j xj a02j xj j=j2 +1 j6=j3 ,...,jr .. . xjr := a0r,m+1 m X − a0rj xj j=jr +1 Damit haben wir also eine vollständige Beschreibung der Lösungsmenge des linearen Gleichungssystems. Aus der konstruktiven Beschreibung der Lösungsmenge sehen wir sofort, dass das Gleichungssystem genau dann eindeutig lösbar ist, wenn keine xi mehr frei wählbar sind, sondern die Lösungen durch die (umgeformten) rechten Seiten eindeutig bestimmt werden. Das ist genau dann der Fall, wenn {j1 , . . . , jr } = {1, . . . , m} ist. Insbesondere ist dann r = m. Da es höchstens so viele Stufen wie Zeilen gibt, erhalten wir also das folgende Korollar: Korollar 11.2.7. Falls das lineare Gleichungssystem (11.1.1) eine eindeutige Lösung besitzt, so gilt m ≤ n. Beweis: Falls das lineare Gleichungssystem (11.1.1) eine eindeutige Lösung besitzt, so gilt {j1 , . . . , jr } = {1, . . . , m}. ⇒r = m, r ≤ n ⇒m ≤ n Definition 11.2.8 (Homogene lineare Gleichungssysteme). Das lineare Gleichungssystem (11.1.1) heißt homogen, wenn b1 = b2 = . . . = bn = 0. Ein homogenes lineares Gleichungssystem hat immer eine Lösung, nämlich x1 = x2 = . . . = xm = 0. Diese Lösung (x1 , . . . , xn )t = ~0 heißt triviale Lösung. Satz 11.2.9. Ist n = m und hat das homogene lineare Gleichungssystem a11 x1 a21 x1 + + a12 x2 a22 x2 + + ··· ··· .. . + + a1n xn = 0 a2n xn = 0 an1 x1 + an2 x2 + ··· + ann xn = 0 nur die triviale Lösung, so hat (11.1.1) für jede rechte Seite b1 , . . . , bn eine eindeutig bestimmte Lösung. KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 50 Beweis: Wir betrachten die erweiterte Matrix (A, ~0) des homogenen Gleichungssystems. Da dieses eindeutig lösbar ist, muss sich (A, ~0) durch elementare Zeilenumformungen in die folgende Stufenform bringen lassen: 1 0 ... 0 0 0 1 ... 0 0 .. .. . . .. .. . . . . . 0 0 ... 1 0 (beachte n = m). Wendet man dieselben Zeilenumformungen auf die Matrix (A, ~b) für ein beliebiges ~b ∈ K n an, so erhält man die Matrix 1 0 . . . 0 b01 0 1 . . . 0 b02 .. .. . . .. .. . . . . . 0 0 ... 1 b0n Die eindeutige Lösung des zugehörigen Gleichungssystems lässt sich sofort daraus ablesen. x1 = b01 , x2 = b02 , . . . , xn = b0n 11.3 Invertieren von Matrizen Im letzten Abschnitt haben wir gesehen, wie man lineare Gleichungssysteme A~x = ~b algorithmisch löst und dabei gleichzeitig Aussagen über die allgemeine Lösbarkeit solcher Gleichungssysteme erhält. Von zentraler Bedeutung waren dabei elementare Zeilenumformungen, die man auch durch Multiplikation (von links) mit regulären, d.h. invertierbaren Matrizen realisieren kann. Die Lösbarkeit homogener Gleichungssysteme ist fundamental für die Lösbarkeit ganzer Klassen von Gleichungssystemen. In diesem Abschnitt wollen wir zeigen, wie man durch eine Erweiterung der Anwendung des Gauß-Algorithmus gleichzeitig Lösungen für beliebige rechte Seiten erhalten (bzw. vorbereiten) und das Inverse einer regulären Matrix berechnen kann. Um ein Gleichungssystem A~x = ~b, A ∈ K n×m zu lösen, haben wir den Gauß-Algorithmus auf die Matrix (A, ~b) angewendet. Wollen wir danach ein System A~x = ~c lösen, müssen wir den Algorithmus mit der Matrix (A, ~c) wiederholen. Um diesen Aufwand zu reduzieren, lösen wir nun Gleichungssysteme mit einer generischen rechten Seite, d.h. wir wenden den Gauß-Algorithmus auf die Matrix (A, En ) ∈ K n×(m+n) an. Sei U die Umformungsmatrix, die der Folge elementarer Zeilenumformungen, um A in Stufenform zu bringen, entspricht. Durch dieselben Umformungen wird die Einheitsmatrix zur Matrix U · En = U , also zur Umformungsmatrix selbst. Die Matrix En nimmt bei der Modifizierung also die Informationen der Zeilenumformungen auf. Konkret passiert bei den Zeilenumformungen der Matrix (A, En ) folgendes: KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 51 Wir formen A und damit (A, En ) auf Stufenform um und erhalten eine Matrix (B, C). Diese Umformung von (A, En ) nach (B, C) entspricht einer Multiplikation von links mit einer (regulären) Umformungsmatrix U ∈ K n×n , also B = U · A und C = U · En = U. B hat also Stufenform und C ist die Umformungsmatrix. Für beliebige rechte Seiten ~b des Gleichungssystems A~x = ~b kann man nun die Informationen zur Umformung in Stufenform folgendermaßen ausnutzen: A~x = ~b ⇔U · A} ~x = U · ~b, | {z B d.h. ~x ist genau dann eine Lösung von A~x = ~b wenn ~x eine Lösung von B~x = U~b ist. Dabei ist B in Stufenform, bzw. entspricht En wenn A regulär ist, und somit lässt sich das letztere Gleichungssystem einfach lösen. Beispiel 11.3.1 (beliebige rechte Seite). Wir betrachten nun das (eindeutig lösbare) Gleichungssystem aus Beispiel 11.1.2 mit einer beliebigen anderen rechten Seite. 2x + 2y = 1 y + z = 2 (11.3.1) x + z = 3 Also ist 2 A = 0 1 2 1 0 0 −2 1 , ~b = 4 . 1 1 Wir stellen die Stufenform zur Koeffizientenmatrix 2 2 0 1 V1,3 0 1 1 → 0 1 0 1 2 1 0 1 1 A1,3 (−2) A2,3 (−2) → 0 1 1 → 0 0 2 −2 0 A (−1) 3,2 1 1 0 1 M3 (− 14 ) A3,1 (−1) → 0 1 1 → 0 0 0 1 0 | A her. 0 1 1 1 2 0 0 1 1 1 0 −4 0 0 1 0 0 1 {z } =B=U ·A KAPITEL 11. LINEARE GLEICHUNGSSYSTEME wobei U die Umformungsmatrix ist: 1 1 0 0 1 0 −1 U = 0 1 0 · 0 1 −1 · 0 0 0 1 0 0 1 0 {z } | {z } | | A3,1 (−1) A3,2 (−1) 1 0 0 | 0 1 −2 {z A2,3 (−2) 52 0 0 1 0 · 0 − 14 {z } M3 (− 14 ) 0 1 0 0 0 0 1 0 · 0 1 0 · 0 1 0 1 −2 0 1 1 0 0 } | {z } | {z } A1,3 (−2) V1,3 1/4 −1/2 1/2 1/2 −1/2 = 1/4 −1/4 1/2 1/2 1 −2 2 1 2 −2 = 1 4 −1 2 2 Wir erhalten also als vereinfachtes Gleichungssystem A~x = ~b ⇔ U · A} ~x = U · ~b | {z =B=E3 ⇔ ~x = U · ~b, und müssen nur noch U · ~b berechnen, um die Lösung für ~x zu erhalten. 1 1 −2 2 1 1 2 −2 2 U · 2 = 1 4 3 −1 2 2 3 3 1 = −1 4 9 3/4 = −1/4 9/4 Lösung des linearen Gleichungssystems 11.3.1 ist also x= 3 1 9 ,y = − ,z = . 4 4 4 Dieselbe Idee – nämlich die Betrachtung der Matrix (A, En ) anstelle von A – kann man auch benutzen, um das Inverse von (regulären) Matrizen auszurechnen. Sei A~x = ~b ein Gleichungssystem mit regulärer Matrix A ∈ K n×n . Dann ist A~x = ~b genau dann, wenn ~x = A−1~b, das Gleichungssystem ist also eindeutig lösbar. Durch Anwendung des Gauß-Algorithmus erhält man aus der Matrix (A, En ) die Matrix (En , U ) mit En = B = U · A, KAPITEL 11. LINEARE GLEICHUNGSSYSTEME 53 also ist U = A−1 . Wir erhalten damit den folgenden Satz: Satz 11.3.1. Sei A ∈ K n×n eine reguläre quadratische Matrix. Dann ist A~x = ~b eindeutig lösbar, und man erhält das Inverse A−1 , indem man dieselben Zeilenumformungen auf die Einheitsmatrix in derselben Reihenfolge anwendet. Beispiel 11.3.2 (Invertierung). Das Gleichungssystem 2x + x 2y y + z + z = = = −2 4 1 ist eindeutig lösbar (siehe Beispiel 11.1.2). Hier ist 2 2 0 −2 A = 0 1 1 , ~b = 4 . 1 0 1 1 Das Inverse zu A entspricht der Umformungsmatrix U , die wir bereits in Beispiel 11.3.1 bestimmt haben. Wir können das Inverse aber auch bei der Umformung von A mitbestimmen. 2 2 0 1 0 0 1 0 1 0 0 1 V1,3 0 1 1 0 1 0 → 0 1 1 0 1 0 1 0 1 0 0 1 2 2 0 1 0 0 1 0 1 0 0 1 1 0 1 0 0 1 A1,3 (−2) A2,3 (−2) 0 → 0 1 1 0 1 0 → 0 1 1 0 1 0 2 −2 1 0 −2 0 0 −4 1 −2 −2 A (−1) 3,2 0 1 1 0 1 0 1 0 0 1/4 −1/2 1/2 M3 − 41 A3,1 (−1) 1 0 → 0 1 0 1/4 1/2 −1/2 → 0 1 1 0 1 1 1 0 0 1 −1/4 1/2 1/2 0 0 1 −4 2 2 Die Umformungsmatrix steht nun in dem abgetrennten, hinteren Bereich der Matrix. Kapitel 12 Lineare Abbildungen und Matrizen 12.1 Lineare Abbildungen Homomorphismen sind strukturerhaltende Abbildungen, d.h. Abbildungen, die mit den Verknüpfungen auf Mengen verträglich sind. Vektorraumhomomorphismen werden auch lineare Abbildungen genannt; sie sind mit der Addition von Vektoren und mit der Skalarmultiplikation verträglich. Definition 12.1.1 (Lineare Abbildungen, Vektorraumhomomorphismus). Es seien V und W zwei K-Vektorräume und ϕ : V → W eine Abbildung. Dann heißt ϕ linear oder Vektorraumhomomorphismus, falls die folgenden Bedingungen gelten: ϕ(~v + ~v 0 ) = ϕ(~v ) + ϕ(~v 0 ) für alle ~v , ~v 0 ∈ V (Additivität) und ϕ(s · ~v ) = s · ϕ(~v ) für alle s ∈ K und ~v ∈ V (Homogenität). Aus der Homogenität folgt sofort eine zentrale Eigenschaft linearer Abbildungen. Nullvektoren werden unter Vektorraumhomomorphismen wieder auf Nullvektoren abgebildet: Satz 12.1.2. Sind V und W zwei K-Vektorräume und ist ϕ : V → W eine lineare Abbildung, so ist ϕ(~0) = ~0. Beweis: Es gilt: ϕ(~0) = ϕ(0 · ~0) = 0 · ϕ(~0) = ~0. Vektorraumhomomorphismen/Lineare Abbildungen lassen sich auch durch eine 54 KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 55 Bedingung charakterisieren: Satz 12.1.3 (Charakterisierung linearer Abbildungen). Es seien V und W zwei K-Vektorräume und ϕ : V → W eine Abbildung. Die Abbildung ϕ ist genau dann linear, wenn ϕ(s · ~v + ~v 0 ) = s · ϕ(~v ) + ϕ(~v 0 ) für alle s ∈ K und ~v , ~v 0 ∈ V. (12.1.1) Beweis: Seien ~v , ~v 0 ∈ V, s ∈ K. „⇒“ Sei ϕ linear. Dann ist ϕ(s · ~v + ~v 0 ) = ϕ(s · ~v ) + ϕ(~v 0 ) (Additivität) = s · ϕ(~v ) + ϕ(~v 0 ). Homogenität „⇐“ Es gelte Gleichung 12.1.1. Wir zeigen die Additivität: ϕ(~v + ~v 0 ) = ϕ(1 · ~v + ~v 0 ) = 1 · ϕ(~v ) + ϕ(~v 0 ) = ϕ(~v ) + ϕ(~v 0 ), und die Homogenität: ϕ(s · ~v ) = ϕ(s · ~v + ~0) = s · ϕ(~v ) + ϕ(~0) = s · ϕ(~v ). Um eine Abbildung auf Linearität zu untersuchen, können wir also zwei verschiedene Tests durchführen. Wenn der Nullvektor nicht auf den Nullvektor abgebildet wird, ist die Abbildung keinesfalls linear. Andernfalls gilt es, Bedingung (12.1.1) zu überprüfen. Wir betrachten dazu nun ein paar Beispiele. Beispiel 12.1.1. 1. Es sei V ein K-Vektorraum und c ∈ K ein Skalar. Dann ist die Abbildung ϕc : V → V ~v 7→ c · ~v linear. Denn ϕc (s · ~v + ~v 0 ) = c · (s · ~v + ~v 0 ) = s · (c · ~v ) + c · ~v 0 = s · ϕc (~v ) + ϕc (~v 0 ) für alle s ∈ K und ~v , ~v 0 ∈ V . KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 56 2. (Nullabbildung): Sind V und W zwei K-Vektorräume, dann ist die Abbildung ϕ:V →W ~v 7→ ~0 für alle ~v ∈ V linear, denn es ist ϕ = ϕc für c = 0. Die Nullabbildung ist also ein Vektorraumhomomorphismus. 3. (Differenzierbare Funktionen): Es sei V der R-Vektorraum aller differenzierbaren Funktionen von R nach R, also V := { f : R → R | f ist differenzierbar } ⊂ RR , und f 0 bezeichne die Ableitung der Funktion f ∈ V . Dann ist die durch f 7→ f 0 definierte Abbildung von V nach RR linear. Dies folgt sofort aus den bekannten Ableitungsregeln (Faktorregel und Summenregel) für Funktionen. Ein besonders wichtiges Beispiel für eine lineare Abbildung wird durch den folgenden Satz gegeben: Satz 12.1.4. Sei A ∈ K m×n eine Matrix. Definiere ϕA durch ϕA : K n → K m , ~x 7→ A · ~x. Jede solche Abbildung ϕA ist linear. Der Beweis folgt sofort aus den Rechenregeln für Matrizen. Wir werden später sehen, dass alle linearen Abbildungen zwischen Vektorräumen K m und K n diese Form haben, also durch Matrizen darstellbar sind. Dementsprechend muss auch die folgende Eigenschaft von Homomorphismen gelten: Schaltet man zwei lineare Abbildungen (geeignet) hintereinander, so erhält man wieder eine lineare Abbildung. Die Komposition von zwei linearen Abbildungen entspricht dann nämlich der Multiplikation zweier Matrizen, was wiederum eine Matrix, also eine lineare Abbildung, zum Ergebnis hat. Lemma 12.1.5. Es seien U, V und W drei K-Vektorräume. Sind ϕ : U → V und ψ : V → W lineare Abbildungen, so ist die Hintereinanderausführung ψ◦ϕ : U →W ~v 7→ ψ(ϕ(~v )) ebenfalls eine lineare Abbildung. KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 57 Beweis: Seien ~v , w ~ ∈ V und s ∈ K. Wir benutzen Satz 12.1.3, um die Linearität nachzuweisen. ψ ◦ ϕ (s · ~v + w) ~ = ψ(ϕ(s · ~v + w)) ~ = ψ(s · ϕ(~v ) + ϕ(w)) ~ = s · ψ(ϕ(~v )) + ψ(ϕ(w)) ~ = s · ψ ◦ ϕ(~v ) + ψ ◦ ϕ(w) ~ Satz 12.1.6. Es seien V und W zwei K-Vektorräume, {~v1 , . . . , ~vn } ⊂ V sei eine Basis von V , und w ~ 1, . . . , w ~ n ∈ W seien n Vektoren in W . Dann gibt es genau eine lineare Abbildung ϕ:V →W mit ϕ(~vi ) = w ~i für i = 1, · · · , n. (12.1.2) ~ 1, . . . , w ~ n wie angegeben. Zunächst definieren wir Beweis: Seien {~v1 , . . . , ~vn }, w ϕ : V 7→ W wie folgt: Jedes ~v ∈ V lässt sich eindeutig als Linearkombination der Basisvektoren ~v1 , . . . , ~vn darstellen, d.h. es gibt eindeutig bestimmte Skalare s1 , . . . , sn ∈ K mit ~v = s1 · ~v1 + · · · + sn · ~vn . Definiere dann ϕ(~v ) = s1 · w ~ 1 + · · · + sn · w ~ n. Für die Basisvvektoren ~vi selbst gilt ~vi = 0 · ~v1 + · · · + 0 · ~vi−1 + 1 · ~vi + 0 · ~vi+1 + · · · + 0 · ~vn , also ϕ(~vi ) = 1 · w ~i = w ~i , daher ist (12.1.2) erfüllt. Wir müssen noch zeigen, dass ϕ linear ist, und verwenden dazu Satz 12.1.3. Seien also ~u, ~v ∈ V , ~u = s1 · ~v1 + · · · + sn · ~vn , ~v = t1 · ~v1 + · · · + tn · ~vn und r ∈ K. Dann gilt ϕ(r · ~u + ~v ) = ϕ(r · (s1 · ~v1 + · · · + sn · ~vn ) + t1 · ~v1 + · · · + tn · ~vn ) = ϕ((rs1 + t1 ) · ~v1 + · · · + (rsn + tn ) · ~vn ) = (rs1 + t1 ) · w ~ 1 + · · · + (rsn + tn ) · w ~n = r(s1 · w ~ 1 + · · · + sn · w ~ n ) + t1 · w ~ 1 + · · · + tn · w ~n = rϕ(~u) + ϕ(~v ). Es bleibt die Eindeutigkeit von ϕ zu zeigen. Sei dazu ϕ0 eine beliebige lineare Abbildung, die (12.1.2) erfüllt. Dann gilt für den beliebig gewählten Vektor ~v , KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 58 dass ϕ0 (~v ) = ϕ0 (t1 · ~v1 + · · · + tn · ~vn ) = t1 · ϕ0 (~v1 ) + · · · + tn · ϕ0 (~vn ) = t1 · w ~ 1 + · · · + tn · w ~n = ϕ(~v ), also ϕ0 = ϕ. Damit ist ϕ durch (12.1.2) eindeutig bestimmt. Beispiel 12.1.2 (im R2 ). Wir betrachten den R-Vektorraum R2 mit der Basis {~e1 , ~e2 }. Eine lineare Abbildung ϕ : R2 → R2 ist dann eindeutig durch die Bilder w ~ 1 := ϕ(~e1 ) und w ~ 2 := ϕ(~e2 ) gegeben. Für einen beliebigen Vektor ~v = ss12 = s1 · ~e1 + s2 · ~e2 ∈ R2 gilt dann Sei z.B. w ~1 = 1 1 ϕ(~v ) = s1 · w ~ 1 + s2 · w ~ 2. und w ~ 2 = 02 , dann gilt ϕ(~v ) = s1 · w ~ 1 + s2 · w ~2 1 0 = s1 + s2 1 2 s1 = . s1 + 2s2 Korollar 12.1.7. Jede lineare Abbildung ϕ : K n → K m ist von der Form ϕ = ϕA für eine Matrix A ∈ K m×n , wobei ϕA wie in Satz 12.1.4 definiert ist. Die Matrix A heißt auch darstellende Matrix von ϕ . Beweis: Sei ϕ : K n → K m eine lineare Abbildung, sei {~e1 , . . . , ~en } die Standardbasis von K n . Dann ist ϕ(~ei ) ∈ K m für alle i, 1 ≤ i ≤ n, wir können also schreiben a1i ϕ(~ei ) = ... ∈ K m , 1 ≤ i ≤ n. ami Wir setzen Dann ist a11 A = ... ... a1n .. ∈ K m×n . . am1 ... amn a1i ϕA (~ei ) = A · ~ei = ... = ϕ(~ei ) ami für 1 ≤ i ≤ n. ϕA und ϕ stimmen also auf den Standardbasisvektoren überein. Nach Satz 12.1.6 gilt dann ϕA = ϕ. Damit haben wir alle linearen Abbildungen zwischen Vektorräumen K n und K m bestimmt. Um diese Erkenntnis für lineare Abbildungen zwischen allgemeinen KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 59 Vektorräumen ausnutzen zu könnnen, müssen wir Homomorphismen zwischen allgemeinen Vektorräumen einerseits und den Standardräumen K n andererseits untersuchen. Das Ziel ist, eine lineare Abbildung ϕ : V 7→ W in eine Hintereinanderschaltung linearer Abbildungen ϕ1 ϕ2 ϕ3 ϕ : V → Kn → Km → W (12.1.3) zu zerlegen. ϕ2 muss dann ein Homomorphismus ϕA sein, während ϕ1 und ϕ2 die Aufgabe haben, V bzw W zu klassifizieren. Zu diesem Zweck sind die Eigenschaften Injektivität und Surjektivität nötig. Lineare Abbildungen können injektiv, surjektiv und auch bijektiv sein: Definition 12.1.8 (Monomorphismus, Epimorphismus, Isomorphismus). Wir betrachten Homomorphismen zwischen beliebigen K-Vektorräumen V, W . (i) Ein injektiver Vektorraumhomomorphismus heißt (Vektorraum-) Monomorphismus. (ii) Ein surjektiver Vektorraumhomomorphismus heißt (Vektorraum-) Epimorphismus. (iii) Ein bijektiver Vektorraumhomomorphismus heißt (Vektorraum-) Isomorphismus. Definition 12.1.9 (Isomorphie). Zwei K-Vektorräume V und W heißen isomorph (in Zeichen V ∼ = W ), falls es einen Vektorraumisomorphismus ϕ : V → W gibt. Wenn zwei Vektorräume V und W isomorph sind, dann haben beide Vektorräume die gleiche Struktur, lediglich die Benennumg ihrer Elemente ist ggf. verschieden. Man könnte also sagen, dass die Vektorräume einander „entsprechen“. Ein Vektorraumisomorphismus bildet aufgrund der Bijektivität jedes Element eindeutig auf eines des Bildbereiches ab und andersherum, was man einer Umbenennung der Elemente gleichsetzen kann. Die Linearität des Isomorphismus sorgt wiederum dafür, dass die Struktur der Operationen zwischen den Elementen erhalten bleibt. D.h., es ist egal, ob wir eine Berechnung in V oder in W durchführen, es kommt das bis auf die Benennung eindeutig bestimmte Ergebnis heraus. Satz 12.1.10 (Eigenschaften von Isomorphismen). Es seien U, V und W drei K-Vektorräume. (i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildung ϕ−1 : V → U ein Isomorphismus. (ii) Sind ϕ : U → V und ψ : V → W Isomorphismen, so ist auch die Hintereinanderausführung ψ ◦ ϕ : U → W ein Isomorphismus. (iii) Die Isomorphie “ ∼ = “ ist eine Äquivalenzrelation auf der Menge der KVektorräume. KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 60 Beweis: zu (i): Sei ϕ : U → V ein Isomorphismus, d.h. ϕ ist linear und bijektiv. Dann ist ϕ−1 : V → U definiert und ebenfalls bijektiv. Wir müssen noch zeigen, dass ϕ−1 linear ist. Seien ~v1 , ~v2 ∈ V . Dann gibt es eindeutige ~u1 , ~u2 ∈ U mit ϕ(~ui ) = ~vi , also auch ϕ−1 (~vi ) = ~ui , i = 1, 2. Sei s ∈ K. ϕ−1 (s · ~v1 + ~v2 ) = ϕ−1 (s · ϕ(~u1 ) + ϕ(~u2 )) = ϕ−1 (ϕ(s · ~u1 ) + ϕ(~u2 )) = ϕ−1 (ϕ(s · ~u1 + ~u2 )) = s · ~u1 + ~u2 = s · ϕ−1 (~v1 ) + ϕ−1 (~v2 ) nach Satz 12.1.3 ist dann ϕ−1 linear. zu (ii): Dies folgt sofort mit Lemma 12.1.5, da die Hintereinanderausführung bijektiver Abbildung auch wieder bijektiv ist. zu (iii): V ∼ = W genau dann, wenn es einen Isomorphismus ϕ : V → W gibt. Insbesondere ist die identische Abbildung idV : V → V, ~v 7→ ~v , ein Isomor∼ ist reflexiv. phismus, damit ist V ∼ = V , und “=“ ∼ Mit (i) folgt aus V = W auch W ∼ = V , also die Symmetrie von “∼ =“. ∼ Wegen (ii) schließlich ist “=“ transitiv, d.h. aus U ∼ = V und V ∼ = W folgt U∼ = W . Damit sind die Eigenschaften einer Äquivalenzrelation (s. Definition 3.20, Teil I) gezeigt. Die Isomorphierelation “∼ =“ liefert also als Äquivalenzrelation eine passende Methode, um Vektorräume zu klassifizieren. Die Frage lautet insbesondere, wie viele Äquivalenzklassen von Vektorräumen existieren, wie viele Möglichkeiten es also gibt, eine Vektorraumstruktur zu bilden. Ebenfalls interessant wäre es zu wissen, welche Vektorräume z. Bsp. isomorph zu den Standardräumen K n sind, da uns diese Räume bereits vertraut sind und ihre Eigenschaften eingehend untersucht wurden. Gibt es auch noch andere Möglichkeiten, einen Vektorraum aus den Elementen des K n zu bilden? Wir beantworten im Folgenden diese Frage und betrachten hierzu die Funktion cB . Sei V ein K-Vektorraum der Dimension n, sei B = {~v1 , . . . , ~vn } ⊂ V eine Basis von V . Wir wollen im Folgenden immer voraussetzen, dass durch die Nummerierung i = 1, . . . , n eine Reihenfolge der Basiselemente ~v1 , . . . , ~vn von B festgelegt ist. Aus der Definition von Basen folgt, dass es zu jedem Vektor ~v ∈ V eindeutige Koeffizienten s1 , . . . , sn ∈ K gibt mit ~v = s1 · ~v1 + · · · + sn · ~vn . Wegen der Festlegung der Reihenfolge können wir dem Vektor ~v ∈ V diese KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 61 Koeffizienten eindeutig zuordnen und erhalten eine Abbildung s1 .. n cB : V → K , ~v = s1 · ~v1 + · · · + sn · ~vn 7→ . . (12.1.4) sn Satz 12.1.11. Die in (12.1.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mit Umkehrabbildung s1 .. −1 n cB : K → V, . 7→ ~v = s1 · ~v1 + · · · + sn · ~vn . sn Beweis: Seien B und cB festgelegt wie angegeben. Seien ~v , w ~ ∈ V , s ∈ K. Seien s1 , . . . , sn , t1 , . . . , tn die (eindeutigen) Koeffizienten mit ~v = s1 · ~v1 + · · · + sn · ~vn w ~ = t1 · ~v1 + · · · + tn · w ~ n. Wir zeigen zunächst, dass cB eine lineare Abbildung ist: Es ist s · ~v + w ~ = (ss1 + t1 ) · ~v1 + · · · + (ssn + tn ) · ~vn , also ss1 + t1 .. cB (s · ~v + w) ~ = . ssn + tn s1 t1 .. .. = s . + . sn tn = s · cB (~v ) + cB (w). ~ cB ist injektiv, denn sei cB (~v ) = cB (w), ~ d.h. s1 t1 .. .. ~ . = . ⇒ s1 = t1 , . . . , sn = tn ⇒ ~v = w. sn tn s1 cB ist auch surjektiv, denn zu jedem ... ∈ K n gibt es ~v = s1 ·~v1 +· · ·+sn ·~vn ∈ sn s1 V mit cB (~v ) = ... ∈ K n , cB ist also ein Isomorphismus. Es ist klar, dass die sn Umkehrabbildung c−1 B ist wie angegeben. Wir haben also mit cB einen Isomorphismus von beliebigen n-dimensionalen Vektorräumen auf den K n gefunden. Das bedeutet, dass jeder denkbare n- KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 62 dimensionale Vektorraum die gleiche Struktur hat wie der K n , und es folgt damit das folgende Korollar. Korollar 12.1.12. Jeder n-dimensionale Vektorraum ist isomorph zu K n . Daraus ergibt sich sofort der folgende Satz: Satz 12.1.13. Je zwei endlich dimensionale K-Vektorräume derselben Dimension n sind isomorph. Beweis: Seien V1 , V2 K-Vektorräume mit dim V1 = dim V2 = n. Seien B1 , B2 Basen von V1 bzw V2 mit festgelegter Reihenfolge. Dann sind cB1 : V1 → −1 n K n , c−1 B2 : K → V2 Isomorphismen nach Satz 12.1.11, also ist auch cB1 ◦ cB2 : V1 → V2 nach Satz 12.1.10 ein Isomorphismus, und folglich sind V1 und V2 isomorph. Die K-Vektorräume der Dimension n bilden also eine Isomorphie-Äquivalenzklasse mit dem bekanntesten Vertreter K n . 12.2 Matrix einer linearen Abbildung Wir setzen unsere Überlegungen zur Charakterisierung beliebiger linearer Abbildungen ϕ : V → W (V , W endlich dimensionale K-Vektorräume) fort. Nach Satz 12.1.6 ist ϕ eindeutig bestimmt durch die Bilder auf einer Basis von V . Ganz ähnlich wie im Beweis von Korollar 12.1.7 kann ϕ in Abhängigkeit von den gewählten Basen durch eine Matrix beschrieben werden. Dies wollen wir uns im Folgenden genauer anschauen. Sei dim V = n mit Basis B = {~v1 , . . . , ~vn }, dim W = m mit Basis B 0 = {w ~ 1, . . . , w ~ m }, wobei wir – wie üblich – sowohl für B als auch für B 0 die Reihenfolge der Elemente festlegen (sonst muss man alle Permutationen der Reihenfolge betrachten). Dann ist nach Satz 12.1.6 ϕ durch die Angabe von ϕ(~vj ) ∈ W für j = 1, . . . , n vollständig bestimmt. Der Vektor ϕ(~vj ) ∈ W lässt sich eindeutig in der Basis B 0 ausdrücken: ϕ(~vj ) = a1j · w ~ 1 + · · · + amj · w ~m m X = aij · w ~i für j = 1, . . . , n, i=1 wobei aij ∈ K für i = 1, . . . , m und j = 1, . . . , n, d.h. (aij ) ∈ K m×n . Wir erhalten also eine Matrix, deren j-te Spalte die Koeffizienten für die Berechnung von KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 63 ϕ(~vj ) in Abhängigkeit von den Basisvektoren w ~ i angibt (1 ≤ j ≤ n, 1 ≤ i ≤ m): a11 . . . a1j . . . a1n .. .. (aij ) = ... . . am1 ... amj ... amn Wir halten dies in der folgenden Definition fest. Definition 12.2.1 (Matrix einer linearen Abbildung). Seien V , W endlich dimensionale K-Vektorräume, dim V = n mit Basis B = (~v1 , . . . , ~vn ) und dim W = m mit Basis B 0 = (w ~ 1, . . . , w ~ m ), sei ϕ : V → W eine lineare Abbildung. Die durch ϕ(~vj ) = m X aij · w ~i für i = 1, . . . , m, j = 1, . . . , n, (12.2.1) i=1 definierte Matrix (aij ) ∈ K m×n heißt Matrix von ϕ bezüglich der Basen B und B’, in Zeichen m×n . B 0 [ϕ]B = (aij ) ∈ K Beispiel 12.2.1. 1. Es sei A ∈ K m×n und ϕA : K n → K m die zugehörige lineare Abbildung mit ϕA (~x) = A · ~x. Es seien B = (~e1 , . . . , ~en ) die Standardbasis von K n und B 0 = (e~0 1 , . . . , e~0 m ) die Standardbasis von K m . Dann ist a1j m X ϕA (~ej ) = A · ~ej = ... = aij · e~0 i für j = 1, . . . , n. i=1 amj Folglich ist also B 0 [ϕA ]B = A. 2. Sei V = R3 , W = R2 mit den Basen 1 1 0 B = ~v1 = 1 , ~v2 = 0 , ~v3 = 1 0 1 1 als Basis von V und 1 0 B = w ~1 = , w ~2 = 0 1 0 als Basis von W . Sei ϕ : V → W definiert durch 1 ϕ(~v1 ) = = 1·w ~1 + 1 · w ~2 1 1 ϕ(~v2 ) = = 1·w ~1 + 0 · w ~2 0 0 ϕ(~v3 ) = = 0·w ~1 + 1 · w ~2 1 Dann ist B0 [ϕ]B = 1 1 1 0 0 . 1 KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 64 Wir haben also eine Matrix A := B 0 [ϕ]B , die bezgl. der gewählten Basen B und B 0 die lineare Abbildung ϕ : V → W in Matrixform kodiert und damit wiederum eine lineare Abbildung ϕA : K n → K m definiert. ϕA ist ein geeigneter Kandidat für den Homomorphismus ϕ2 zur Zerlegung von ϕ in (12.1.3). Um diese Zerlegung mit ϕA herzustellen, brauchen wir geeignete Isomorphismen von V nach K n und von W nach K m , die insbesondere die Beziehung von ϕA zu ϕ definieren. Wir erinnern uns dazu an die Abbildungen cB aus (12.1.4). Es gilt V ∼ = K n und W ∼ = K m dank der Isomorphismen s1 .. n cB : V → K , ~v = s1 · ~v1 + · · · + sn · ~vn 7→ . sn cB 0 : W → K m , w ~ = t1 · w ~ 1 + · · · + tm · w ~m t1 7→ ... tm cB übersetzt also einen Vektor ~v ∈ V in seine Darstellung im K n bezgl. der Basis B. Auf diese Darstellung können wir nun die Abbildung ϕA anwenden und erhalten eine Abbidung ϕA ◦ cB : V → K m , V → K n → K m , A =B 0 [ϕ]B . Diese Abbildung ist insbesondere linear, da die Komposition linearer Abbildungen wiederum linear ist (12.1.5). Ebenso gilt für eine lineare Abbildung ϕ : V → W , dass cB 0 ◦ ϕ : V → K m eine lineare Abbildung von V nach K m ist. Wir wollen im Folgenden cB 0 ◦ ϕ mit Hilfe der Matrix B 0 [ϕ]B beschreiben. Satz 12.2.2. Es seien V und W zwei K-Vektorräume, B = {~v1 , . . . , ~vn } eine Basis von V und B 0 = {w ~ 1, . . . , w ~ m } eine Basis von W . Sei weiterhin ϕ : V → W eine lineare Abbildung, und sei A := B 0 [ϕ]B . Dann gilt cB 0 ◦ ϕ = ϕA ◦ cB . (12.2.2) Das Abbildungsdiagramm 12.1 ist also kommutativ. Beweis: Nach Definition gilt B 0 [ϕ]B = (aij ) ∈ K m×n mit ϕ(~vj ) = a1j w ~ 1 + · · · + amj w ~ m für j = 1, . . . , n, also a1j cB 0 ◦ ϕ(~vj ) = cB 0 (ϕ(~vj )) = ... . amj KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN V ϕ cB 65 W cB 0 ϕA Kn Km cB 0 ◦ ϕ = ϕ A ◦ cB Abbildung 12.1: Kommutatives Abbildungsdiagramm zu Satz 12.2.2. Weiterhin ist also auch 0 .. . cB (~vj ) = 1 ← j -te Zeile . .. 0 0 .. a1j . . ϕA ◦ cB (~vj ) = (aij ) 1 = .. . . amj .. 0 Für alle Basisvektoren gilt dann cB 0 ◦ ϕ(~vj ) = ϕA ◦ cB (~vj ). Da sowohl cB 0 ◦ ϕ(~vj ) als auch ϕA ◦ cB (~vj ) lineare Abbildungen sind, muss nach Satz 12.1.6 gelten cB 0 ◦ ϕ = ϕA ◦ cB . Mit diesem Satz erhalten wir nun unsere gewünschte Zerlegung von ϕ. Wir wenden das Inverse von cB (s. Satz 12.1.11) auf beide Seiten von Gleichung (12.2.2) an, und erhalten ⇔ cB 0 ◦ ϕ = ϕ = ϕA ◦ cB c−1 B 0 ◦ ϕA ◦ cB . Das bedeutet insbesondere, dass alle linearen Abbildungen zwischen zwei endlich dimensionalen Vektorräumen V und W mit fest gewählten Basen eindeutig durch eine Abbildungsmatrix beschrieben sind. Die Menge aller linearen Abbildungen von V nach W entspricht damit der Menge aller Matrizen A ∈ K m×n , wenn dim V = n und dim W = m gilt. KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 66 Beispiel 12.2.2. Sei ϕ definiert wie in Beispiel 2. Sei ~v = s1 · ~v1 + s2 · ~v2 + s3 · ~v3 1 1 0 = s1 1 + s2 0 + s3 1 0 1 1 s1 + s2 = s1 + s3 s2 + s3 s1 Dann ist cB (~v ) = s2 und s3 cB 0 (ϕ(~v )) = cB 0 (s1 ϕ(~v1 ) + s2 ϕ(~v2 ) + s3 ϕ(~v3 )) = cB 0 (s1 (1 · w ~1 + 1 · w ~ 2 ) + s2 (1 · w ~ 1 ) + s3 (1 · w ~ 2 )) = cB 0 ((s1 + s2 )w ~ 1 + (s1 + s3 )w ~ 2) s + s2 = 1 s1 + s3 s1 1 1 0 s2 v) = B 0 [ϕ]B · cB (~ 1 0 1 s3 s + s2 = 1 , s1 + s3 also cB 0 (ϕ(~v )) = B 0 [ϕ]B · cB (~v ). Das folgende Korollar zeigt, dass die Matrixmultiplikation durch die Kompatibilität mit der Hintereinanderschaltung linearer Abbildungen motiviert ist: Korollar 12.2.3. Es seien U , V und W drei endlich-dimensionale K-Vektorräume und ϕ : U → V und ψ : V → W lineare Abbildungen. Ist B Basis von U , B 0 Basis von V und B 00 Basis von W , so gilt B 00 [ψ ◦ ϕ]B = B 00 [ψ]B 0 · B 0 [ϕ]B . Beweis: Seien B = {~u1 , . . . , ~un } Basis von U 0 Basis von V 00 Basis von W, B = {~v1 , . . . , ~vm } B = {w ~ 1, . . . , w ~ l} seien B 0 [ϕ]B = A = (aij ) ∈ K m×n und ϕ(~uj ) = B 00 [ψ]B 0 m X = C = (cki ) ∈ K l×m , d.h. aij ~vi i=1 ψ(~vi ) = l X k=1 cki w ~ k. KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 67 Durch Hintereinanderschaltung erhält man ψ ◦ ϕ(~uj ) = ψ(ϕ(~uj )) m X = ψ( aij ~vi ) i=1 = m X aij ψ(~vi ) i=1 = m X aij ( i=1 l X cki w ~ k) k=1 l X m X ~k = ( cki aij ) · w k=1 i=1 | {z (C·A)kj } also (B 00 [ψ ◦ ϕ]B )kj = (C · A)kj , insgesamt also die Behauptung. Beispiel 12.2.3. Wir setzen Beispiel 12.2.2 fort und kombinieren nun ϕ : R3 → R2 mit ψ : R2 → R2 , 1 1 ψ(w ~ 1) = ψ = =1·w ~1 + 1 · w ~2 0 1 0 2 ψ(w ~ 2) = ψ = =2·w ~1 + 2 · w ~2 1 2 (sowohl für Definition- als auch für Bildbereich von ψ betrachten wir dieselbe Basis B 0 ). Dann ist also 1 2 . B 0 [ψ]B 0 = 1 2 Für die Hintereinanderausführung ϕ ψ ψ ◦ ϕ : R3 → R2 → R2 erhalten wir ψ ◦ ϕ(~v1 ) = ψ(1 · w ~1 + 1 · w ~ 2) = ψ(w ~ 1 ) + ψ(w ~ 2) =3·w ~1 + 3 · w ~ 2, ψ ◦ ϕ(~v2 ) = ψ(1 · w ~ 1) =1·w ~1 + 1 · w ~ 2, ψ ◦ ϕ(~v3 ) = ψ(1 · w ~ 2) =2·w ~1 + 2 · w ~ 2, also B0 3 3 1 1 [ψ ◦ ϕ]B = = 1 2 1 2 2 1 1 2 1 0 = B 0 [ψ]B 0 · B 0 [ϕ]B . 0 1 KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 68 Man kann die Assoziativität der Matrixmultiplikation durch Ausrechnen zeigen, eleganter folgt das mit diesem Korollar: Korollar 12.2.4. Die Matrixmultiplikation ist assoziativ, d.h. für A ∈ K m×n , B ∈ K n×p und C ∈ K p×q gilt (A · B) · C = A · (B · C). Dies folgt leicht durch Betrachtung der zugehörigen linearen Abbildungen ϕA , ϕB , ϕC aus Satz 12.2.3, da die Hintereinanderschaltung von Abbildungen assoziativ ist. Im Folgenden wollen wir uns nicht auf die lineare Abbildung selbst konzentrieren, sondern die Darstellung von Vektoren bezgl. unterschiedlicher Basen (desselben Vektorraums) untersuchen. Sei also V ein K-Vektorraum mit dim V = n und idV : V → V die identische Abbildung. Definition 12.2.5 (Basiswechselmatrix). Sei V ein K-Vektorraum mit Basen B = (~v1 , . . . , ~vn ) und B 0 = (w ~ 1, . . . , w ~ n ). Dann heißt die Matrix Q = (qij ) := B 0 [idV ]B Basiswechselmatrix. Jeder Vektor ~v ∈ V lässt sich sowohl bzgl. B als auch bzgl. B 0 eindeutig darstellen: ~v = n X si~vi und ~v = n X i=1 das heißt s0i w ~ i, i=1 s1 cB (~v ) = ... s01 cB 0 (~v ) = ... . und s0n sn Mit Hilfe der Basiswechselmatrix Q = (qij ) lässt sich die eine Darstellung leicht aus der anderen gewinnen: Lemma 12.2.6. Die Voraussetzungen und Notationen seien wie in Definition 12.2.5. Für jeden Vektor ~v ∈ V gilt dann cB 0 (~v ) = Q · cB (~v ), und insbesondere erhält man für jeden Basisvektor ~vj die folgende Darstellung: ~vj = n X qij w ~ i. i=1 Beweis: Für ~v ∈ V ist nach Satz 12.2.2 cB 0 (~v ) = cB 0 (idV (~v )) = cB 0 ◦ idV (~v ) = Q · cB (~v ) KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 69 Ist ~v = ~vj ∈ B, so ist cB 0 (~vj ) = Q · cB (~vj ) 0 . .. 1 ←j-te Zeile =Q· . .. 0 q1j = ... , qnj d.h. ~vj = Pn ~ i. i=1 qij w Wir können nun die Abbildung idV auch bezgl. iterierter Basiswechsel betrachten: B → B0 → B B0 → B → B0 Mit Satz 12.2.3 gilt dann (wegen idV ◦ idV = idV ) · B [idV ]B 0 0 [id ] B V B · B 0 [idV ]B B 0 [idV ]B = = B 0 [idV ]B 0 = = B [idV ]B En und En , wobei En ∈ K n×n die n × n Einheitsmatrix ist. Folglich ist zu Q := B 0 [idV ]B inverse Matrix. B [idV ]B 0 = Q−1 die Satz 12.2.7. Sei V ein K-Vektorraum der Dimension n, seien B, B 0 Basen von V . Dann ist die Basiswechselmatrix Q = B 0 [idV ]B invertierbar, die inverse Matrix ist Q−1 = B [idV ]B 0 . Schließlich untersuchen wir nun, wie sich Basiswechsel auf die Matrizen linearer Abbildungen auswirken: Satz 12.2.8. Es seien V und W zwei endlich-dimensionale K-Vektorräume und ϕ : V → W eine lineare Abbildung. Weiter seien B und B 0 Basen von V und C und C 0 Basen von W . Dann ist C 0 [ϕ]B 0 = C 0 [idW ]C · C [ϕ]B · B [idV ]B 0 . Beweis: Wir können ϕ auch in der Form ϕ = idW ◦ϕ ◦ idV schreiben und erhalten dann mit Korollar 12.2.3 direkt C 0 [ϕ]B 0 = C 0 [idW ◦ϕ ◦ idV ]B 0 = C 0 [idW ]C 0 · C 0 [ϕ]B 0 · B 0 [idV ]B 0 KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 70 Beispiel 12.2.4. Wir betrachten den Vektorraum V = R2 mit den Basen 1 0 1 1 B = {~e1 , ~e2 } = , und B 0 = {w ~ 1, w ~ 2} = , 0 1 2 −1 Es sei ϕ : V → V die durch − 31 ϕ(~e1 ) = ! ϕ(~e2 ) = und 4 3 2 3 1 3 ! definierte lineare Abbildung. Dann ist für beliebige Vektoren 1 x1 − 3 x1 + 32 x2 . ϕ = x1 ϕ(~e1 ) + x2 ϕ(~e2 ) = 1 4 x2 3 x1 + 3 x2 Wegen − 31 ϕ(~e1 ) = ! 1 4 = − ~e1 + ~e2 3 3 4 3 und 2 3 1 3 ϕ(~e2 ) = ! = 2 1 ~e1 + ~e2 3 3 ist B [ϕ]B 2 3 1 3 ! B [ϕ]B · − 31 = 4 3 Mit Satz 12.2.8 ist dann B 0 [ϕ]B 0 mit B 0 [idV ]B = · B 0 [idV ]B B [idV ]B 0 = (B [idV ]B 0 )−1 . Man sieht sofort, dass ! 1 1 B [idV ]B 0 = 2 −1 ist, daraus erhält man durch Invertieren ! 1 1 1 0 2 −1 0 1 ! 1 1 1 0 M2 (−1/3) → 0 1 32 13 also ist B 0 [idV ]B = → A2,1 (−1) → !−1 1 1 2 −1 ! 1 1 0 0 −3 −2 1 ! 1 1 0 13 3 0 1 23 − 31 1 A1,2 (−2) 1 3 2 3 = 1 3 − 31 ! . Insgesamt ist also B 0 [ϕ]B 0 = = 1 3 2 3 1 3 − 23 1 3 − 31 ! 1 3 1 3 ! · · 2 3 1 3 − 13 4 3 ! · ! 1 1 2 −1 = ! 1 1 2 −1 ! 1 0 0 −1 . KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 12.3 71 Dimensionssatz und Homomorphiesatz Auch bei Vektorraumhomomorphismen sind Kern und Bild besonders interessant: Definition 12.3.1 (Kern und Bild einer linearen Abbildung). Es seien V und W zwei K-Vektorräume und ϕ : V → W eine lineare Abbildung. Dann ist Kern(ϕ) := { ~v ∈ V | ϕ(~v ) = ~0 } ⊆ V Bild(ϕ) := { ϕ(~v ) | ~v ∈ V } = ϕ(V ) ⊆ W Beispiel 12.3.1. Wir betrachten den R-Vektorraum V = W = R2 und die lineare Abbildung ϕ : V → W mit x x−y 1 −1 x ϕ := = · . y y−x −1 1 y Dann gilt ϕ x 0 = y 0 ⇔ x−y y−x ⇔ = = 0 0 x = y, also ist Kern(ϕ) = x 1 1 ∈ R2 x = y = x · x ∈ R = . y 1 1 Für die Bildvektoren ( ab ) ∈ R2 gilt a x−y = b y−x ⇔ ⇔ also a = b = für x, y ∈ R x−y y−x a = −b, a 1 2 Bild(ϕ) = ∈ R b = −a = . b −1 Abbildung 12.2 veranschaulicht Bild und Kern in der euklidischen Ebene. Satz 12.3.2. Es seien V und W zwei K-Vektorräume und ϕ : V → W eine lineare Abbildung. Dann gilt: (i) Kern(ϕ) ist Teilraum von V und Kern(ϕ) = {~0} ⇔ ϕ injektiv (Monomorphismus). KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 72 Kern(ϕ) Bild(ϕ) Abbildung 12.2: Bild und Kern aus Beispiel 12.3.1 (ii) Bild(ϕ) ist Teilraum von W und Bild(ϕ) = W ⇔ ϕ surjektiv (Epimorphismus). Ist V = h~v1 , . . . , ~vn i, so ist Bild(ϕ) = hϕ(~v1 ), . . . , ϕ(~vn )i (12.3.1) Beweis: zu (i): Wegen ϕ(~0) = ~0 ist ~0 ∈ Kern(ϕ), also Kern(ϕ) 6= ∅. Seien s ∈ K, ~v , w ~ ∈ Kern(ϕ). Dann ist ϕ(s · ~v + w) ~ = s · ϕ(~v ) + ϕ(w) ~ = s · ~0 + ~0 = ~0, also auch s · ~v + w ~ ∈ Kern(ϕ). Wegen Lemma 10.2.4 ist Kern(ϕ) also ein Teilraum von V . Wir müssen noch zeigen, dass ϕ injektiv ⇔ Kern(ϕ) = {~0} gilt. „⇒“ Ist ϕ injektiv, so kann es höchstens einen Vektor ~v mit ϕ(~v ) = ~0 geben, und das ist der Nullvektor, also Kern(ϕ) = {~0}. „⇐“ Sei Kern(ϕ) = {~0}. Seien ~v1 , ~v2 ∈ V mit ϕ(~v1 ) = ϕ(~v2 ) ⇒ ~0 = ϕ(~v1 ) − ϕ(~v2 ) = ϕ(~v1 − ~v2 ), KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 73 also ~v1 − ~v2 ∈ Kern(ϕ) = {~0} und daher ~v1 − ~v2 = ~0 ⇒ ~v1 = ~v2 . Also ist ϕ injektiv. zu (ii): Wegen ϕ(~0) = ~0 ist ~0 ∈ Bild(ϕ), also Bild(ϕ) 6= ∅. Seien s ∈ K, w ~ 1, w ~ 2 ∈ Bild(ϕ). Dann gibt es ~v1 , ~v2 ∈ V mit w ~ 1 = ϕ(~v1 ), w ~2 = ϕ(~v2 ), und daher ist s·w ~1 + w ~ 2 = s ϕ(~v1 ) + ϕ(~v2 ) = ϕ(s ~v1 + ~v2 ) ∈ Bild(ϕ). | {z } ∈V Nach Lemma 10.2.4 ist damit Bild(ϕ) ein Teilraum von W . Die Äquivalenzaussage gilt allgemein für Abbildungen und folgt direkt aus der Definition für Surjektivität. Es bleibt also noch Eigenschaft (12.3.1) zu zeigen. Sei V = h~v1 , . . . , ~vn i, sei w ~ ∈ Bild(ϕ). Dann gibt es ~v ∈ V mit w ~ = ϕ(~v ). Für ~v gibt es s1 , . . . , sn ∈ K mit ~v = s1~v1 +· · ·+sn~vn ⇒ w ~ = ϕ(~v ) = s1 ϕ(~v1 )+· · ·+sn ϕ(~vn ). Jedes w ~ ∈ Bild(ϕ) lässt sich also als Linearkombination der ϕ(~vi ) darstellen. Damit ist Bild(ϕ) = hϕ(~v1 ), . . . , ϕ(~vn )i. Bemerkung: Um das Bild einer linearen Abbildung zu bestimmen, kann Eigenschaft (12.3.1) sehr hilfreich sein. Insbesondere dann ist das der Fall, wenn die lineare Abbildung durch eine Matrix definiert ist, d.h. ϕA : Rn → Rm , ~x 7→ A · ~x mit A ∈ K m×n . In diesem Fall können wir als Basis des Rn die Standardbasis {~e1 , . . . , ~en } wählen und erhalten für 1 ≤ i ≤ n: 0 a11 . . . a1n . .. .. . .. · 1 ←i-te Zeile ϕA (~ei ) = A · ~ei = . .. am1 . . . amn . 0 a1i = ... . ami Das Bild von ϕA wird also von den Spaltenvektoren aus A erzeugt. Satz 12.3.3 (Dimensionssatz für Homomorphismen). Ist V endlich-dimensional, so ist dim V = dim Kern(ϕ) + dim Bild(ϕ) KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 74 Beweis: Sei dim V = n. Mit Satz 12.3.2 sind Kern(ϕ) und Bild(ϕ) Teilräume von V mit dim Kern(ϕ) = d ≤ n (nach Korollar 10.5.11). Sei {~v1 , . . . , ~vd } eine Basis von Kern(ϕ), die wir nach Satz 10.5.5 zu einer Basis {~v1 , . . . , ~vd , ~vd+1 , . . . , ~vn } von V erweitern können. Weiterhin ist nach Korollar 10.5.11 und nach (12.3.1) Bild(ϕ) = hϕ(~v1 ), . . . , ϕ(~vn )i = h0, . . . , 0, ϕ(~vd+1 ), . . . , ϕ(~vn )i = hϕ(~vd+1 ), . . . , ϕ(~vn )i. Wir müssen nun nur noch zeigen, dass B = {ϕ(~vd+1 ), . . . , ϕ(~vn )} ⊆ Bild(ϕ) linear unabhängig ist, dann ist dim Bild(ϕ) = n − d und insgesamt dim V = n = d + (n − d) = dim Kern(ϕ) + dim Bild(ϕ). Sei also n X ~0 = si ϕ(~vi ) = ϕ( i=d+1 n X si ~vi ) i=d+1 mit sd+1 , . . . , sn ∈ K. Folglich ist n X si ~vi ∈ Kern(ϕ) = h~v1 , . . . , ~vd i, i=d+1 also n X i=d+1 si~vi = d X tj ~vj ⇒ ~0 = j=1 d X tj ~vj + j=1 n X (−si )~vi i=d+1 Da ~v1 , . . . , ~vn Basisvektoren und daher linear unabhängig sind, folgt t1 = · · · = td = sd+1 = · · · = sn = 0. Damit folgt auch die lineare Unabhängigkeit von B. Definition 12.3.4. Es seien V und W zwei K-Vektorräume und ϕ : V → W eine lineare Abbildung. Der Rang von ϕ ist die Dimension von Bild(ϕ), also Rang(ϕ) := dim Bild(ϕ). Satz 12.3.5. Es seien V und W zwei K-Vektorräume und ϕ : V → W eine lineare Abbildung. Ist V endlich dimensional, so gilt: (i) ϕ surjektiv ⇔ Rang(ϕ) = dim W (ii) ϕ injektiv ⇔ Rang(ϕ) = dim V (iii) Ist dim V = dim W , so gilt: ϕ surjektiv ⇔ ϕ injektiv. KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 75 Beweis: Sei ϕ : V → W eine lineare Abbildung, sei dim V = n. (i) folgt sofort mit Satz 12.3.2. zu (ii): Ebenfalls mit Satz 12.3.2 folgt: ϕ injektiv ⇔ Kern(ϕ) = {~0} ⇔ dim Kern(ϕ) = 0, wegen des Dimensionssatzes ist das äquivalent zu dim V = dim Bild(ϕ) = Rang(ϕ). zu (iii): Sei dim V = dim W . (ii) ϕ injektiv ⇔ Rang(ϕ) = dim V = dim W (i) ⇔ ϕ surjektiv. Beispiel 12.3.2 (lineare Gleichungssysteme). Es sei A eine m × n Matrix über dem Körper K, also A ∈ K m×n , und ϕA : K n → K m , ~x 7→ A · ~x. Dann ist Kern(ϕA ) = {~x ∈ K n | A · ~x = ~0} die Lösungsmenge des duch die Matrix A gegebenen homogenen linearen Gleichungssystems A · ~x = ~0. Nach dem Dimensionssatz 12.3.3 gilt dim Kern(ϕA ) = n − Rang(ϕA ). Für ~b ∈ K m ist die Lösungsmenge { ~x ∈ K n | A · ~x = ~b} des (inhomogenen) linearen Gleichungssystems A·~x = ~b das Urbild des Vektors ~b unter der Abbildung ϕA , also ~ { ~x ∈ K n | A · ~x = ~b } = ϕ−1 A (b). Kombiniert man eine lineare Abbildung mit Isomorphismen, so ändert sich ihr Rang nicht. Satz 12.3.6. Seien U, V, W, Y K-Vektorräume, sei ϕ : V → W eine lineare Abbildung, seien ϕ1 : U → V und ϕ2 : W → Y Isomorphismen. Dann ist Rang(ϕ) = Rang(ϕ ◦ ϕ1 ) = Rang(ϕ2 ◦ ϕ) KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 76 Beweis: Seien U, V, W, Y K-Vektrorräume, ϕ1 : U → V, ϕ2 : W → Y Isomorphismen, ϕ : V → W eine lineare Abbildung. Wir zeigen Rang(ϕ) = Rang(ϕ ◦ ϕ1 ): Es ist w ~ ∈ Bild(ϕ ◦ ϕ1 ) ⇔ ∃ ~u ∈ U : w ~ = ϕ ◦ ϕ1 (~u) = ϕ(ϕ1 (~u)) ⇔ ∃ ~v ∈ V, ~v = ϕ1 (~u) : w ~ = ϕ(~v ) ⇔w ~ ∈ Bild(ϕ), also Bild(ϕ ◦ ϕ1 ) = Bild(ϕ) und daher Rang(ϕ) = Rang(ϕ ◦ ϕ1 ). Wir zeigen Rang(ϕ) = Rang(ϕ2 ◦ ϕ): Wenn {ϕ(~v1 ), . . . , ϕ(~vn )} eine Basis von Bild(ϕ) ist, so ist {ϕ2 (ϕ(~v1 )), . . . , ϕ2 (ϕ(~vn ))} eine Basis von Bild(ϕ2 ◦ ϕ) (da ϕ2 Isomorphismus), d.h. dim Bild(ϕ) = dim Bild(ϕ2 ◦ ϕ) und daher Rang(ϕ) = Rang(ϕ2 ◦ ϕ). Bei Gruppen haben wir Restklassen und Faktorgruppen kennengelernt, solche Strukturen gibt es auch bei Vektorräumen: Definition 12.3.7 (Nebenklasse). Ist U ein Teilraum des K-Vektorraums V und ~v0 ∈ V , dann sei ~v0 + U := { ~v0 + ~u | ~u ∈ U }. Man nennt ~v0 + U auch die Nebenklasse oder Restklasse von ~v0 nach U . Beispiel 12.3.3. Sei V = R2 , dann ist 1 U = s· s ∈ R 2 ein Teilraum von V . Für ~v0 = ( 20 ) ∈ R2 entspricht die Nebenklasse von ~v0 nach U der Menge 2 1 ~v0 + U = +s· s ∈ R , 0 2 siehe Abb. 12.3. Nebenklassen entstehen z.B. durch Bildung von Urbildern linearer Abbildungen: Satz 12.3.8. Es seien V und W zwei K-Vektorräume, ϕ : V → W eine lineare Abbildung. Weiter seien ~v0 ∈ V und w ~ ∈ W mit ϕ(~v0 ) = w. ~ Dann ist ϕ−1 (w) ~ = ~v0 + Kern(ϕ). KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN y 77 ~v0 + U U 3 2 1 ~v0 1 2 3 x Abbildung 12.3: Die Nebenklasse von ~v0 nach U aus Beispiel 12.3.3 Beweis: Sei ϕ : V → W linear, seien ~v0 ∈ V , w ~ ∈ W mit ϕ(~v0 ) = w. ~ Sei ~u ∈ ϕ−1 (w) ~ = {~v ∈ V | ϕ(~v ) = w}, ~ also ϕ(~u) = w. ~ Dann ist ϕ(~v0 − ~u) = ϕ(~v0 ) − ϕ(~u) = w ~ −w ~ = ~0, d.h. ~v := ~v0 − ~u ∈ Kern ϕ ⇒ ~u = ~v0 + ~v mit ~v ∈ Kern ϕ ⇒ ~u ∈ ~v0 + Kern ϕ. Daher ist ϕ−1 (w) ~ ⊆ ~v0 + Kern ϕ. Umgekehrt gilt für jedes ~u = ~v0 + ~v ∈ ~v0 + Kern ϕ : ϕ(~u) = ϕ(~v0 + ~v ) = ϕ(~v0 ) + ϕ(~v ) = ϕ(~v0 ) = w, ~ |{z} =~ 0 also auch ~v0 + Kern ϕ ⊆ ϕ−1 (w). ~ 2 −6 Beispiel 12.3.4. Sei A = ∈ K 2×2 . −1 3 Für die lineare Abbildung ϕA : R2 → R2 , ~x 7→ A · ~x gilt dann 2 −6 Bild(ϕ) = h , i −1 3 2 =h i, −1 2 −6 x x 2 ~ Kern(ϕ) = ∈R · =0 y −1 3 y 3 =h i. 1 4 2 Für w ~= ist ∈ ϕ−1 (w), ~ und damit gilt (s. Abb. 12.4) −2 0 4 2 3 ϕ−1 = +s· s ∈ R . −2 0 1 KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 78 y 3 Bild(ϕ) Kern(ϕ) 2 1 ϕ−1 (w) ~ −2 −1 1 2 x 3 Abbildung 12.4: Nebenklassen aus Urbildern linearer Abbildungen y 2 1 U x −2 −1 1 2 Abbildung 12.5: Der R2 als Partition von Nebenklassen nach U . Lemma 12.3.9. Die Menge der Nebenklassen eines Teilraums U des K-Vektorraums V bildet eine Partitionierung der Menge V . Beweis: Wir definieren auf V eine Relation ∼U durch v~1 ∼U v~2 ⇔ v~1 − v~2 ∈ U. ∼U ist eine Äquivalenzrelation (Beweis als Übungsaufgabe), die Menge der Äquivalenzklassen bildet also eine Partitionierung von V . Jede Äquivalenzklasse [v~0 ]U entspricht einer Nebenklasse v~0 + U , denn: ~v ∈ [v~0 ]U ⇔ ~v ∼U v~0 ⇔ ~v − v~0 ∈ U ⇔ ~v ∈ v~0 + U. Beispiel 12.3.5. Für V = R2 und U := Kern(ϕ) aus Beispiel 12.3.4 folgt mit Lemma 12.3.9 [ V = ~v0 + U ~ v0 ∈R2 3 2 = ~v0 + s · ~ v ∈ R , s ∈ R . 1 0 V besteht also aus lauter Nebenklassen nach U , wie in Abb. 12.5 angedeutet, und für jeden Vektor w ~ ∈ V ist die Nebenklasse, die w ~ enthält, eindeutig bestimmt (s. Abb. 12.6). KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 79 y w ~ 2 w ~ +U U 1 x −2 −1 1 2 Abbildung 12.6: Jeder Vektor des R2 ist Element genau einer Nebenklasse nach U. Satz 12.3.10 (Restklassenraum, Faktorraum, Quotientenraum). Es seien V ein K-Vektorraum und U ein Teilraum von V . Weiter sei V /U := { ~v + U | ~v ∈ V } die Menge der Nebenklassen nach U . Für ~v , w ~ ∈ V und s ∈ K definiert man (~v + U ) + (w ~ + U ) := (~v + w) ~ +U und s · (~v + U ) := (s · ~v ) + U, damit wird V /U ein K-Vektorraum. V /U wird Restklassenraum, Quotientenraum oder Faktorraum von V nach U genannt. Beweis: Im Wesentlichen ist die Wohldefiniertheit der Addition und der Skalarmultiplikation zu zeigen, d.h. die Unabhängigkeit des Ergebnisses von den gewählten Restklassenvertretern. Es darf nicht passieren, dass einem Funktionsargument der für Vektorräume definierten Abbildungen „+“ und „·“ mehrere Funktionswerte zugeordnet werden. Die Eigenschaften des Vektorraums für V /U ergeben sich dann aus den Eigenschaften des Vektorraums für V . Der Nullvektor in V /U entspricht dabei der Restklasse ~0 + U = U . Zur Wohldefiniertheit müssen wir folgendes zeigen: (i) Gilt ~v1 + U = ~v2 + U und w ~1 + U = w ~ 2 + U , dann ist auch (~v1 + w ~ 1 ) + U = (~v2 + w ~ 2 ) + U. (ii) Gilt ~v1 + U = ~v2 + U und ist s ∈ K, so gilt auch (s · ~v1 ) + U = (s · ~v2 ) + U. Wir benutzen dazu die im Beweis von Lemma 12.3.9 definierte Äquivalenzrelation ∼U , d.h. ~v1 + U = ~v2 + U ⇔ [~v1 ]U = [~v2 ]U ⇔ ~v1 − ~v2 ∈ U. KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 80 zu (i): Sei ~v1 + U = ~v2 + U und w ~1 + U = w ~2 + U ⇒ ~v1 − ~v2 ∈ U und w ~1 − w ~2 ∈ U ⇒ (~v1 − ~v2 ) + (w ~1 − w ~ 2) ∈ U | {z } =(~ v1 +w ~ 1 )−(~ v2 +w ~2) ⇒ (v~1 + w~1 ) + U = (v~2 + w~2 ) + U. zu (ii): Sei ~v1 + U = ~v2 + U , sei s ∈ K. ⇒ ~v1 − ~v2 ∈ U ⇒ s~v1 − s~v2 = s(~v1 − ~v2 ) ∈ U ⇒ s~v1 + U = s~v2 + U. Lemma 12.3.11. Es seien V ein K-Vektorraum, U ein Teilraum von V und V /U der Faktorraum von V nach U . Die Abbildung π : V → V /U mit π(~v ) := ~v + U ist ein Epimorphismus mit Kern(π) = U . Beweis: Sei V ein K-Vektorraum, U ein Teilraum von V und V /U der Faktorraum von V nach U . Sei π : V → V /U mit π(~v ) := ~v + U . Z.z. (i) π ist Homomorphismus. (ii) π ist surjektiv. (iii) Kern(π) = U . zu (i) : Seien ~v , ~v1 , ~v2 ∈ V, s ∈ K. π(~v1 + ~v2 ) = (~v1 + ~v2 ) + U = (~v1 + U ) + (~v2 + U ) = π(~v1 ) + π(~v2 ). π(s · ~v ) = (s · ~v ) + U = s(~v + U ) = s · π(~v ). zu (ii) : Zu jedem ~v + U ∈ V /U ist ~v wegen π(~v ) = ~v + U ein Urbild. zu (iii): Der Nullvektor in V /U ist die Restklasse ~0 + U = U . Dann ist ~v ∈ Kern(π) ⇔ π(~v ) = U ⇔ ~v + U = U ⇔ ~v ∈ U, also Kern(π) = U . KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 81 Satz 12.3.12 (Homomorphiesatz für Vektorräume). Es seien V und W zwei K-Vektorräume und ϕ : V → W eine lineare Abbildung. Dann ist die Abbildung Φ : V / Kern(ϕ) → Bild(ϕ) mit Φ(~v + Kern(ϕ)) := ϕ(~v ) ein Isomorphismus. Beweis: Seien V, W K-Vektorräume, ϕ : V → W linear. Φ : V / Kern(ϕ) → Bild(ϕ) sei definiert durch Φ(~v + Kern(ϕ)) = ϕ(~v ). Es ist zu zeigen: (i) Φ ist wohldefiniert. (ii) Φ linear. (iii) Φ injektiv. (iv) Φ surjektiv. zu (i) : Seien ~v1 , ~v2 ∈ V mit ~v1 + Kern(ϕ) = ~v2 + Kern(ϕ). Z.z. Φ(~v1 + Kern(ϕ)) = Φ(~v2 + Kern(ϕ)), d.h. ϕ(~v1 ) = ϕ(~v2 ). ~v1 + Kern(ϕ) = ~v2 + Kern(ϕ) ⇔ ~v1 − ~v2 ∈ Kern(ϕ) ⇔ ϕ(~v1 ) − ϕ(~v2 ) = ϕ(~v1 − ~v2 ) = 0 ⇔ ϕ(~v1 ) = ϕ(~v2 ). zu (ii) : Seien ~v1 , ~v2 ∈ V, s ∈ K. Φ(s · (~v1 + Kern(ϕ)) + (~v2 + Kern(ϕ))) = Φ((s · ~v1 + ~v2 ) + Kern(ϕ)) = ϕ(s · ~v1 + ~v2 ) = s · ϕ(~v1 ) + ϕ(~v2 ) = s · Φ(~v1 + Kern(ϕ)) + Φ(~v2 + Kern(ϕ)). zu (iii): Seien ~v1 , ~v2 ∈ V mit Φ(~v1 + Kern(ϕ)) = Φ(~v2 + Kern(ϕ)). ⇒ ϕ(~v1 ) = ϕ(~v2 ) wie unter (ii) ⇒ Also ist Φ injektiv. ~v1 + Kern(ϕ) = ~v2 + Kern(ϕ) KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 82 zu (iv): Sei w ~ ∈ Bild(ϕ), d.h. es gibt ~v ∈ V mit w ~ = ϕ(~v ). Dann ist auch w ~ = Φ(~v + Kern(ϕ)), ~v + Kern(ϕ) ∈ V / Kern(ϕ), also ist Φ surjektiv. Daraus folgt sofort: Korollar 12.3.13. Es seien V und W zwei K-Vektorräume und ϕ : V → W eine lineare Abbildung. Dann ist V / Kern(ϕ) ∼ = Bild(ϕ). 12.4 Hauptsatz über lineare Gleichungssysteme Um den Rang einer Matrix zu definieren, nutzen wir die Verbindung zwischen Matrizen und linearen Abbildungen. Definition 12.4.1 (Rang einer Matrix). Zu einer n × m Matrix A über dem Körper K, also A ∈ K n×m , betrachten wir die zugehörige lineare Abbildung ϕA : K m → K n , ~x 7→ A · ~x. Dann ist der Rang der Matrix A definiert als Rang(A) := Rang(ϕA ) = dim Bild(ϕA ). Die Rangbegriffe von Matrizen und linearen Abbildungen sind voll miteinander kompatibel. Satz 12.4.2. Es seien V und W zwei K-Vektorräume, B = {~v1 , . . . , ~vn } eine Basis von V und B 0 = {w ~ 1, . . . , w ~ m } eine Basis von W . Für eine lineare Abbildung ϕ : V → W gilt dann Rang(ϕ) = Rang(B 0 [ϕ]B ). Beweis: Seien V, W K-Vektorräume mit Basen B (von V ) und B 0 (von W ); sei ϕ : V → W linear. Sei A = B 0 [ϕ]B . Nach Satz 12.2.2 gilt cB 0 ◦ ϕ = ϕA ◦ cB mit den beiden Isomorphismen cB , cB 0 . Nach Satz 12.3.6 ist dann Rang(ϕ) = Rang(cB 0 ◦ ϕ) = Rang(ϕA ◦ cB ) = Rang(ϕA ) = Rang(A) = Rang(B 0 [ϕ]B ). KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 83 Insbesondere ist der Rang der Matrizen B 0 [ϕ]B unabhängig von der Wahl der speziellen Basen B, B 0 . Im Folgenden sei A eine n × m Matrix über dem Körper K, also a11 · · · a1m .. ∈ K n×m . A = ... . an1 ··· anm Definition 12.4.3 (Spaltenraum). Der Spaltenraum SR(A) ist der Teilvektorraum von K n , der durch die Spalten von A erzeugt wird, also * a11 a12 a1m + .. .. . SR(A) := . , . , . . . , .. . an1 an2 anm Definition 12.4.4 (Zeilenraum). Der Zeilenraum ZR(A) ist der Teilvektorraum von K 1×m , der durch die Zeilen von A erzeugt wird, also ZR(A) := h(a11 , . . . , a1m ), (a21 , . . . , a2m ), . . . , (an1 , . . . , anm )i Elementare Spaltenumformungen lassen sich analog zu elementaren Zeilenumformungen definieren (vgl. Kapitel 11.2). Satz 12.4.5 (Charakterisierung des Rangs einer Matrix). Es sei A eine n × m Matrix über dem Körper K. Dann gilt: (i) Rang(A) = dim SR(A), d.h., der Rang von A ist die Dimension ihres Spaltenraumes. (ii) Der Rang von A ändert sich durch elementare Spaltenumformungen nicht. (iii) Der Rang von A ändert sich durch elementare Zeilenumformungen nicht. Beweis: zu (i): Es ist Rang(A) = Rang(ϕA ) = dim Bild(ϕA ), wobei ϕA : K m → K n , ~x 7→ A~x und a11 · · · a1m .. A = ... . an1 ··· anm KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 84 ist. Sei {~e1 , · · · , ~em } die Standardbasis von K m . Dann ist Bild(ϕA ) = hϕA (~e1 ), · · · , ϕA (~em )i = hA · ~e1 , · · · , A · ~em i * a11 a1m + = ... , · · · , ... anm an1 = SR(A), also Rang(A) = dim SR(A). (ii) ist klar mit Lemma 10.5.4. zu (iii): Die Matrix A0 gehe aus A durch elementare Zeilenumformungen hervor. Dann ist nach Satz 11.2.1 Kern(ϕA ) = {~x ∈ K m | A · ~x = ~0} = {~x ∈ K m | A0 · ~x = ~0} = Kern(ϕA0 ). Nach Satz 12.3.3 gilt dann Rang(A) = m − dim Kern(ϕA ) = m − dim Kern(ϕA0 ) = Rang(A0 ). Satz 12.4.6. Es sei A eine n × m Matrix über dem Körper K. Dann gilt: (i) Man kann A durch elementare Zeilen- und Spaltenumformungen auf die Form 1 0 0 . . . 0 0 . .. 1 .. . ··· ··· 0 ··· ··· .. . .. . 0 0 .. . 0 0 .. . 0 .. . ··· 0 .. . 0 1 0 .. . 0 0 0 0 .. . 0 ··· ··· ··· 0 0 0 .. . 0 ··· (12.4.1) mit r Einsen auf der Hauptdiagonalen bringen. Insbesondere erhält man dadurch Rang(A) = r. (ii) Rang(A) = dim(SR(A)) = dim(ZR(A)). Beweis: KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 85 Abbildung 12.7: Stufenmatrix zu (i): Nach Satz 11.2.5 kann man A durch elementare Zeilenumformungen auf Stufenform (Abb. 12.7) bringen. Links oben beginnend kann man dann durch elementare Spaltenumformungen die Einsen auf den Stufen dazu benutzen, alle Einträge derselben Zeile zu Null zu machen; die folgenden Stufen werden dadurch nicht berührt. Schließlich sind alle Spalten entweder Einheits- oder Nullvektoren. Durch Vertauschung der Spalten erhält man schließlich die Form (12.4.1). zu (ii): Da der Rang der Matrix A sich nach Satz 12.4.5 weder durch elementare Zeilen- noch durch elementare Spaltenumformungen ändert, hat die Matrix A denselben Rang wie die Matrix A0 in (12.4.1), und dieser ist gerade die Dimension ihres Spaltenraumes, also r : dim A = r = dim SR(A0 ), wobei r die Anzahl der Stufen ist. Auch der Zeilenraum ZR(A) von A hat die Dimension r, da ZR(A) sich unter elementaren Zeilenoperationen nicht verändert und damit gleich dem der Stufenform ist; hier sind die r von Null verschiedenen Zeilenvektoren linear unabhängig. Insgesamt also r = dim SR(A0 ) = dim SR(A) = Rang(A) = dim ZR(A). Beispiel 12.4.1. Wir wollen nun Satz 12.4.6 anwenden und den Rang einer Matrix dadurch berechnen, dass wir sie durch elementare Zeilen- und Spaltenumformungen auf die Form (12.4.1) bringen, von der man dann den Rang leicht ablesen kann. 1 2 3 4 −1 4 3 5 Rang 2 4 7 8 13 14 5 0 3 6 9 12 2 10 4 −5 A1,2 (−2), 1 2 3 4 −1 4 3 5 A1,3 (−3) 6 −1 −10 = Rang 0 0 1 0 15 0 0 0 0 5 −2 −5 −20 1 0 0 0 0 0 0 0 s. Folien = Rang 0 1 0 0 0 0 0 0 = 3 0 0 1 0 0 0 0 0 KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 86 Damit können wir nun direkt Aussagen über Lösbarkeit und Lösungsmenge linearer Gleichungssysteme machen. Satz 12.4.7 (Hauptsatz über homogene lineare Gleichungssysteme). Es sei A ∈ K n×m . (i) Die Lösungsmenge L := {~x ∈ K m | A · ~x = ~0} des homogenen linearen Gleichungssystems A · ~x = ~0 ist ein Teilraum von K m mit dim L = m − Rang(A). (ii) Insbesondere ist A · ~x = ~0 genau dann eindeutig lösbar, wenn Rang(A) = m ist. Beweis: Sei A ∈ K n×m . zu (i): Es ist L = {~x ∈ K m | A · ~x = 0} = {~x ∈ K m | ϕA (~x) = 0} = Kern(ϕA ) m n Wobei ϕA : K → K die bekannte Abbildung ist. Nach dem Dimensionssatz 12.3.3 gilt: m = dim Kern(ϕA ) + dim Bild(ϕA ), m = dim L + Rang(A), also d.h dim L = m − Rang(A). zu (ii): A~x = ~0 ist genau dann eindeutig lösbar, wenn L = {~0}, also dim L = 0 ist. Wegen (i) ist das äquivalent mit Rang(A) = m. Satz 12.4.8 (Hauptsatz über inhomogene lin. Gleichungssysteme). Es sei A ∈ K n×m , sei ~b ∈ K m . (i) Das inhomogene lineare Gleichungssystem A · ~x = ~b ist genau dann lösbar, wenn Rang(A) = Rang([A, ~b]), wobei [A, ~b] die erweiterte Matrix des linearen Gleichungssystems A · ~x = ~b ist. (ii) Ist v~0 ∈ K m mit A · v~0 = ~b eine Lösung des Gleichungssystems, so kann die Lösungsmenge L~b := {~x ∈ K m | A · ~x = ~b} geschrieben werden als L~b = v~0 + L = {v~0 + w ~ ∈ Km | w ~ ∈ L}. Insbesondere ist das inhomogene lin. Gleichungssystem A · ~x = ~b genau dann eindeutig lösbar, wenn Rang(A) = m und L~b 6= 0 ist. KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 87 Beweis: zu (i): A · ~x = ~b ist genau dann lösbar, wenn ~b ∈ Bild(ϕA ) = SR(A) ist. Dies ist äquivalent zu SR(A) = SR([A, ~b]), und dies wiederum zu dim SR(A) = dim SR([A, ~b]), also Rang(A) = Rang([A, ~b]) mit Satz 12.4.5. zu (ii): Sei ~v0 ∈ K m mit A · ~v0 = ~b. Ist ~x ∈ L, d.h. A · ~x = ~0, so gilt A · (~v0 + ~x) = A · ~v0 + A · ~x = ~b + ~0 = ~b, also ~v0 + ~x ∈ L~b . Folglich gilt ~v0 + L ⊆ L~b . Umgekehrt gilt für ein beliebiges ~v ∈ L~b : A · (~v − ~v0 ) = A~v − A~v0 = ~b − ~b = ~0, d.h. ~v − ~v0 ∈ L und daher ~v ∈ ~v0 + L. Also ist auch L~b ⊆ ~v0 + L. 12.5 Algebra der linearen Abbildungen Definition 12.5.1 (Hom(V, W ), Endomorphismen). Es seien V und W zwei K-Vektorräume. Dann bezeichnen wir die Menge der linearen Abbildungen von V nach W mit Hom(V, W ) := {ϕ : V → W | ϕ linear}. Im Spezialfall V = W bezeichnen wir eine lineare Abbildung von V nach V auch als Endomorphismus und setzen End(V ) := {ϕ : V → V | ϕ linear}. Satz 12.5.2. Es seien V und W zwei K-Vektorräume. (i) Die Menge Hom(V, W ) bildet einen Teilraum des K-Vektorraums Abb(V, W ) aller Abbildungen von V nach W . (ii) Ist dim V = n und dim W = m, so ist Hom(V, W ) ∼ = K m×n . Insbesondere ist dim Hom(V, W ) = m · n. Beweis: KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 88 zu (i): Wir müssen zunächst zeigen, dass Abb(V, W ) ein K-Vektorraum ist. Dazu definieren wir wie vom Funktionenraum bekannt (Beispiel 10.1.1(3)) für f, g ∈ Abb(V, W ) und s ∈ K: (f + g)(~v ) := f (~v ) + g(~v ) (s · f )(~v ) := s · f (~v ) für alle ~v ∈ V . Für diese Operationen müssen wir jetzt die Eigenschaften aus Definition 10.1.1 nachweisen. Wir zeigen hier aber nur exemplarisch, wie man die Distributivgesetze nachweisen kann, die anderen Eigenschaften kann man ebenso nachrechnen. Sei f ∈ Abb(V, W ) und s, s0 ∈ K. Dann gilt: ((s + s0 ) · f )(~v ) = (s + s0 ) · f (~v ) = s · f (~v ) + s0 · f (~v ) = (s · f )(~v ) + (s0 · f )(~v ) für alle ~v ∈ V , also ist (s + s0 ) · f = (s · f ) + (s0 · f ). Ebenso gilt für f, g ∈ Abb(V, W ) und s ∈ K, dass (s · (f + g))(~v ) = s · (f + g)(~v ) = s · (f (~v ) + g(~v )) = s · f (~v ) + s · g(~v ) = (s · f )(~v ) + (s · g)(~v ) für alle ~v ∈ V , und damit ist s · (f + g) = (s · f ) + (s · g). Das neutrale Element in Abb(V, W ) ist wie im Funktionenraum die Nullabbildung Φ0 : V → W, Φ0 (~v ) = ~0. Das negative Element zu f ∈ Abb(V, W ) ist die Abbildung −f : V → W, (−f )(~v ) = −f (~v ). Damit gilt insgesamt, dass Abb(V, W ) ein K-Vektorraum ist. Wir zeigen nun mit Lemma 10.2.4, dass Hom(V, W ) ein Teilraum von Abb(V, W ) ist. Hom(V, W ) ist eine nichtleere Teilmenge von Abb(V, W ), da z. Bsp. Φ0 ∈ Hom(V, W ). Seien s ∈ K, ϕ, ψ ∈ Hom(V, W ), dann gilt für ~v , w ~ ∈ V, r ∈ K (s · ϕ + ψ)(r · ~v + w) ~ = s · ϕ(r~v + w) ~ + ψ(r~v + w) ~ = s · (rϕ(~v ) + ϕ(w)) ~ + rψ(~v ) + ψ(w) ~ = sr · ϕ(~v ) + sϕ(w) ~ + rψ(~v ) + ψ(w) ~ = r · (s · ϕ(~v ) + ψ(~v )) + s · ϕ(w) ~ + ψ(w) ~ = r · ((s · ϕ + ψ)(~v )) + (s · ϕ + ψ)(w). ~ Die Abbildung s · ϕ + ψ ist also linear und damit ist s · ϕ + ψ ∈ Hom(V, W ), und Hom(V, W ) ist damit ein Teilraum von Abb(V, W ). zu (ii): Seien dim V = n, dim W = m, B = {~v1 , . . . , ~vn } eine Basis von V und B 0 = {w ~ 1, . . . , w ~ m } eine Basis von W . Wir definieren Φ : Hom(V, W ) → K m×n , ϕ 7→ B 0 [ϕ]B . Wir zeigen im Folgenden, dass Φ ein Isomorphismus ist. Dafür ist es nützlich, sich noch einmal die Eigenschaften von B 0 [ϕ]B in Erinnerung zu rufen. Satz KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 89 12.2.2 liefert hier die wichtigen Zusammenhänge. Sei ϕ ∈ Hom(V, W ), A := B 0 [ϕ]B , dann gilt ϕ(~v ) = (c−1 v) B 0 ◦ ϕA ◦ cB )(~ = c−1 v ))) B 0 (ϕA (cB (~ = c−1 v )). B 0 (A · cB (~ Ist insbesondere ~v = ~vi ∈ B, dann ist 0 . .. 0 cB (~vi ) = 10 . .. 0 | {z } ←i−te Zeile , =:~ ei und damit gelten die folgenden Gleichungen ϕ(~vi ) = c−1 ei ), B 0 (A · ~ (12.5.1) ⇒ cB 0 (ϕ(~vi )) = A · ~ei . (12.5.2) Wir zeigen nun die Linearität von Φ. Seien dafür ϕ, ψ ∈ Hom(V, W ) und r ∈ K. Dann ist Φ(r · ϕ + ψ) = B 0 [r · ϕ + ψ]B , es ist also zu zeigen: B 0 [r · ϕ + ψ]B = r · B 0 [ϕ]B + B 0 [ψ]B . Wir weisen diese Gleichung nun für die Spaltenvektoren der Matrizen nach. Es gilt B 0 [r · ϕ + ψ]B · ~ei = cB 0 ((r · ϕ + ψ)(~vi )) 12.5.2 = cB 0 (r · ϕ(~vi ) + ψ(~vi )) = r · cB 0 (ϕ(~vi )) + cB 0 (ψ(~vi )) = rB 0 [ϕ]B · ~ei + B 0 [ψ]B · ~ei 12.5.1 = (rB 0 [ϕ]B + B 0 [ψ]B ) · ~ei . Damit ist B 0 [r · ϕ + ψ]B = rB 0 [ϕ]B + B 0 [ψ]B und die Linearität von Φ ist gezeigt. Es fehlt noch die Bijektivität. Φ ist injektiv: Seien ϕ, ψ ∈ Hom(V, W ) mit A := Φ(ϕ) = Φ(ψ) =: B, dann gilt für i ∈ {1, . . . , n} ϕ(~vi ) (12.5.1) = c−1 ei ) = c−1 ei ) B 0 (A · ~ B 0 (B · ~ (12.5.1) = ψ(~vi ), und damit ist ϕ = ψ nach Satz 12.1.6. Φ ist surjektiv: Sei A = (aij ) ∈ K n×m . Dann gibt es nach Satz eine P12.1.6 m lineare Abbildung ϕ ∈ Hom(V, W ), definiert durch ϕ(~vi ) = i=1 aij · w ~ i. Für ϕ gilt dann Φ(ϕ) = B 0 [ϕ]B = A. KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 90 Insgesamt ist also Φ ein Isomorphismus und dim Hom(V, W ) = dim Kern(Φ) + dim Bild(Φ) = 0 + dim K n×m = n · m nach dem Dimensionssatz für Homomorphismen (Satz 12.3.3). Satz 12.5.3. Es sei V ein K-Vektorraum. Die Menge der Endomorphismen End(V ) bildet mit der Addition (ϕ + ψ)(~v ) := ϕ(~v ) + ψ(~v ) für ϕ, ψ ∈ End(V ), ~v ∈ V und der Multiplikation (ϕ ◦ ψ)(~v ) := ϕ(ψ(~v )) für ϕ, ψ ∈ End(V ), ~v ∈ V einen Ring mit Eins. Beweis: Sei V ein K-Vektorraum. Wir müssen zeigen, dass (i) (End(V ), +) eine abelsche Gruppe ist, (ii) (End(V ), ◦) ein Monoid ist, (iii) die Distributivgesetze gelten. (i) gilt, da End(V ) nach Satz 12.5.2 ein Vektorraum ist. zu (ii): Für ϕ, ψ ∈ End(V ) ist ϕ ◦ ψ ∈ End(V ) nach Lemma 12.1.5, daher ist (End(V ), ◦) abgeschlossen, also ◦ : End(V ) × End(V ) → End(V ). Nach Beispiel 8.5, Teil I ist (V V = {f : V → V }, ◦) ein Monoid. Da End(V ) ⊂ V V und die Identitätsfunktion idV linear ist, das neutrale Element aus V V in End(V ) also enthalten ist, ist (End(V ), ◦) ebenfalls ein Monoid. zu (iii): Seien ϕ, ψ, µ ∈ End(V ), ~v ∈ V , dann gilt (ϕ ◦ (ψ + µ))(~v ) = ϕ((ψ + µ)(~v )) = ϕ(ψ(~v ) + µ(~v )) = ϕ(ψ(~v )) + ϕ(µ(~v )) = (ϕ ◦ ψ)(~v ) + (ϕ ◦ µ)(~v ), und ((ϕ + ψ) ◦ µ)(~v ) = (ϕ + ψ)(µ(~v )) = ϕ(µ(~v )) + ψ(µ(~v )) = (ϕ ◦ µ)(~v ) + (ψ ◦ µ)(~v ). Es gilt also ϕ ◦ (ψ + µ) = (ϕ ◦ ψ) + (ϕ ◦ µ) und (ϕ + ψ) ◦ µ = (ϕ ◦ µ) + (ψ ◦ µ), womit die Distributivgesetze gezeigt wären. KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 91 Satz 12.5.4. Ist dim V = n und B eine Basis von V , dann ist µB : End(V ) → K n×n ϕ 7→ B [ϕ]B ein Ring-Isomorphismus, d.h., µB ist bijektiv mit µB (ϕ + ψ) = µB (ϕ) + µB (ψ) und µB (ϕ ◦ ψ) = µB (ϕ) · µB (ψ) für ϕ, ψ ∈ End(V ). Beweis: Sei dim V = n, B eine Basis von V und µB wie angegeben. Dann entspricht µB dem Isomorphismus Φ aus dem Beweis von Satz 12.5.2 mit V = W und B 0 = B und ist somit bijektiv und linear. Damit müssen wir noch zeigen, dass µB (ϕ ◦ ψ) = µB (ϕ) · µB (ψ) gilt, und dies ist gegeben durch µB (ϕ ◦ ψ) = B [ϕ ◦ ψ]B = B [ϕ]B · B [ψ]B nach Satz 12.2.3. Definition 12.5.5 (K-Algebra). Es sei K ein Körper. Ein Ring R mit Eins, der gleichzeitig ein K-Vektorraum ist (mit derselben Addition wie im Ring), so dass außerdem noch s · (a · b) = (s · a) · b = a · (s · b) für alle s ∈ K, a, b ∈ R (12.5.3) gilt, heißt eine K-Algebra (mit Eins). Endomorphismenringe und Matrizenringe sind also K-Algebren. Satz 12.5.6 (Automorphismen, volle lineare Gruppe). (i) Ist V ein K-Vektorraum, so ist GL(V ) := {ϕ ∈ End(V ) | ϕ ist bijektiv} zusammen mit der Verknüpfung von Abbildungen “◦“ eine Gruppe, genannt die volle lineare Gruppe (engl.: general linear group). Die Elemente von GL(V ) heißen auch Automorphismen. (ii) Für n ∈ N ist GL(n, K) := {A ∈ K n×n | A invertierbar}, mit der Matrixmultiplikation ”·” eine Gruppe, die Gruppe der regulären n × n Matrizen. KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 92 Beweis: Sei V ein K-Vektorraum. zu (i): Wir können GL(V ) auch schreiben als GL(V ) = {ϕ : V → V | ϕ Isomorphismus}. Z.z.: (GL(V ), ◦) ist eine Gruppe. GL(V ) ist unter der Verknüpfung ”◦“ abgeschlossen, da die Komposition von Isomorphismen wieder ein Isomorphismus ist (Satz 12.1.10). Da GL(V ) ⊆ End(V ) und (End(V ), ◦) ein Monoid ist, überträgt sich die Eigenschaft der Assoziativität auf (GL(V ), ◦). Die Identitätsfunktion idV ist bijektiv und daher ist idV ∈ GL(V ) wieder das neutrale Element. Bleibt noch die Existenz der inversen Elemente zu zeigen. Sei ϕ ∈ GL(V ), dann ist ϕ−1 ∈ GL(V ) nach Satz 12.1.10, und es gilt ϕ ◦ ϕ−1 = idV = ϕ−1 ◦ ϕ. Das Inverse zu ϕ ist also ϕ−1 . zu (ii): Nach Satz 10.1.4 bildet die Menge der n×n Matrizen mit der für Matrizen definierten Addition und Multiplikation einen Ring. Die Matrixmultiplikation in GL(n, K) ist abgeschlossen, da für A, B ∈ GL(n, K) die Matrix A · B wieder invertierbar ist mit (A · B)−1 = B −1 · A−1 . Die Matrix En ist invertierbar und somit auch in GL(n, K) das neutrale Element. Inverse Elemente existieren, denn für A ∈ GL(n, K) gilt A−1 · A = En = A · A−1 . Somit ist (GL(n, K), ·) eine Gruppe. Lemma 12.5.7. Sind V ein K-Vektorraum mit dim V = n und B eine Basis von V , so ist µG B : GL(V ) → GL(n, K) ϕ 7→ B [ϕ]B ein Isomorphismus von Gruppen, das heißt µG B ist bijektiv und G G µG B (ϕ ◦ ψ) = µB (ϕ) · µB (ψ) für ϕ, ψ ∈ GL(V ). (12.5.4) Beweis: Seien V ein K-Vektorraum mit dim V = n, B eine Basis von V und G µG B wie angegeben. µB ist die Einschränkung des Ring-Isomorphismus µB aus Satz 12.5.4, wir zeigen zunächst, dass µG B wohldefiniert ist. Sei dazu ϕ ∈ GL(V ). Wir müssen zeigen, dass µG (ϕ) = [ϕ] B B ∈ GL(n, K) ist. Es gilt B En = B [idV ]B = B [ϕ ◦ ϕ−1 ]B = B [ϕ]B · B [ϕ−1 ]B = B [ϕ−1 ◦ ϕ]B = B [ϕ−1 ]B · B [ϕ]B . KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 93 −1 ist also invertierbar mit B [ϕ]B = B [ϕ−1 ]B und daher µG B (ϕ) ∈ GL(n, K). Somit ist µG als Einschränkung eines Ring-Isomorphismus zumindest injektiv, B und Gleichung (12.5.4) gilt. µG ist auch surjektiv, denn für A ∈ GL(K, n) ist B ϕ := µB −1 (A) ∈ End(V ) und es gilt B [ϕ]B −1 −1 −1 µ−1 ) = µ−1 ) = µ−1 B (A) · µB (A B (A · A B (En ) = idV −1 = µ−1 · A) B (A −1 = µ−1 ) · µ−1 B (A B (A). Damit ist ϕ ∈ GL(V ), und mit µG B (ϕ) = A ist die Surjektivität gezeigt. Daraus folgt insgesamt die Behauptung. Korollar 12.5.8. Es seien V ein K-Vektorraum mit dim V = n, ϕ ∈ End(V ) und A ∈ K n×n . Dann gilt ϕ ∈ GL(V ) ⇐⇒ Rang(ϕ) = n A ∈ GL(n, K) ⇐⇒ Rang(A) = n. und Beweis: Sei V ein K-Vektorraum mit dim V = n, ϕ ∈ End(V ) und A ∈ K n×n . Dann gilt ϕ ∈ GL(V ) ⇔ ϕ : V → V Isomorphismus ⇔ Rang(ϕ) = dim V = n, wobei die letzte Äquivalenzaussage aus Satz 12.3.5 folgt. Sei nun B eine Basis von V , µB der Ring-Isomorphismus aus Satz 12.5.4 und µG B der Gruppenisomorphismus aus Lemma 12.5.7. Dann gilt einerseits A ∈ GL(n, K) ⇒ ⇒ µ−1 B (A) =: ϕ ∈ GL(V ) existiert, B [ϕ]B =A 12.4.2 Rang(A) = Rang(B [ϕ]B ) = Rang(ϕ) = n, und andererseits Rang(A) = n ⇒ −1 für ϕ := νB (A), also B [ϕ]B = A gilt: Rang(ϕ) = Rang(B [ϕ]B ) = n ⇒ ϕ ∈ GL(V ) ⇒ µB (ϕ) ist definiert, und µB (ϕ) = B [ϕ]B = A ∈ GL(n, K) Mit Satz 12.4.8 folgt dann: KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 94 Korollar 12.5.9. Es sei A ∈ K n×n , sei ~b ∈ K n . Das lineare Gleichungssystem A·~x = ~b ist genau dann eindeutig lösbar, wenn A invertierbar, also A ∈ GL(n, K) ist. Beweis: Für A ∈ K n×n und ~b ∈ K n gilt mit Satz 12.4.8: Das Gleichungssystem A~x = ~b ist eindeutig lösbar ⇔ Rang(A) = n und L~b = {~x ∈ K n | A~x = ~b} = 6 ∅ Aus Satz 12.5.8 folgt nun Rang(A) = n ⇔ A ∈ GL(n, K), und für A ∈ GL(V ) gilt für das inhomogene Gleichungssystem A~x = ~b ⇔ ~x = A−1 · ~b ∈ L~b 6= ∅ und somit folgt insgesamt die Behauptung. Bemerkung: Ist V ein K-Vektorraum mit dim V > 1, so ist GL(V ) nicht kommutativ. Ist dim V = 1, so ist (GL(V ), ◦) isomorph zu (GL(1, K), ·). Sei B eine Basis von V und µG B der Gruppenisomorphismus aus Korollar 12.5.7. Die Matrizen A ∈ GL(1, K) können wir schreiben als A = (a) für a ∈ K \ {0}, denn Rang((a)) = 1 ⇔ a 6= 0. Für zwei Matrizen (a), (b) ∈ GL(1, K), a, b ∈ K \ {0} gilt (a) · (b) = (a · b) = (b · a) = (b) · (a), (GL(1, K), ·) ist also kommutativ. Ebenso gilt für ϕ1 , ϕ2 ∈ GL(V ) ϕ1 ◦ ϕ2 = µG B −1 (µG B (ϕ1 ◦ ϕ2 )) = µG B −1 G (µG B (ϕ1 ) · µB (ϕ2 )) = µG B −1 G (µG B (ϕ2 ) · µB (ϕ1 )) = µG B −1 (µG B (ϕ2 ◦ ϕ1 )) = ϕ2 ◦ ϕ1 , womit gezeigt wäre, dass GL(V ) für dim V = 1 kommutativ ist. Ist dim V > 1, so ist dies nicht mehr gegeben, wie das folgende Beispiel zeigt. Beispiel 12.5.1. Wir definieren x x+y 1 1 x 2 2 ϕ1 : R → R , ϕ1 = · , = y y y 0 1 | {z } =:A1 ϕ2 : R2 → R2 , x x 1 0 x ϕ2 = = · . y x+y 1 1 y | {z } =:A2 KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 95 Dann sind ϕ1 , ϕ2 ∈ GL(R2 ) und A1 , A2 ∈ GL(2, R), aber nicht kommutativ, denn es gilt x x 2x + y (ϕ1 ◦ ϕ2 ) = ϕ1 = y x+y x+y x x+y x+y (ϕ2 ◦ ϕ1 ) = ϕ2 = y y x + 2y und damit gilt ϕ1 ◦ ϕ2 6= ϕ2 ◦ ϕ1 . Ebenso gilt 1 1 1 0 2 A1 · A2 = · = 0 1 1 1 1 1 0 1 1 1 · = A2 · A1 = 1 1 0 1 1 1 1 1 2 und damit ist A1 · A2 6= A2 · A1 . Aus Kapitel 11.2 wissen wir: • Es sei A ∈ GL(n, K). Bringt man die n × 2n Matrix (A, En ) durch elementare Zeilenoperationen auf Stufenform, so erhält man eine n × 2n Matrix der Form (En , U ), wobei U = A−1 ist. • Ist A nicht regulär, so lässt sich die Matrix (A, En ) durch elementare Zeilenoperationen nicht in diese Form bringen. • Jede elementare Zeilenoperation entspricht der Multiplikation mit einer regulären Matrix von links (Satz 11.2.4). Diese Matrizen werden auch Elementarmatrizen genannt. Definition 12.5.10 (Elementarmatrizen). Es sei n ∈ N, i, j ∈ {1, . . . , n} mit i 6= j und s ∈ K\{0}. 1. Die Elementarmatrix Vi,j ∈ GL(n, K) entsteht aus der Einheitsmatrix En durch Vertauschen der i-ten und j-ten Zeile. 2. Die Elementarmatrix Mi (s) ∈ GL(n, K) entsteht aus der Einheitsmatrix En durch Multiplikation der i-ten Zeile mit s. 3. Die Elementarmatrix Ai,j (s) ∈ GL(n, K) entsteht aus der Einheitsmatrix En durch Addition des s-fachen der i-ten Zeile zur j-ten Zeile. Diese Matrizen sind gerade die im Zusammenhang mit Satz 11.2.4 behandelten Matrizen. Lemma 12.5.11. Die inverse Matrix einer Elementarmatrix ist selbst eine Elementarmatrix. Beweis: Die Elementarmatrizen entsprechen den Umformungsmatrizen U aus dem Beweis von Satz 11.2.6. Wieder sei Eij ∈ K n×n die Matrix, die an der KAPITEL 12. LINEARE ABBILDUNGEN UND MATRIZEN 96 Position (i, j) eine 1 hat und sonst nur mit Nullen besetzt ist. Dann wurde gezeigt, dass für U = Vi,j das Inverse U −1 = U = Vi,j ist. Für U = Mi (s) ist U −1 = En + (s−1 − 1) · Eii = Mi (s−1 ) und für U = Ai,j (s) ist U −1 = En − s · Eij = Ai,j (−s). Die jeweiligen Inversen entsprechen also wieder Elementarmatrizen. Da die Umformungsmatrix einer regulären Matrix das Inverse der Matrix ist und diese Umformungsmatrix als Produkt von Elementarmatrizen entsteht, folgt sofort: Satz 12.5.12. Jede Matrix A ∈ GL(n, K) ist ein Produkt von Elementarmatrizen. Kapitel 13 Determinanten und Eigenwerte 13.1 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen, also A ∈ K n×n für ein n ∈ N: a11 a12 · · · a1n .. .. A = ... . . an1 an2 · · · ann Für n > 1 bezeichnet Ǎij (1 ≤ i, j ≤ n) die (n − 1) × (n − 1)-Matrix, die aus A durch Streichen der i-ten Zeile und j-ten Spalte entsteht: a11 a12 · · · a1,j−1 a1,j+1 ··· a1n .. .. .. .. .. . . . . . ai−1,1 ai−1,2 · · · ai−1,j−1 ai−1,j+1 · · · ai−1,n Ǎij = ai+1,1 ai+1,2 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n . .. .. .. .. .. . . . . an1 an2 ··· an,j−1 an,j+1 ··· ann Ǎij wird auch Streichungsmatrix genannt. Definition 13.1.1 (Determinanten, rekursiv definiert). Sei A ∈ K n×n . • Für n = 1, also A = (a11 ), ist a11 die Determinante von A. Schreibweise: det(A) = a11 . • Für n > 1: det(A) := n X (−1)i+1 ai1 det(Ǎi1 ). i=1 97 KAPITEL 13. DETERMINANTEN UND EIGENWERTE 98 Ǎij bezeichnet dabei eine Streichungsmatrix. Beispiel 13.1.1. Für n = 2 liefert die Definition a a12 det 11 = a11 det(Ǎ11 ) − a21 det(Ǎ21 ) = a11 a22 − a21 a12 . a21 a22 Für n = 3 entsprechend a11 a12 a13 det a21 a22 a23 = a11 det(Ǎ11 ) − a21 det(Ǎ21 ) + a31 det(Ǎ31 ) a31 a32 a33 = a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 a23 − a22 a13 ). Bemerkung: Statt det(A) schreibt man oft a11 a12 · · · a21 a22 · · · .. .. . . an1 an2 · · · |A| oder auch a1n a2n .. . . ann Wenn v~1 , . . . , v~n die Spalten der Matrix A ∈ K n×n sind, dann schreibt man auch det(v~1 , . . . , v~n ) := det(A). Satz 13.1.2 (Entwicklung von det(A) nach einer Zeile oder Spalte). Sei A ∈ K n×n . Dann ist Pn 1. det(A) = j=1 (−1)i+j aij det(Ǎij ) für jedes i ∈ {1, . . . , n} (Entwicklung nach der i-ten Zeile), Pn 2. det(A) = i=1 (−1)i+j aij det(Ǎij ) für jedes j ∈ {1, . . . , n} (Entwicklung nach der j-ten Spalte). Beweis: Diesen Satz kann man bei sorgfältiger Umindizierung durch Induktion beweisen. Wir illustrieren die Vorgehensweise für den Fall n = 3 und setzen voraus, dass 1. bzw. 2. für n = 1, 2 gelten. a11 Sei also A = a21 a31 a12 a22 a32 a13 a23 a33 KAPITEL 13. DETERMINANTEN UND EIGENWERTE zu 1: Nach Definition a det(A) = a11 22 a32 a I.V. = a11 22 a32 n=2 a = a11 22 a32 a22 = a11 a32 99 ist a23 a33 a23 a33 a23 a33 a23 a33 a − a21 12 a32 a a13 + a31 12 a22 a33 a13 a23 − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 ) − a12 (a21 a33 − a31 a23 ) + a13 (a21 a32 − a31 a32 ) a21 a22 a a23 + a − a12 21 13 a31 a32 a31 a33 = a11 det(Ǎ11 ) − a12 det(Ǎ12 ) + a13 det(Ǎ13 ), das ist die Entwicklung nach der ersten Zeile. zu 2: Wir wollen hier zeigen, dass wir det(A) auch nach der 2. Spalte entwickeln können (wieder unter geeigneter Benutzung der Induktionsvoraussetzung). Wieder ist det(A) = a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 ) = −a12 (a21 a33 − a23 a31 ) + a22 (a11 a33 − a31 a13 ) − a32 (a11 a23 − a21 a13 ) a a11 a13 a11 a13 a23 = −a12 21 + a − a 22 32 a31 a33 a31 a33 a21 a23 = (−1)1+2 det(Ǎ12 ) + (−1)2+2 det(Ǎ22 ) + (−1)3+2 det(Ǎ32 ) dies ist die Entwicklung nach der 2. Spalte. Definition 13.1.1 benutzt die Definition nach der 1. Spalte. Nach diesem Satz kann man Determinanten auch nach jeder anderen Zeile oder Spalte entwickeln und erhält denselben Wert. Beispiel 13.1.2. Beispiel (n = 3): Für n = 3 bekommt man als Entwicklung von A nach der zweiten Zeile det(A) = (−1)3 a21 det(Ǎ21 ) + (−1)4 a22 det(Ǎ22 ) + (−1)5 a23 det(Ǎ23 ) = −a21 (a12 a33 − a32 a13 ) + a22 (a11 a33 − a31 a13 ) − a23 (a11 a32 − a31 a12 ) Dies steht im Einklang mit der ursprünglichen Definition, wie man leicht nachrechnet. Korollar 13.1.3. Zu A ∈ K n×n sei At die transponierte Matrix. Dann gilt det(A) = det(At ). Beweis: durch vollständige Induktion nach n: n = 1 : Es ist (a1 ) = (a1 )t , also det(A) = det(At ). KAPITEL 13. DETERMINANTEN UND EIGENWERTE 100 Induktionsvoraussetzung: Sei die Behauptung bewiesen für alle (n − 1) × (n − 1) Matrizen. n − 1 7→ n : Sei nun A ∈ K n×n . Wir entwickeln At nach der ersten Zeile und A nach der ersten Spalte, wobei die zugehörigen Vektoren nach der Definition der transponierten Matrix identisch sind: det(A) = n X (−1)i+1 ai1 det(Ǎi1 ) i=1 n X det(At ) = (−1)i+1 ai1 det((Ǎt )1i ) i=1 t t Nun ist (Ǎ )1i = (Ǎi1 ) , und nach Induktionsvoraussetzung gilt: det(Ǎt )1i = det(Ǎi1 )t = det(Ǎi1 ). Folglich det(A) = det(At ). ~ ∈ K n. Satz 13.1.4. Sei A ∈ K n×n mit Spalten ~v1 , . . . , ~vn , sei s ∈ K sowie w Dann gilt für beliebige i, j ∈ {1, . . . , n} mit i 6= j 1. det(~v1 , . . . , ~vi , . . . , ~vn ) + det(~v1 , . . . , ~vi−1 , w, ~ ~vi+1 , . . . , ~vn ) = det(~v1 , . . . , ~vi−1 , ~vi + w, ~ ~vi+1 , . . . , ~vn ) 2. det(~v1 , . . . , s~vi , . . . , ~vn ) = s det(~v1 , . . . , ~vi , . . . , ~vn ) 3. det(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = − det(~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn ) Beweis: Sei A = (~v1 , . . . , ~vn ) ∈ K n×n , seien s ∈ K und w ~ ∈ K n. zu (1) : Sei B = (~v1 , . . . , ~vi−1 , w, ~ ~vi+1 , . . . , ~vn ), C = (~v1 , . . . , ~vi−1 , ~vi +w, ~ ~vi+1 , . . . , ~vn ). Wir entwickeln alle Determinanten nach der i-ten Spalte, wobei v1i w1 .. .. ~vi = . , w ~ = . sind: vni wn det(C) = n X (−1)j+i (vji + wj ) det(Čji ). j=1 Nun ist Čji = Ǎji = B̌ji für alle j = 1, . . . , n, da sich A, B, C nur in der i-ten Spalte unterscheiden und diese in den Streichungsmatrizen vollständig gestrichen ist. Damit folgt det(C) = n n X X (−1)j+i vji det(Ǎji ) + (−1)j+i wj det(B̌ji ) j=1 = det(A) + det(B). j=1 KAPITEL 13. DETERMINANTEN UND EIGENWERTE 101 zu (2) : Dies folgt analog zu (1) mit Hilfe der Entwicklung nach der i-ten Spalte und aus der Distributivität der Skalarmultiplikation. zu (3) : Dies folgt durch zweifache Anwendung von Satz 13.1.2 auf die entstehenden Streichungsmatrizen. Wir illustrieren die Vorgehensweise für den Fall n = 3: a11 a12 a13 Sei A = a21 a22 a23 , det A ist wie oben bereits (mehrfach) berechnet. a31 a32 a33 Nun vertauschen wir erste und zweite Spalte: a12 a11 a13 a22 a21 a23 = a12 a21 a23 − a22 a11 a13 + a32 a11 a13 a31 a33 a31 a33 a21 a23 a32 a31 a33 = a12 (a21 · a33 − a31 · a23 ) − a22 (a11 · a33 − a31 · a13 ) + a32 (a11 · a23 − a21 · a13 ) Wir beobachten hier, dass die nach zweimaliger Anwendung des Satzes 13.1.2 entstehenden Determinanten der ”Rest”streichungsmatrizen dieselben sind, wie bei der ursprünglichen Matrix (in diesem Fall sind dies einfach a13 , a23 , a33 ), dass sich aber die Vorzeichen der entsprechenden Koeffizienten umgedreht haben; in diesem speziellen Fall sieht man das noch einfacher, wenn man die Determinante mit nach der zweitenSpalte entwickelt. den vertauschten Spalten a12 a11 a13 a11 a12 a13 Es ist also det a22 a21 a23 = − det a21 a22 a23 . a32 a31 a33 a31 a32 a33 Bemerkung: Wegen der Eigenschaften 1 und 2 ist die Determinante det(~v1 , . . . , ~vn ) in jeder Komponente ~vi linear. Man nennt det daher Multilinearform. Wegen 3 heißt det auch alternierende Multilinearform. Korollar 13.1.5. Sei A ∈ K n×n mit Spalten ~v1 , . . . , ~vn , sei s ∈ K. Dann gilt: 1. det(~v1 , . . . , ~vi , . . . , ~vn ) = 0 falls ~vi = 0. 2. Ist ~vi = ~vj für i 6= j, so ist det(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = 0. 3. det(~v1 , . . . , ~vi , . . . , ~vn ) = det(~v1 , . . . , ~vi + s~vj , . . . , ~vn ) falls i 6= j. 4. Sind ~v1 , . . . , ~vn linear abhängig, dann gilt det(~v1 , . . . , ~vn ) = 0. Beweis: zu (1) : Ist ~vi = ~0, so zeigt die Entwicklung nach der i-ten Spalte, dass det(~v1 , . . . , ~vi , . . . , ~vn ) = 0 ist. KAPITEL 13. DETERMINANTEN UND EIGENWERTE 102 zu (2) : Sei ~vi = ~vj für i 6= j: Wegen Satz 13.1.4 ist det(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = − det(~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn ), andererseits det(~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn ) = det(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ), da ja ~vi = ~vj . Das ist nur möglich, wenn det(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = 0. zu (3) : Nach Satz 13.1.4 ist i-te Pos. det(~v1 , . . . , ~vi + s~vj , . . . , ~vn ) = det(~v1 , . . . , ~vi , . . . , ~vn ) + s det(~v1 , . . . , ~vj , . . ., ~vn ) = det(~v1 , . . . , ~vi , . . . , ~vn ), i-te Pos. da det(~v1 , . . . , ~vj , . . ., ~vn ) = 0, weil in dieser Matrix an zwei verschiedenen Positionen der Vektor ~vj enthalten ist (vgl. (2)). zu (4) : Seien ~v1 , . . . , ~vn linear abhängig. Dann lässt sich ein Vektor als Linearkombination der anderen Vektoren schreiben, sei dies o.B.d.A. ~v1 , also ~v1 = n X si~vi . i=2 Dann ist det(~v1 , . . . , ~vn ) = det( n X si~vi , ~v2 , . . . , ~vn ) i=2 = n X i=2 si det(~vi , ~v2 , . . . , ~vn ) {z } | =0 = 0, da in allen Matrizen ein Vektor an zwei verschiedenen Stellen vorkommt. Satz 13.1.4 und Korollar 13.1.5 behandeln (auch) Veränderungen der Determinante bei elementaren Spaltenumformungen. Wegen det(A) = det(At ) gelten die gleichen Aussagen auch für elementare Zeilenumformungen, d.h. wir erhalten das folgende Korollar: Korollar 13.1.6. • Entsteht A0 aus A durch eine elementare Zeilenumformung Vk,l , so gilt: det(A0 ) = − det(A). • Entsteht A0 aus A durch eine elementare Zeilenumformung Mk (c), so gilt: det(A0 ) = c · det(A). • Entsteht A0 aus A durch eine elementare Zeilenumformung Ak,l (c), so gilt: det(A0 ) = det(A). Das letzte Korollar besagt insbesondere, dass sich die Determinante einer Matrix aus ihrer Stufenform berechnen lässt (und umgekehrt). KAPITEL 13. DETERMINANTEN UND EIGENWERTE 103 Stufenform-Matrizen haben eine besonders einfache Form, sie sind insbesondere obere Dreiecksmatrizen. Eine Matrix A ∈ K n×n ist eine obere Dreiecksmatrix, wenn alle Einträge unterhalb der Diagonalen 0 sind. Die Determinanten solcher Matrizen lassen sich leicht berechnen. Lemma 13.1.7. Ist A ∈ K n×n eine obere Dreiecksmatrix, also a11 a12 · · · a1,n−1 a1n 0 a22 · · · a2,n−1 a2n .. .. . . . . A= . , . . .. .. an−1,n 0 ··· 0 ann dann gilt det(A) = a11 · a22 · · · ann . Beweis: Sei A ∈ K n×n eine obere Dreiecksmatrix, also a11 a12 · · · a1,n−1 a1n 0 a22 · · · a2,n−1 a2n .. .. . .. . 0 . A= . . . .. .. .. an−1,n 0 0 ··· 0 ann Wir beweisen das Lemma durch Induktion nach n: n = 1: Hier ist A = (a11 ) und det A = a11 , wie gefordert. Induktionsvoraussetzung: Das Lemma sei bewiesen für alle oberen (n − 1) × (n − 1)-Dreiecksmatrizen. n − 1 → n: Sei A eine obere n × n-Dreiecksmatrix. Durch Entwicklung nach der ersten Spalte erhalten wir det(A) = a11 · det Ǎ11 ,da alle anderen Einträge in der ersten Spalte 0 sind. Ǎ11 ist eine obere (n − 1) × (n − 1)-Matrix, und nach Induktionsvoraussetzung gilt daher: det(Ǎ11 ) = a22 , . . . , ann . Insgesamt folgt damit det(A) = a11 a22 · · · ann . Beispiel 13.1.3. Es sei K = R und 2 A := 1 3 4 2 3 6 7 . −2 KAPITEL 13. DETERMINANTEN UND EIGENWERTE 104 Wir subtrahieren das 12 -fache der ersten von der zweiten Zeile und das 32 -fache der ersten von der dritten. Das ergibt die Matrix 2 4 6 4 A1 := 0 0 0 −3 −11 mit det(A) = det(A1 ) (wegen Korollar 13.1.5). Vertauschung von Zeile 2 und 3 ändert das Vorzeichen: 2 4 6 det(A) = det(A1 ) = −1 · 0 −3 −11 . 0 0 4 Nach Lemma 13.1.7 gilt: det(A) = (−1) · 2 · (−3) · 4 = 24. Durch den Vergleich der Determinanten von A und ihrer Stufenform erhalten wir den folgenden wichtigen Satz: Satz 13.1.8. Sei A ∈ K n×n . Dann ist A regulär genau dann, wenn det(A) 6= 0. Beweis: Sei A ∈ K n×n . Durch elementare Zeilenumformungen kann man A auf Stufenform B bringen, wobei der Rang von A erhalten bleibt (s. Satz 12.4.5) und der Wert der Determinante mit (−1) oder einem Skalar s 6= 0 multipliziert wird. Es gilt also Rang(A) = Rang(B) und det(A) 6= 0 ⇔ det(B) 6= 0 Ist Rang(A) = n (genau dann ist A regulär, s. Korollar 12.5.8, so ist B = En mit det(B) = 1 6= 0, also auch det(A) 6= 0. Ist Rang(A) < n, so enthält B eine Nullzeile, und damit ist det(B) = 0. Insgesamt folgt damit die Behauptung. D.h., um zu bestimmen, ob eine Matrix invertierbar ist, müssen wir nur ihre Determinante ausrechnen. Im Folgenden wollen wir zeigen, dass sich die Inverse einer regulären Matrix mit Hilfe der Determinante bestimmen lässt. Satz 13.1.9 (Determinantenmultiplikation). Für beliebige A, B ∈ K n×n gilt det(A · B) = det(A) · det(B). Beweis: Seien A, B ∈ K n×n . Ist eine von beiden nicht regulär, so ist auch A · B nicht regulär, und nach Satz 13.1.8 gilt: det(A · B) = 0 = det(A) · det(B). KAPITEL 13. DETERMINANTEN UND EIGENWERTE 105 Sind beide Matrizen A, B regulär, so sind sie nach Satz 12.5.12 Produkt aus Elementarmatrizen, so dass man die Behauptung nur für den Fall zeigen muss, dass A Elementarmatrix ist. Der allgemeine Fall ergibt sich dann durch iterierte Anwendung. Für die Elementarmatrizen Vij , Mi (s), Aij (s) ∈ GL(n, K) (s. Def. 12.5.10) gilt: det(Vij ) = −1 det(Mi (s)) = s det(Ai,j (s)) = 1. Wir betrachten nun det(A · B) für den Fall, dass A eine Elementarmatrix ist, und beachten, dass Multiplikation von links mit Elementarmatrizen elementaren Zeilenumformungen entspricht. det(Vij · B) = − det(B) = (−1) · det(B) = det(Vij ) · det(B) det(Mi (s) · B) = s · det(B) = det Mi (s) · det(B) det(Aij (s) · B) = det(B) = 1 · det(B) = det(Aij (s)) · det(B) Hat eine n × n-Matrix A den Rang n, dann ist A (nach Korollar 12.5.8) invertierbar, d.h., es existiert eine n × n-Matrix A−1 mit det(A) · det(A−1 ) = det(A · A−1 ) = det(En ) = 1. Daraus folgt: Korollar 13.1.10. Sei A ∈ K n×n . Dann ist det(A−1 ) = 1 . det(A) Beispiel 13.1.4. Sei A := 1 −1 1 . 1 Dann gilt offenbar det(A) = 2 und det(Ak ) = 2k für alle k ∈ N0 . Invers zu A ist die Matrix 1 − 21 −1 2 A = 1 1 2 mit det(A−1 ) = 2 1 1 = . 2 det(A) KAPITEL 13. DETERMINANTEN UND EIGENWERTE 106 Definition 13.1.11 (Komplementärmatrix). Sei A ∈ K n×n und B = (βij ) mit βij = (−1)i+j det(Ǎji ) definiert. Dann heißt B Komplementärmatrix zu 1 Beispiel 13.1.5. Wir berechnen zu A = −1 B = (βij ): β11 = (−1)2 det( 1) = A. 1 die Komplementärmatrix 1 1 3 β12 = (−1) det( 1) = −1 β21 = (−1)3 det(−1) = 4 β22 = (−1) det( 1) = also B= 1 1 1 1, −1 . 1 Satz 13.1.12. Sei A ∈ K n×n , und sei B die Komplementärmatrix zu A. Dann gilt: A · B = det(A)En . Ist A regulär, so ist A−1 = 1 B. det(A) Beweis: Sei A = (aij ) ∈ K n×n , sei B die Komplementärmatrix zu A. Pn Die Matrix A · B hat Einträge der Form k=1 aik βkj (an der Stelle (i, j)), genauer n X aik βkj = k=1 = n X k=1 n X aik (−1)k+j det(Ǎjk ) (−1)j+k aik det(Ǎjk ). k=1 Für i = j ist dies n X (−1)i+k aik det(Ǎik ) = det(A) · 1 k=1 (Entwicklung nach der i-ten Zeile). Für i 6= j ist dies die Determinante einer Matrix, die aus A durch Ersetzen der j-ten Zeile durch die i-te Zeile entstanden ist. Diese Determinante ist aber nach Satz 13.1.5 (2) gleich Null. Damit ist A · B = det(A) · En . KAPITEL 13. DETERMINANTEN UND EIGENWERTE Ist A regulär, so ist det(A) 6= 0, d.h. wir können A·( d.h. A−1 = 1 det(A) 1 det(A) 107 bilden. Wir erhalten 1 1 · B) = ·A·B det(A) det(A) 1 · det(A) · En = det(A) = En , · B. Beispiel 13.1.6. Wir berechnen die Inverse zur Matrix A = 13.1.12: 1 = 2 A−1 1 1 −1 = 1 1 2 1 2 − 21 1 −1 1 mit Satz 1 ! 1 2 , dieses Ergebnis stimmt mit der oben angegebenen Inversen überein. Satz 13.1.13 (Cramersche Regel). Sei A = (~a1 , . . . , ~an ) ∈ K n×n eine reguläre Matrix mit den Spaltenvektoren ~ai . Dann hat das lineare Gleichungssystem A · ~x = ~b die Lösung xi = 1 det(~a1 , . . . , ~ai−1 , ~b, ~ai+1 , . . . , ~an ), i = 1, . . . , n. det(A) Beweis: Sei A = (~a1 , . . . , ~an ) ∈ GL(n, K), sei B die Komplementärmatrix zu A. Dann ist A~x = ~b ⇔ ~x = A−1 · ~b 1 = B · ~b, det(A) d.h. für 1 ∈ {a, . . . , n} gilt: n xi = = X 1 βik bk det(A) 1 det(A) k=1 n X (−1)i+k bk det(Ǎki ) k=1 1 = det(~a1 , . . . , ~ai−1 , ~b, ~ai+1 , . . . , ~an ) det(A) Satz 13.1.14. Sei V ein endlichdimensionaler Vektorraum und ϕ : V → V ein Endomorphismus. Seien B, B 0 zwei Basen von V . Dann gilt: det(B [ϕ]B ) = det(B 0 [ϕ]B 0 ), d.h., die Determinante der darstellenden Matrix von ϕ ist unabhängig von der Wahl von B. KAPITEL 13. DETERMINANTEN UND EIGENWERTE 108 Beweis: Sei dim V = n, sei ϕ : V → V ein Endomorphismus. Seien B, B 0 zwei Basen von V . Mit Satz 12.2.8 ist B 0 [ϕ]B 0 = A ·B [ϕ]B · A−1 mit einer regulären Basiswechselmatrix A. Dann ist det(B 0 [ϕ]B 0 ) = det(A) · det(B [ϕ]B ) · det(A−1 ) 1 = det(A) · · det(B [ϕ]B ) det(A) = det(B [ϕ]B ). 13.2 Eigenwerte Sei im folgenden V = K n (für n = 6 0) ein Vektorraum über K und sei A ∈ K n×n . Definition 13.2.1 (Eigenwert,Eigenraum). Ein Skalar λ ∈ K heißt Eigenwert von A, wenn es ein ~v ∈ V , ~v 6= 0 gibt mit A~v = λ~v . Ein Vektor ~v ∈ V , ~v 6= 0 mit A~v = λ~v heißt ein Eigenvektor zum Eigenwert λ. Die Menge Vλ := {~v ∈ V | A~v = λ~v } heißt Eigenraum zum Eigenwert λ. Die Menge σ(A) = {λ ∈ K | λ Eigenwert von A} heißt Spektrum von A. Eigenwerte reduzieren also die komplexe Matrixmultiplikation auf eine Skalarmultiplikation (für gewisse Vektoren). Wie kann man den Eigenraum zu einem Eigenvektor λ bestimmen? Seien dim V = n, ~v ∈ V ein Eigenvektor zum Eigenwert λ. Dann gilt A~v = λ~v ⇔ A~v − λ~v = ~0 ⇔ ⇔ A~v − λ · En~v = ~0 (A − λ · En )~v = ~0 ⇔ ~v ∈ Kern(ϕA−λ·En ) ⇒ Vλ = Kern(ϕA−λEn ) Insbesondere folgt daraus, dass Vλ ein Untervektorraum von V ist. Die Eigenvektoren zu λ sind genau die von Null verschiedenen Vektoren in Vλ . Die Existenz von Eigenvektoren zu λ hängt von der Lösbarkeit des lineare Gleichungssystems (A − λEn )~v = ~0 ab, und hierfür wiederum ist det(A − λEn ) entscheidend. Definition 13.2.2 (Charakteristisches Polynom). Sei V endlichdimensional. Dann heißt χA (λ) := det(A − λ · En ) das charakteristische Polynom von A. Satz 13.2.3. Sei dim V = n < ∞, sei A ∈ K n×n . Dann gilt für λ ∈ K: KAPITEL 13. DETERMINANTEN UND EIGENWERTE ⇔ λ ist Eigenwert von A 109 det(A − λEn ) = 0. Beweis: Seien dim V = n < ∞, A ∈ K n×n . Dann gilt: λ ∈ K ist Eigenwert von A ⇔ ∃~v ∈ V \ {~0} : ~v ∈ Kern(ϕA−λEn ) ⇔ (A − λEn )~v = ~0 ist nicht eindeutig lösbar ⇔ A − λEn ist nicht regulär ⇔ det(A − λEn ) = 0 Bemerkung: 1. χA (λ) ist ein Polynom vom Grad n. Es gilt für A = (αij ): n n χA (λ) = (−1) · (λ − n X αii λn−1 + · · · ± det(A)) i=1 2. Es gibt höchstens n Werte λi ∈ K mit det(A − λi En ) = 0, weil das charakteristische Polynom det(A − λEn ) höchstens n Nullstellen hat. 3. A hat höchstens n verschiedene Eigenwerte. Beispiel 13.2.1. 0 A= 1 −2 2 4 1 0 2 5 Wir berechnen nun die Eigenwerte und die zugehörigen Eigenräume von A. Es gibt im Grunde 3 Schritte, die wir zur Berechnung durchführen müssen. 1. Bestimmung des charakteristischen Polynoms: χA = det(A − λE3 ) −λ 2 4 0 = det 1 1 − λ −2 2 5−λ = −λ3 + 6λ2 − 11λ + 6 2. Berechnung der Nullstellen von χA (λ): χA (λ) = 0 ⇔ −λ3 + 6λ2 − 11λ + 6 = 0 Durch Ausprobieren erhält man eine Nullstelle λ1 = 1. Polynomdivision und p–q– Formel liefern λ2 = 2, λ3 = 3. Die Menge aller Eigenwerte von A (das Spektrum) ist also σ(A) = {1, 2, 3} KAPITEL 13. DETERMINANTEN UND EIGENWERTE 3. Berechnung von Kern(ϕA−λi E3 ), i = 1, 2, 3: λ1 = 1 : (A − 1 · E3 )~v = ~0 ⇔ −1 1 −2 2 4 v1 0 0 v2 = ~0 2 4 v3 Wir lösen dazu das folgende Gleichungssystem. −1 2 4 0 1 0 0 0 V1,2 1 0 0 0 ⇔ −1 2 4 0 −2 2 4 0 −2 2 4 0 A1,2 (1), 1 0 0 0 1 0 0 0 A1,3 (2) A2,3 (−1) ⇔ 0 2 4 0 ⇔ 0 2 4 0 0 2 4 0 0 0 0 0 ⇒ v1 = 0 ∧ v2 = −2v3 Die Menge der Eigenvektoren zu λ1 ist * + 0 0 0 −2v3 = v3 · −2v3 ∈ K \ {0} ⇒ Vλ1 = −2 1 1 v3 λ2 = 2 : (A − 2 · E3 )~v = ~0 ⇔ −2 2 1 −1 −2 2 v1 4 0 v2 = ~0 3 v3 Wir lösen dazu das folgende Gleichungssystem. −2 2 4 0 1 −1 0 0 V1,2 1 −1 0 0 ⇔ −2 2 4 0 −2 2 3 0 −2 2 3 0 A1,2 (2), 1 −1 0 0 1 −1 0 0 3 A2,3 (− 4 ) A1,3 (2) ⇔ 0 0 4 0 ⇔ 0 0 4 0 0 0 3 0 0 0 0 0 ⇔ v1 = v2 ∧ v3 = 0 Die Menge der Eigenvektoren zu λ2 ist *1+ 1 v2 v2 = v2 · 1v2 ∈ K \ {0} ⇒ Vλ2 = 1 0 0 0 110 KAPITEL 13. DETERMINANTEN UND EIGENWERTE 111 λ3 = 3 : (A − 3 · E3 )~v = ~0 ⇔ −3 1 2 2 −2 2 4 v1 0 v2 = ~0 2 v3 Wir lösen dazu das folgende Gleichungssystem. 1 −2 0 0 −3 2 4 0 V1,2 1 −2 0 0 ⇔ −3 2 4 0 −2 2 2 0 −2 2 2 0 A1,2 (3), 1 −2 0 0 1 −2 0 0 A2,3 (− 21 ) A1,3 (2) ⇔ 0 −4 4 0 ⇔ 0 −4 4 0 0 −2 2 0 0 0 0 0 ⇔ v1 = 2v3 ∧ v2 = v3 Die Menge der Eigenvektoren zu λ2 ist *2+ 2 2v3 v3 = v3 · 1v3 ∈ K \ {0} ⇒ Vλ3 = 1 1 v3 1 Sei ϕ : V → V ein Endomorphismus, dim V = n. Wir beschäftigen uns im Folgenden mit der Frage Gibt es eine Basis B, so dass B [ϕ]B eine möglichst einfache Form hat? Dazu betrachten wir zunächst ein Beispiel zu der aus Beispiel 13.2.1 bekannten Matrix. Beispiel 13.2.2. 0 A= 1 −2 2 4 1 0 2 5 Das Spektrum von A ist die Menge σ(A) = {1, 2, 3}. Die Eigenräume lauten * + * + * + 0 1 2 V1 = −2 , V2 = 1 , V3 = 1 . 1 0 1 0 1 2 Da −2 , 1 , 1 linear unabhängig sind, gibt es eine Basis des R3 , die 1 0 1 nur aus Eigenvektoren von A besteht. 1 2 0 B = −2 , 1 , 1 1 0 1 KAPITEL 13. DETERMINANTEN UND EIGENWERTE 112 Für diese Basis gilt (unter Beachtung der Reihenfolge der Basisvektoren): 1 0 2 0 + 0· 1 = 1 · −2 + 0· 1 A · −2 11 01 10 21 A· 1 = 0 · −2 + 2· 1 + 0· 1 20 01 10 21 A· 1 = 0 · −2 + 0· 1 + 3· 1 1 0 1 1 1 0 0 ⇒ B [ϕA ]B = 0 2 0 0 0 3 Bezgl. dieser Basis hat A also Diagonalgestalt. Sei B3 die Standardbasis des R3 , dann ist B [ϕA ]B 0 −2 B3 [idR3 ]B = 1 1 2 1 1 0 1 = B [idR3 ]B3 · A · B3 [idR3 ]B . B [idR3 ]B3 = B3 [idR3 ]B −1 1 = 3 −1 −1 −2 1 −1 −4 2 Was wir im Beispiel gesehen haben, lässt sich auf viele Matrizen des K n×n anwenden. Wir untersuchen nun die Eigenschaften und Charakteristika der Matrizen, die sich in Diagonalform bringen lassen. Hierbei spielen Eigenvektoren eine große Rolle. Definition 13.2.4. Eine Matrix A ∈ K n×n heißt diagonalisierbar, wenn es eine reguläre Matrix S gibt, so dass SAS −1 eine Diagonalmatrix ist. Satz 13.2.5. Für A ∈ K n×n sind äquivalent: (i) A ist diagonalisierbar (ii) es gibt in V eine Basis aus Eigenvektoren von A Qk (iii) χA (λ) = i=1 (λi − λ)ni mit k ∈ N, λi ∈ K und dim Vλi = ni für 1 ≤ i ≤ k Beweis: Sei Bn = {~e1 , . . . , ~en } die Standardbasis des K n . (i) ⇒ (ii) A ist diagonalisierbar ⇒ ∃ reguläre Matrix S, so dass λ1 . . . 0 .. S −1 AS = . 0 ... λn mit λi ∈ K, 1 ≤ i ≤ n. S ist regulär, daher sind die Spaltenvektoren von S linear unabhängig. Wir können daher als Basis B definieren: s12 s1n s11 B = ... , ... , . . . , ... sn1 sn2 snn | {z } | {z } | {z } =:~ s1 =:~ s2 =:~ sn KAPITEL 13. DETERMINANTEN UND EIGENWERTE 113 Dann ist idK n (~si ) = s1i · ~e1 + s2i · ~e2 + · · · + sni · ~en für 1 ≤ i ≤ n, und damit s11 s21 Bn [idK n ]B = . .. ... s1n s2n .. = S. . sn1 ... sn1 Also ist B [ϕA ]B = Bn [idK n ]B −1 · A · Bn [idK n ]B −1 =S ·A·S λ1 . . . 0 .. = , . 0 . . . λn womit gilt, dass ϕA (~si ) = A · ~si = 0 · ~s1 + · · · + 0 · ~si−1 + λi · ~si + 0 · ~si+1 + · · · + 0 · ~sn = λi · s~i . ~si ∈ B ist also Eigenvektor zum Eigenwert λi von A. (ii) ⇒ (iii) Sei B = {~b1 , . . . , ~bn } eine Basis aus Eigenvektoren zu A. Dann ist A · ~bi = 0 · ~b1 + · · · + λi · ~bi + · · · + 0 · ~bn λ1 . . . 0 .. ⇒B [ϕA ]B = . 0 ... λn ⇒B [ϕA ]B = B [id ]Bn ·A · Bn [idK n ]B | {z } | {z } Kn =:S −1 =:S χA (λ) = det(A − λEn ) = det(S −1 (A − λEn )S) = det(S −1 AS − λEn ) λ1 − λ . . . .. = det( . 0 = k Y ... 0 ) λn − λ (λi − λ)ni , i=1 wobei Vielfachheiten zusammengefasst werden. Seien dim Vλi = mi , Vλi = h~bi1 , . . . , ~bimi i mit ~bij ∈ B, 1 ≤ j ≤ mi KAPITEL 13. DETERMINANTEN UND EIGENWERTE 114 ⇒ Für ~b ∈ B gilt A · ~b = λi~b, wenn ~b ∈ {~bi1 , . . . , ~bimi } und A · ~b 6= λi~b sonst. Damit hat die Darstellugsmatrix bzgl. B die Form λ 1 .. B [ϕA ]B = . 0 λi .. . λi .. 0 . ) genau mi -Mal λn Daraus folgt 1 −λ λ .. χA (λ) = det . k Y (λi − λ)ni = i=1 0 λi −λ .. . λi −λ .. 0 . λn −λ und mi = ni . Qk (iii) ⇒ (i) Sei χA (λ) = i=1 (λi − λ)ni mit k ∈ N, λi ∈ K und dim Vλi = ni für 1 ≤ i ≤ k. Da dim Vλi = ni ist, existiert eine Basis Bi = {~bi1 , . . . , ~bini } von Vλi . Wenn wir zeigen können, dass B= k [ Bi i=1 eine Basis von V ist, so hat ϕA bezgl. der Basis Diagonalgestalt und wir sind fertig. Es ist χA (λ) ein Polynom vom Grad n, daher ist k X ni = n, i=1 d.h. wenn die n Vektoren aus B linear unabhängig sind, ist B eine Basis von V . Seien ri1 , . . . , rini , 1 ≤ i ≤ k in K mit n1 X r1j~b1j + · · · + j=1 | nk X rkj~bkj = ~0. j=1 {z } =:~ v1 ∈Vλ1 | {z } =:~ vk ∈Vλk Dann gilt ~0 = ~v1 + · · · + ~vk ⇔ ~v1 = −~v2 − · · · − ~vk ⇒ A~v1 = λ1~v1 = λ1 (−~v2 − · · · − ~vk ) = −λ2~v2 − · · · − λk~vk ⇔ ~0 = (λ1 − λ2 )~v2 + · · · + (λ1 − λk )~vk KAPITEL 13. DETERMINANTEN UND EIGENWERTE 115 Also sind ~v2 , . . . , ~vk linear abhängig. Auf gleiche Art und Weise kann man nun zeigen, dass ~v3 , . . . , ~vk linear abhängig sind, usw., bis wir die Aussage ~vk ist linear abhängig erhalten. Daraus folgt ~vk = ~0 = nk X rkj~bkj . j=1 Die Vektoren ~bkj sind linear unabhängig für 1 ≤ j ≤ nk , also gilt rkj = 0 für 1 ≤ j ≤ nk . Da nach unserer Schlussfolgerung auch gelten muss, dass ~vk−1 , ~vk linear abhängig sind, gilt nun auch ~vk−1 = s~vk = ~0 und wiederum folgt, dass rk−1j = 0 ist für 1 ≤ j ≤ nk−1 . Per Induktion folgt schliesslich, dass alle Koeffizienten Null sein müssen, und damit ist B eine Basis. 0 2 Beispiel 13.2.3. 1. Die Matrix A = 1 1 −2 2 spiel ist diagonalisierbar: 0 1 2 1 0 0 1 −1 −2 1 1 0 2 0 3 −2 1 0 1 0 0 3 −1 1 2. Die Matrix A = 0 1 −1 0 4 0 aus dem obigen Bei5 −1 0 −4 = 1 2 −2 2 4 1 0 2 5 ist über R nicht diagonalisierbar, weil χA (λ) = det −λ 1 −1 −λ = λ2 + 1 keine Nullstellen hat, A also keine Eigenwerte bzw. Eigenvektoren hat. 13.3 Anwendung: Eigenfaces 13.3.1 Gesichtserkennung Das Problem, das wir uns in diesem Abschnitt anschauen, besteht darin, die relevanten Informationen zur Repräsentation einer Klasse/Menge von bekannten Objekten automatisch aus Beispieldaten zu ermitteln. Also aus einer Menge von Bildern zu “lernen”, was ein Gesicht darstellt. Dieser Abschnitt orientiert sich an dem Artikel Eigenfaces for recognition und der Vorlesung Computervision von Prof. Dr.-Ing. Gernot A. Fink. KAPITEL 13. DETERMINANTEN UND EIGENWERTE 116 Um dies mit einem Rechner erfassen zu können, werden die Bilder als Vektoren des Rn aufgefasst, wobei n der Anzahl an Pixeln in den Bildern entspricht. Auf Facebook haben die Profilbilder 180 Pixel in x-Richtung und meist zwischen 120 und 240 Pixel in y-Richtung. Somit haben die entsprechenden Vektorräume Dimensionen zwischen 21.600 und 43.200. Für die Gesichtserkennung gehen wir davon aus, dass wir M Beispielbilder mit einer festen Auflösung von x · y = n haben. Bilder in anderen Auflösungen müssen dann entsprechend vergrößert, verkleinert oder ausgeschnitten werden. Die Bilder sollten bezüglich Helligkeit und Kontrast normalisiert worden sein. Damit wollen wir uns hier aber nicht befassen, sondern mit der Gesichtserkennung bei ausreichend guten Bildern. Für Interessierte sei auf die Vorlesung Computervision von Prof. Dr. Fink verwiesen. Die Bilder sind nun zu Punkten Γ1 , . . . , ΓM im hochdimensionalem Vektorraum Rn abstrahiert. Das Ziel ist dann eine vernünftige Repräsentation der “Punktwolke” (= Menge der gegebenen Bilder) im Raum der Bilder (= alle möglichen Bilder einer festen Auflösung) zu finden. Vernünftige Repräsentation heißt dabei, dass wir damit ein Ähnlichkeitsmaß definieren können, um neue Auftreten von Gesichtern zu erkennen oder zu finden. Somit bekommen wir einen Unterraum des Vektorraums aller Bilder. Die Hoffnung ist, dass der Raum der Gesichtsbilder ein “kleiner” Unterraum des Raumes aller Bilder ist. Als Ansatz zur Repräsentation des Unterraums wird hier der Schwerpunkt (= PM 1 Durchschnittsvektor Ψ := M i=1 Γi ) der Beispiele als zentrales Element und für die Beschreibung der Abweichungen (Φi := Γi − Ψ) vom Schwerpunkt die PM 1 t Kovarianzmatrix (C := M i=1 Φi Φi ) der Unterschiede verwendet. Die Kovarianzmatrix enthält Informationen über die Streuung und über die Zusammenhänge der Vektoren. Ein Eintrag cij ist das Produkt der Abweichungen von Pixel i und Pixel j zu dem Durchschnittsbild gemittelt über alle Beispielbilder. Ein Wert nahe Null bedeutet, dass durchschnittlich keine gleichzeitige Abweichung der Pixel i und j festzustellen ist. Ein hoher positiver Wert bedeutet, dass durchschnittlich die Pixel i und j in die gleiche Richtung (beide positiv oder beide negativ) vom Durchschnittsbild abweichen. Ein hoher negativer Wert bedeutet, dass durchschnittlich die Pixel i und j in entgegengesetzte Richtungen (einer positiv und einer negativ) vom Durchschnittsbild abweichen. Die Beschreibung der Kovarianzmatrix soll an dieser Stelle genügen. Die Kovarianzmatrix begegnet dem Informatikstudenten dann in Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker wieder. Die Hauptkomponenten der Kovarianzmatrix (= ihre Eigenvektoren ui ) spannen den gesuchten Unterraum auf. Allerdings können wir die Eigenvektoren nicht direkt aus der Matrix C berechnen, da diese die Größe n × n hat und somit für typische Bildgrößen viel zu groß ist, um effiziente Berechnungen damit durchzuführen. Eine andere Darstellungsmöglichkeit der Matrix C wird uns aber weiterhelfen. Man erkennt aus der Formel für C, dass sich die Kovarianzmatrix als Produkt KAPITEL 13. DETERMINANTEN UND EIGENWERTE 117 von Matrizen darstellen lässt: 1 C = AAt mit A := √ [Φ1 , . . . , ΦM ] M Betrachten wir nun statt der Matrix C die Matrix L := At A und berechnen deren Eigenvektoren ~vi . Diese Matrix hat nur noch Größe M × M statt n × n. Da M n, also die Zahl der Beispielbilder meist wesentlich kleiner als die Pixelzahl ist, kommen wir wieder in den Bereich des sinnvoll Berechenbaren. Was bringt es uns, die Eigenwerte und Eigenvektoren von L statt von C zu berechnen? Antwort: Aus den Eigenvektoren von L lassen sich die Eigenvektoren von C ableiten: Für einen Eigenvektor ~v von L zum Eigenwert λ gilt: ⇒ ⇒ ⇒ L~v At A~v AAt A~v t AA |{z} A~v = = = = λ~v λ~v Aλ~v λA~v C Somit ist ~u := A~v ein Eigenvektor von C zum Eigenwert λ. Wir können also die Eigenvektoren von C berechnen, indem wir den Umweg über die wesentlich kleinere Matrix L machen. Die Eigenwert- und Eigenvektorberechnung liefert maximal M verschiedene Eigenwerte. Da C eine Kovarianzmatrix ist, ist sie insbesondere positiv semi-definit und symmetrisch, d.h. ~xt A~x ≥ 0 für alle ~x ∈ Rn und A = At . Daraus folgt, dass alle Eigenwerte ≥ 0 sind. Die zusammengehörenden Eigenvektoren und Eigenwerte werden dann nach Größe der Eigenwerte absteigend sortiert. Das heißt, die Eigenvektoren zu den größten Eigenwerten sind am wichtigsten. Jeder Trainingsvektor kann durch eine Linearkombination der Eigenvektoren wiederhergestellt werden. Andere Vektoren (Bilder) können approximiert werden. Die k größten Eigenwert/Eigenvektorpaare (λi , ~ui ) werden dann als Repräsentation des Gesichtsraumes angesehen. Die Wahl von k ist subjektiv. Ein Anhaltspunkt ist allerdings die Größe der Eigenwerte: Ist ein Eigenwert um mehrere Zehnerpotenzen kleiner als der größte Eigenwert, so kann er ausgeschlossen werden. Um nun zu testen, ob ein gegebenes Bild Γneu ebenfalls ein Gesicht zeigt, wird das neue Bild auf den Unterraum projiziert: ωi = ~uti (Γneu − Ψ) für i = 1, . . . , k Dadurch hat man einen Vektor Ωneu = [ω1 , . . . , ωk ]t mit Gewichten für die gewählten Eigenvektoren. Die Trainingsdaten Γ1 , . . . , ΓM werden ebenfalls auf den Unterraum projiziert und ergeben die Gewichtsvektoren Ω1 , . . . , ΩM . Um zu entscheiden, ob Γneu ein Gesicht ist, wird Ωneu P dann mit dem über alle M 1 Trainingsdaten gemittelten Gewichtsvektor Ω̂ := M i=1 Ωi verglichen. Dies geschieht im einfachsten Fall mit dem euklidischen Abstand: ε := kΩneu − Ω̂k KAPITEL 13. DETERMINANTEN UND EIGENWERTE 118 Wenn nun ε unterhalb eines zu wählenden Grenzwertes liegt, dann wurde ein Gesicht erkannt. 13.3.2 Beispiel Gegeben sind zwölf schwarz/weiß-Bilder von Prominenten in einer Auflösung von 192 × 256 = 49152 Pixel. Abbildung 13.1 zeigt diese mit der jeweiligen Benennung Γ1 , . . . , Γ12 . Γ1 Γ2 Γ3 Γ4 Γ5 Γ6 Γ7 Γ8 Γ9 Γ10 Γ11 Γ12 Lizenzen der Bilder: Alan Rickman von David Shankbone: CC BY-SA 3.0, Anthony Hopkins von Elena Torre: CC BY-SA 2.0, Bettina Zimmermann von Siebbi: CC BY 3.0, Johnny Depp von Vanessa Lua: CC BY-SA 2.0, John Travolta von Roland Godefroy: CC BY 3.0, Julia Roberts von David Shankbone: CC BY 3.0, Kate Winslet von Andrea Raffin: CC BY-SA 3.0, Katharina Wackernagel von Siebbi: CC BY 3.0, Madonna von David Shankbone: CC BY-SA 3.0, Mel Brooks von Towpilot: CC BY-SA 3.0, Patrick Stewart von urbantog: CC BY-SA 3.0, Paula Schramm: gemeinfrei Abbildung 13.1: Übersicht über die Trainingsdaten Das Durchschnittsbild Ψ := 1 12 P12 i=1 Γi ist in Abbildung 13.2 dargestellt. Von diesem Durchschnittsbild ausgehend werden die Unterschiede Φi := Γi − Ψ berechnet. Die Φi haben keine sinnvolle Darstellung als Bilder, da sie auch negative Werte enthalten. KAPITEL 13. DETERMINANTEN UND EIGENWERTE 119 Abbildung 13.2: Durchschnittsbild Ψ P12 1 t t √1 [Φ1 , . . . , Φ12 ] hat Die Kovarianzmatrix C := 12 i=1 Φi Φi = AA mit A = 12 die Größe 49152 × 49152, also 2.415.919.104 Einträge. Diese Größenordnung eignet sich nicht dazu, um effizient die Eigenvektoren zu berechnen. Daher wird der oben beschriebene Umweg eingeschlagen und die Matrix C gar nicht explizit berechnet. Betrachte stattdessen die Matrix L := At A. Diese Matrix hat nur noch die Größe 12 × 12 = 144 und kann daher auch abgedruckt werden: L = 25471160 8243220 −5279546 1615191 −10301389 4000387 −7884696 −10936269 2848142 −3758552 −5105178 1089477 8243220 26581156 −6661251 −4167142 −6661251 −5279546 1615191 −4167142 −10301389 4000387 −6458443 −7884696 −2167504 −10936269 −5444231 2848142 −7746747 1370463 −3758552 −1696807 −5105178 14076532 −679577 −679577 10920523 3971825 −417392 886947 −988341 2590808 2233087 4684250 −2835835 −5268544 −2899657 −3096664 −324792 680742 −5065344 −5422909 1089477 −2537719 1172077 1675261 −6458443 −2167504 −5444231 −417392 −988341 −7746747 1370463 −1696807 680742 −2537719 2590808 2233087 4684250 −5268544 −3096664 −5065344 −2835835 −2899657 −324792 −5422909 1172077 1675261 16021419 −3802672 7503862 −3802672 11359857 −4205066 7332839 −8170476 −1236163 −5422548 −522472 1009285 −2131143 −1709490 −295851 −422633 3971825 886947 7503862 −4205066 7332839 −8170476 16871650 2500799 −6527771 −3577920 −522472 2500799 1009285 −6527771 19590182 −4694165 −1904692 −4694165 16499005 1127192 −1236163 −2131143 −3577920 −5422548 −1709490 −5360555 −295851 −422633 1335457 −1904692 −248447 1127192 7622603 14948193 5066122 −5360555 1335457 −248447 −5221543 7622603 −2950717 5066122 −3434659 21286278 −6362391 −5221543 −2950717 −3434659 −6362391 15995500 Von der Matrix L werden dann die Eigenvektoren ~vi und Eigenwerte λi berechnet. Die Berechnungen wurden von dem Programm Octave übernommen. Die Multiplikation mit der Matrix A ergibt dann die gesuchten Eigenvektoren ~ui = A · ~vi . Wegen der Eigenschaften der Kovarianzmatrix C (symmetrisch, positiv semi– definit) weiß man, dass alle Eigenwerte nicht–negative reelle Zahlen sind, für genauere Information verweisen wir z.B. auf [2, Pareigis]. Die Abbildung 13.3 zeigt eine Übersicht über die Eigenvektoren, die jeweils zum Durchschnittsbild addiert wurden. Zusätzlich sind dort die Eigenwerte angegeben. Wir wählen hier die ersten elf Eigenvektoren als Repräsentation des Gesichtsraumes, da sich von dem elften auf den zwölften Eigenwert ein verhältnismäßig großer Sprung in den Eigenwerten zeigt. Als Beispieltests gibt es zwei bereits vorhandene Prominente in Abbildung 13.4. Die ermittelten euklidischen Abstände εneu1 = 38198801 und εneu2 = 24550592 vermitteln in diesem Beispiel aber kaum Ähnlickeit. Um bessere Resultate zu erzielen sind Vorverarbeitungen der Bilder oder biometrische Fotos nötig. KAPITEL 13. DETERMINANTEN UND EIGENWERTE u1 + Ψ, λ1 = 59011394 u2 + Ψ, λ2 = 38630083 u3 + Ψ, λ3 = 23771841 u4 + Ψ, λ4 = 19991369 u5 + Ψ, λ5 = 15026005 u6 + Ψ, λ6 = 13077571 u7 + Ψ, λ7 = 9640689 u8 + Ψ, λ8 = 8608336 u9 + Ψ, λ9 = 8293889 u10 + Ψ, λ10 = 7120273 u11 + Ψ, λ11 = 6445879 u12 + Ψ, λ12 = 4126 120 Abbildung 13.3: Eigenvektoren + Durchschnittsbild Γneu1 Γneu2 Lizenzen der Bilder: Alan Rickman von Justin Hoch: CC BY 2.0 Patrick Stewart von David Shankbone: CC BY 3.0 Abbildung 13.4: Zwei Testfälle Index K-Algebra, 90 K-Modul, 5 Erzeugnis von einer Menge, 17–18 Faktorraum, 78–81 Austauschsatz von Steinitz, 32 Automorphismus, 90 Basis, 19–20, 25–31 Kardinalität, 33 Basisergänzungssatz, 29 Basiswechsel, 67 Basiswechselmatrix, 67–69 charakteristisches Polynom, 107–111 Cramersche Regel, 106 Gauß’scher Algorithmus, 40–41 Gauß’sches Eliminationsverfahren, siehe Gauß’scher Algorithmus Gruppe der regulären n × n Matrizen, 90– 95 volle lineare, 90–93 Hauptsatz über homogene lin. Gleichungssysteme, 85 Hauptsatz über inhomogene lin. Gleichungssysteme, 85 Homomorphiesatz für Vektorräume, 80 Determinante, 96–106 Multiplikation, 103 differenzierbare Funktionen, 55 Dimension, 33–36 Isomorphismus Dimensionsformel für Teilräume, 34 zwischen Gruppen, 91 Dimensionssatz für Homomorphismen, zwischen Ringen, 90 72 zwischen Vektorräumen, 58–61 Dreiecksmatrix, 102 Koeffizienten, 37 Eigenraum, 107 Koeffizientenmatrix, 37 Eigenvektor, 107–111 erweitert, 38 Eigenwert, 107–108 Komplementärmatrix, 104 Einheitsvektor, 19, 20 Länge eines Vektors, 12 elementare Spaltenumformungen, 82 elementare Zeilenumformungen, 42, 82, linear abhängig, 21–23, 25 linear unabhängig, 21, 24–25, 29–31 101 als Matrixmultiplikation, siehe auch lineare Abbildung, 53–57, 63, 86 Bild, 70–72, 81 Elementarmatrix, 44–46 einer Matrix, 55 Elementarmatrix, siehe auch elementaKern, 70–72 re Zeilenumformungen als MaKomposition, 55 trixmultiplikation lineares Gleichungssystem, 37–41, 106 Endomorphismus, 86 Äquivalenz, 41 Entwicklung nach Zeile/Spalte, 97 eindeutig lösbares, 48, 92 Epimorphismus, 58 homogenes, 48, 74 Erzeugendensystem, siehe auch Erzeugnis von einer Menge, 19, 20, Linearkombination, 17 25, 28–31 121 INDEX 122 Matrix, 6, 57 Schnitt, 15 Addition, 6 Vektorraum, 4–7 diagonalisierbare, 111–113 der n × m Matrizen, 6, 34 einer linearen Abb., 57, 62–66, 68, endlich dimensionaler, 34–36, 61 106 endlich erzeugter, 18, 27 invertierbare, siehe reguläre unendlich dimensionaler, 33 Invertierung, 52 Vektorraumhomomorphismus, siehe liMultiplikation, 8, 67 neare Abbildung Nullraum, 15 Vektorraumisomorphismus, siehe Isoreguläre, 11, 103 morphismus zwischen Vektorskalare Multiplikation, 6 räumen transponierte, 11, 98 Zeilenraum, 82 Monomorphismus, 58 Multilinearform, 100 alternierende, 100 Nebenklasse, 75–77 Nullabbildung, 55 Nullvektor, 4, 14, 21 Quotientenraum, siehe Faktorraum Rang einer linearen Abb., 73–74, 81, 92 einer Matrix, 81–85, 92 rechte Seite, 37 Restklasse, siehe Nebenklasse Restklassenraum, siehe Faktorraum Ring der n × n Matrizen, 8 der Endomorphismen, 89 Skalarprodukt, 11–12 Spaltenraum, 82 Spektrum, 107 Streichungsmatrix, 96 Stufenform, 42–43 Teilraum, 13–18 von einem Vektor erzeugter, 16 von einer Menge erzeugter, 18 Untervektorraum, siehe Teilraum Vektor, 5 Vektoren senkrechte, 12 Vektorräume Addition, 15 isomorphe, siehe auch Isomorphismus zwischen Vektorräumen Literaturverzeichnis [1] G.M. Gramlich. Lineare Algebra. Carl Hanser Verlag, 2009. [2] B. Pareigis. Lineare Algebra für Informatiker. Springer Verlag, 2000. [3] M. Skutella. Mathematik für Informatiker I und II. Technical report, TU Dortmund, 2006. [4] M. Turk, A. Pentland. Eigenfaces for recognition. Journal of Cognitive Neuroscience, Volume 3 Issue 1, Winter 1991, MIT Press Cambridge, MA, USA. 123