Lineare Algebra Otto Mutzbauer November 2007 Würzburg Vorwort Der Stoumfang dieses Manuskripts entspricht einer zweisemestrigen Vorlesung Lineare Algebra für Mathematikstudenten. Auf fortgeschrittene Theorien wie Modultheorie und Algebra wird verzichtet, allein Methoden der Linearen Algebra werden verwendet. Der klassische Sto der Linearen Algebra wird aus der Sicht der nachfolgenden Algebra präsentiert. Insbesondere wird die Normalformentheorie über beliebigen Körpern dargestellt. Die reellen und komplexen Vektorräume werden explizit behandelt. In aller Regel folgen den Denitionen sofort eine Reihe direkter Konsequenzen mit kurzen Begründungen, um die verwendeten Begrie sofort in ihr natürliches Umfeld einzubetten. Denitionen, Beispiele und Bemerkungen sind nicht nummeriert. Alle Begrie sind im umfangreichen Index zu nden. Die Vielfalt der Anwendungsgebiete der Linearen Algebra wird nur gestreift. Es gibt hierfür keine eigenen Kapitel. Jedoch werden Literaturstellen zu einigen aufgeführten Begrien benannt. Ich möchte mich bei Dogan Cinbir, Sebastian Huber und Ruben Schulze für ihre engagierte Mithilfe und für Korrekturlesen bedanken. Würzburg, im November 2007 Otto Mutzbauer LINEARE ALGEBRA OTTO MUTZBAUER Inhaltsverzeichnis 0. 0.1. Präliminarien 3 Aussagen, Wahrheitstafel und Logik 3 0.2. Mengen 4 0.3. Zahlen 6 0.4. Relationen 7 0.5. Funktionen 9 0.6. Mächtigkeit von Mengen 11 0.7. Beweise, Beispiele 12 1. Algebraische Strukturen und Vektorräume 14 1.1. Gruppen 1.2. Körper und Ringe 17 1.3. Vektorräume 19 2. 14 Unterräume, Basis und Dimension 21 2.1. Unterräume 2.2. Basis und Dimension 23 2.3. Direkte Summen 29 3. 3.1. 21 Lineare Abbildungen und Matrizen 32 Matrizen 32 3.2. Lineare Abbildungen 35 3.3. Darstellung von linearen Abbildungen durch Matrizen 39 3.4. Rang einer Matrix 42 3.5. Äquivalenz und Ähnlichkeit von Matrizen 44 Abbildungsraum, Dualraum und Faktorraum 45 Lineare Gleichungssysteme und Gauÿalgorithmus 50 3.6. 4. 4.1. Lineare Gleichungssysteme 50 4.2. Elementare Umformungen 51 Gauÿalgorithmus 53 4.3. 5. Determinanten 57 5.1. Permutationen 57 5.2. Multilinearformen 59 5.3. Determinanten von Endomorphismen und Matrizen 62 Date : 26. November 2007. 1 2 LINEARE ALGEBRA 5.4. 5.5. 6. Rechenregeln für Determinanten von Matrizen 64 Anwendungen 69 Eigenwerte und Eigenvektoren 72 6.1. Charakteristisches Polynom und Eigenwerte 72 6.2. Diagonalisierbarkeit von Matrizen 78 7. Euklidische und unitäre Vektorräume 82 7.1. Bilinearformen 82 7.2. Skalarprodukt und hermitesche Form 84 7.3. Betrag und Orthogonalität 89 7.4. Orthogonalisierung 92 7.5. Adjungierte Abbildungen und normale Endomorphismen 96 7.6. Orthogonale und unitäre Abbildungen 104 7.7. Hauptachsentransformation 108 8. Normalformen von Matrizen 114 8.1. Polynomringe über Körpern 114 8.2. Polynome von Endomorphismen und Minimalpolynom 118 8.3. Zyklische Unterräume 121 8.4. Unzerlegbare Unterräume und Frobenius Normalform 123 8.5. Jordan Normalform und Anwendungen 129 Literatur 133 Index 134 LINEARE ALGEBRA 3 0. Präliminarien Aussagen, Wahrheitstafel und Logik. Aussagen. 0.1. Aussagen sind entweder wahr , z.B. 0 w, oder falsch , z.B. 1 = 1 = 0 ist wahr, bezeichnet mit ist falsch, bezeichnet mit f . Mathematische Zeichen. Symbole ^ _ : ) , 2 Quantoren 8 9 und oder Konjunktion oder oder Disjunktion nicht oder Negation für alle es existiert folgt, Subjunktion oder Implikation genau dann, wenn oder Äquivalenz Teilmenge oder Inklusion , mit Gleichheit Element von Gebrauch 8 x : p(x), d.h. für alle x gilt die Aussage p(x), 9 x : p(x), d.h. es existiert ein x, für das p(x) gilt. Negation : ( 8 x : p(x)) , 9 x : :p(x) bzw. : 9 x : p(x) , 8 x : :p(x). Formale Ausdrücke lassen sich formal negieren. Man ersetzt den Quantor 9 durch 8 und umgekehrt, und negiert die Aussage. Wir geben ein Beispiel. f : R ! R heiÿt stetig in x0 , wenn 8 > 0 9 Æ > 0 8 x 2 R : (jx x0 j < Æ ) jf (x) f (x0 )j < ): Eine Funktion Die Negation, also nicht stetig, ist 9 > 0 8 Æ > 0 9 x 2 R : (jx x j < Æ ^ jf (x) f (x )j ): 0 0 Wahrheitstafel. p q p^q p_q p)q p,q w w w w w w w f f f w f w f f w w f f f f f w w 4 LINEARE ALGEBRA alles folgern, Aus einer falschen Aussage kann man 1 = 1 z.B. folgt aus der falschen Aussage mit 0, wahr und falsch, durch Multiplikation also eine korrekte Vorgehensweise, die wahre Aussage 0 Eine Implikation, ), = 0. ist eine Aussage in einer Richtung und gilt i.A. nicht umgekehrt. Die mathematische Widerlegung einer Aussage geschieht immer mit einem Gegenbeispiel . Logikregeln. (1) p _ :p ist immer wahr (vollständige Fallunterscheidung ), (2) :(p ^ q ) , :p _ :q , (3) :(p _ q ) , :p ^ :q , (4) :(p ) q ) , p ^ :q , (5) (p ) q ) , (:q ) :p) (Kontraposition ). 0.2. Mengen. Intuitiv ist eine Menge Eine Menge von Objekten. Das ist jedoch keine exakte Denition. Eine Menge ohne Elemente heiÿt leere Menge , i.Z. ;. Es gibt auch Klassen von Objekten, die keine Mengen sind. Satz 0.2.1. (Russelsche Antinomie) Die Menge aller Mengen ist kei- ne Menge. Beweis. Sei A = fM j M Menge g als Menge angenommen. Also A 2 A, und es gibt eine Menge, die sich selbst enthält. Dann ist auch B = fM j M 2= M g, die Menge aller Mengen, die sich nicht selbst enthalten, eine Menge. Man untersucht, ob B eine Menge ist, die sich selbst enthält oder nicht, und erhält beidemale einen Widerspruch. Denn für B 2 B folgt B 2= B , und für B 2= B Mengen schreibt man in der Form P = fx 2 S j p(x)g S; Für eine endliche Menge P z.B. folgt B 2 B. [0; 1] = fx 2 R j 0 x 1g: bezeichnet für eine unendliche Menge bezeichnet jP j die Anzahl der Elemente, jP j die Mächtigkeit , vgl. Ab- Q wird die Inklusion bezeichnet, hier unter Einbeziehung der Gleichheit. Dabei verwendet man x 2 P , x ist Element von P , und x 2 = P , x ist nicht Element von P , wie üblich. schnitt 0.6. Mit P Mengenoperationen. Seien P = fx 2 S j p(x)g und Q = fx 2 S j q (x)g Teilmengen von S . (a) Durchschnitt : P \ Q = fx 2 S j p(x) ^ q (x)g. (b) Vereinigung : P [ Q = fx 2 S j p(x) _ q (x)}. LINEARE ALGEBRA 5 P Q, wenn 8 x 2 S : p(x) ) q (x) . Gleichheit : P = Q, wenn 8 x 2 S : p(x) , q (x) oder (P Q ^ Q P ). Komplement in S: {P = {S P = fx 2 S j :p(x)g oder fx 2 S j x 2= P g. Dierenzmenge : P n Q = fx 2 S j p(x) ^ :q (x)g oder fx 2 S j x 2 P ^ x 2= Qg = {P (P \ Q). (c) Inklusion : (d) (e) (f ) Rechenregeln für Mengen. Seien P; Q; R S . P [ (Q \ R) = (P [ Q) \ (P [ R); P \ (Q [ R) = (P \ Q) [ (P \ R), die Distributivgesetze . (i) (ii) (iii) (iv) \ Q) = {P [ {Q und {(P [ Q) = {P \ {Q. Q , P [ Q = Q , P \ Q = P , {Q {P . * Q , P \ {Q 6= ; (leere Menge ). {(P P P ): P * Q ) 9 x 2 P : x 2= Q ) 9 x 2 P : x 2 {Q ) 9 x 2 P \ {Q ) P \ {Q 6= ;. (: P \ {Q 6= ; ) 9 x 2 P : x 2 {Q ) 9 x 2 P : x 2 = Q) P * Q. Beweis. Exemplarisch (iv): Mengensysteme. M = fM j 2 Ag heiÿt Mengensystem mit Indexmenge A. Ein 2 A fM j 2 Ag ein System von Teilmengen einer Menge S , d.h. M S für alle 2 A, dann sind Durchschnitt und heiÿt Index . Sei Vereinigung deniert durch T fx 2 S j 8 2 A : x 2 M g = TfM j 2 Ag, S S 2A M = fx 2 S j 9 2 A : x 2 M g = fM j 2 Ag. 2A M = Für Komplemente gelten { Für und S T 2A M = 2A {M { S T 2A M = 2A {M . A = N schreibt man spezieller M = fMn j n 2 Ng = fM1 ; M2 ; : : : g, T n2N Mn = Für und T1 n=1 Mn = M1 \ M \ . Mn = fm 2 N j m ng N , n 2 N , gilt 2 T n2N Mn = ;. 6 LINEARE ALGEBRA Kartesisches Produkt. Die Menge aller geordneten n Y i=1 n-Tupel Pi = P1 Pn = f(x1 ; : : : ; xn ) j xi 2 Pi g P1 ; : : : Q ; Pn, nach Descartes. Unendliche kartesische Produkte schreibt man 2A P und deren Elemente sind die Tupel (x j ) mit Einträgen x 2 P . Die reelle Ebene 2 in der Form R = R R = f(x; y ) j x; y 2 Rg ist ein kartesisches Produkt. Man nennt (x; y ) kartesische Koordinaten . heiÿt kartesisches Produkt der Mengen 0.3. Zahlen. Als Zahlen bezeichnet man z.B. Elemente der Mengen N , Z, Q , R , C , also natürliche, ganze, rationale, reelle und komplexe Zahlen, und viele mehr. Für ganze Zahlen gibt es eine Primfaktorzerlegung. p 2 Znf0; 1g heiÿt Primzahl , wenn sie nur durch 1 p ganzzahlig teilbar ist. Eine ganze Zahl und durch Lemma 0.3.1. Für ganze Zahlen gibt es eine Division mit Rest, d.h. für a; b 2 Z existieren q; r 2 Z mit a = qb + r; 0 r < b: Die Zahl r heiÿt Rest, q und r sind eindeutig bestimmt. Beweis. Es existiert genau eine ganze Zahl 0r=a q mit qb a < (q +1)b, also qb < b, und auch der Rest r ist eindeutig bestimmt. Die folgende Eigenschaft von Primzahlen ist äquivalent zur Denition. Lemma 0.3.2. Wenn eine Primzahl ein Produkt teilt, dann teilt sie mindestens einen Faktor. Umgekehrt sind ganze Zahlen mit dieser Eigenschaft Primzahlen. Beweis. Sei die Primzahl p ab. Wir machen a 6= 1 und b 6= 1, so dass p ein Teiler des Produktes eine Widerspruchsannahme, seien nämlich a noch b teilt, und so dass ab diesbezüglich minimal ist. Dann a = qp + r mit 0 < r < p. Also teilt p die Zahl ab qbp = br < ab, und weil ab minimal war, folgt der Widerspruch, dass p ein Teiler von b ist. Nimmt man umgekehrt an, dass eine ganze Zahl p diese Eigenschaft hat, dann folgt aus dem Ansatz p = ab, o.B.d.A. dass p ein Teiler von a ist, also b = 1, und p ist eine Primzahl. weder gilt, wegen Division mit Rest, LINEARE ALGEBRA 7 Die Primfaktorzerlegung ganzer Zahlen ist eine Konsequenz der Di- vision mit Rest und der Eigenschaft von Primzahlen, wie im obigen Lemma 0.3.2. Satz 0.3.3. Für ganze Zahlen gibt es eine Primfaktorzerlegung, d.h. jede ganze Zahl ist das Produkt von Primzahlen, und dieses Produkt ist eindeutig bis auf Vorzeichen und Reihenfolge. Beweis. Es genügt die Primfaktorzerlegunges für natürliche Zahlen zu a schon eine Primzahl oder zerlegbar, a = bc, mit b 6= 1 und c 6= 1. Fortsetzung dieser Prozedur für die Teiler b; c von a führt nach endlich vielen Schritten zu einer Darstellung von a beweisen. Entweder ist als Produkt von Primzahlen, weil die Teiler immer kleiner werden. Zum Beweis der Eindeutigkeit der Primfaktorzerlegung seien zwei Zer- a = p1 p2 = q1 q2 , mit Primzahlen pi ; qi . p1 das Produkt der qi , also gilt mit Lemma 0.3.2 nach Umordnung p1 = q1 , usw.. legungen angenommen Dann teilt Auf Grund der Primfaktorzerlegung erhält man einen gröÿten gemein- samen Teiler , ggT, und ein kleinstes gemeinsames Vielfaches , p kgV. 2, , e), und i = Reelle Zahlen x 2 R n Q heiÿen irrational (z.B. p 1 2 C heiÿt imaginäre Einheit . Komplexe Zahlen lassen sich verschieden darstellen. Es gibt die kartesische Darstellung z = x + iy 2 C , x; y 2 R , und die Darstellung in Polarkoordinaten z = r ei' , 0 r 2 R , 0 ' < 2 . Dabei heiÿen x p = Re(z ) und y = Im(z ) Realteil bzw. x2 + y 2 ist der Betrag Pythagoras gilt x = Re(z ) jz j und y = Im(z ) jz j. Imaginärteil von z, und r = von z. Nach Relationen. Für zwei Mengen P; Q heiÿt eine Teilmenge R P Q eine (zweistellige) Relation . Man sagt x und y sind R-reliert , und schreibt x R y , sofern (x; y ) 2 R. Die beiden speziellen Relationen R1 = f(x; y ) 2 R 2 j x = yg und R2 = f(x; y) 2 R 2 j x yg bezeichnen Gleichheit, x R1 y , x = y , bzw. Ordnung, x R2 y , x y . Für P = Q gibt 0.4. es einige wichtige spezielle Eigenschaften von Relationen. f(x; x) j x 2 P g R oder 8 x 2 P : x x. 8 x; y 2 P : (x y ) y x). (3) Transitivität : 8 x; y; z 2 P : (x y ^ y z ) x z ). (4) Antisymmetrie : 8 x; y 2 P : (x y ^ y x ) x = y ). (1) Reexivität : (2) Symmetrie : 8 LINEARE ALGEBRA Eine nicht-leere, reexive, symmetrische und transitive Relation auf der Menge P [x] = fy 2 P j y xg x 2 P , und jedes y 2 [x] heiÿt Repräsentant heiÿt Äquivalenzrelation . Die Menge heiÿt Äquivalenzklasse von der Klasse [x]. Lemma 0.4.1. Für eine Äquivalenzrelation auf äquivalent: (1) [x] \ [y ] 6= ;, (2) x y, P und x; y 2P sind (3) [x] = [y ]. ) (2): Falls [x] \ [y] 6= ;, dann existiert ein z 2 [x] \ [y] mit z x und z y . Wegen Symmetrie und Transitivität folgt x y . (2) ) (3): Sei x y und z 2 [x]. Folglich ist z x y , also [x] [y ], Beweis. (1) und somit (3) ) (1) [x] = [y ] Ein System fM j 2 Ag von Teilmengen M S 6= ; heiÿt Zerlegung oder Partition von (1) (2) (3) aus Symmetriegründen. ist oensichtlich. S , wenn gelten: M 6=S; für alle 2 A, S = 2A M , M \ M = ; für alle ; 2 A mit 6= . N ist N = fn 2 N j n ungeradeg [ fn 2 N j n geradeg: Ein Beispiel für eine Partition von Satz 0.4.2. R eine Äquivalenzrelation auf der Menge S , dann bilden die zugehörigen Äquivalenzklassen eine Partition von S . Umgekehrt bestimmt eine beliebige Partition fM j 2 Ag von S eindeutig eine Äquivalenzrelation auf S derart, dass die Partitionsmengen M Sei genau die Äquivalenzklassen sind. Beweis. Nach Lemma 0.4.1 bilden die Äquivalenzklassen eine Partition. Umgekehrt ist durch x y , 9 2 A : x; y 2 M eine passende Äquivalenzrelation deniert. eine Äquivalenzrelation auf P . Dann heiÿt P= = f[x] x 2 P g Quotientenmenge von P bzgl. der Relation . Die Elemente der Sei Quotientenmenge sind die Äquivalenzklassen. Beispiel. Sei f : P ! Q eine Funktion. Dann ist R = f(x; x0 ) 2 P 2 j f (x) = f (x0 )g, d.h. x x0 , f (x) = f (x0 ), eine Äquivalenzrelation auf P , weil die Denition durch eine Gleichung gegeben ist. Sei f (x) = y 2 Q, dann ist [x] = f (y ) = fx 2 P j f (x) = y g das komplette Urbild von y unter f . Identiziert man [x] $ f (x), dann ist P= = f (P ). LINEARE ALGEBRA 9 [2A M ist eine Partition mit den Äquivalenzklassen M . Mit f : P ! P= , Sei umgekehrt eine Äquivalenzrelation auf P , d.h. P = f (x) = [x], ist eine Funktion deniert derart, dass die Urbilder der Bildpunkte [x] genau die Mengen [x], also die Äquivalenzdeniert durch klassen, sind. Eine Funktion deniert also in natürlicher Weise eine Äquivalenzrelation auf ihrem Denitionsbereich und umgekehrt. Eine nichtleere, reexive, antisymmetrische und transitive Relation heiÿt Ordnungsrelation . gleichbar . Wenn weder x y , und nennt x; y very x gilt, dann heiÿen x und y Man schreibt x y, noch unvergleichbar . Eine geordnete Menge heiÿt linear geordnet , wenn je zwei Elemente vergleichbar sind, sonst spricht man von Ordnung , bzw. von Halbordnung . Ordnung. N , Z, Q , R sind linear geordnet bzgl. ihrer üblichen g aller Teilmengen von P heiÿt Potenzmenge von P , insbesondere ;; P 2 P(P ). Die PotenzmenDie Menge P(P ) = fU P j U Teilmenge ge ist geordnet bzgl. der natürlichen Inklusion von Teilmengen. Nur für P = fxg, d.h. eine Menge mit nur einem Element, ist n die Potenzmenge o linear geordnet, denn für d.h. P = fx; yg, ist P(P ) fxg und fyg sind unvergleichbar. n ist jP(P )j = 2n . = ;; fxg; fyg; P Für eine endliche Menge P , der Mächtigkeit 0.5. Funktionen. Abbildung , Zuordnung und Funktion sind synonyme Begrie. Wir verwenden den Begri Funktion suggestiv, ohne Denition. Man f : P ! Q, deniert durch f (x) = y . Das Element y heiÿt Bild von x, und x heiÿt Urbild von y . Das komplette Urbild von y ist f (y ) = fx 2 P j f (x) = y g. Die Menge P heiÿt Denitionsbereich , Q heiÿt Bildbereich . f (P ) Q heiÿt Bild von P unter f . Die Teilmenge R = f x; f (x) 2 P Qg P Q heiÿt Graph von f . Eine Funktion ist charakterisiert durch die Eigenschaft, dass es zu einem x 2 P genau ein Bild y 2 Q gibt. schreibt: Eigenschaften von Funktionen. Sei f : P ! Q eine Funktion. f heiÿt injektiv , wenn 8 x; x0 2 P : (f (x) = f (x0 ) ) x = x0 ). f heiÿt surjektiv , wenn 8 y 2 Q 9 x 2 P : f (x) = y, bzw. f (P ) = Q. f heiÿt bijektiv oder umkehrbar , wenn ist. f injektiv und surjektiv 10 LINEARE ALGEBRA f : P ! Q, f (x) = y , schreibt man f : Q ! P , deniert durch f 1 (y ) = x. Es gelten 1 f (f (x)) = x und f (f 1 (y )) = y . Insbesondere ist f 1 6= f , wobei f das komplette Urbild für f bezeichnet. Vereinbart man f : R + ! R , deniert durch f (x) = px, wobei px 2 R mit (px)2 = x, so ist das Für die Umkehrfunktion der bijektiven Funktion 1 keine Funktion, da das Vorzeichen der Wurzel nicht festgelegt ist. Satz 0.5.1. Für gleichgroÿe endliche Mengen P und Q und eine Funktion f : P ! Q sind äquivalent: (1) f ist injektiv, (2) f ist surjektiv, (3) f ist bijektiv. )(2): f injektiv ) jP j = jf (P )j jQj = jP j mit Gleichf (P ) = Q. (2))(1): f surjektiv ) jf (P )j = jQj und jP j jf (P )j = jQj = jP j mit Gleichheit, also jP j = jf (P )j und f ist injektiv. Beweis. (1) heit, also Damit ist auch (3) äquivalent zu (1) und zu (2). Der Satz gilt nicht für unendliche Mengen, denn seien sei f : N ! N , deniert durch f (x) = 2x. P =Q=N Natürlich ist f und injektiv, aber nicht surjektiv. Man schreibt f Æg : P ! R, deniert durch (f Æ g)(x) = f (g(x)), für die Komposition bzw. Hintereinanderausführung der Funktionen ! Q und f : Q ! R. Satz 0.5.2. Seien f : P ! Q und g : Q ! P Funktionen. Wenn g Æ f = idP und f Æ g = idQ Identitäten sind, dann sind f und g bijektiv, g:P und g=f 1 . f als bijektiv nachzuweisen. 0 0 Zuerst zeigen wir die Injektivität. Seien x; x 2 P mit f (x) = f (x ). 0 0 0 Also x = (g Æ f )(x) = g (f (x)) = g (f (x )) = (g Æ f )(x ) = x , und f ist Beweis. Aus Symmetriegründen genügt es injektiv. Weiter zeigen wir die Surjektivität. Sei y 2 Q. Wegen g (y ) = x 2 P ist y = (f Æ g )(y ) = f (g (y )) = f (x), und f ist surjektiv, also auch bijektiv. 1 Da f bijektiv ist, gelten f (P ) = Q und x = f (f (x)) = g (f (x)) 1 für alle x 2 P . D.h. f und g haben für jedes Element f (x), also für alle Elemente von Q, gleiche Werte, sind also gleich. LINEARE ALGEBRA 11 Mächtigkeit von Mengen. Die Mengen P; Q heiÿen gleichmächtig , jP j = jQj, wenn es eine Bijektion f : P ! Q gibt, z.B. jZj = j2 Zj, per z 7! 2z. Der folgende Satz, 0.6. der ohne Beweis angegeben wird, erleichtert die Feststellung, ob zwei Mengen gleichmächtig sind. Satz 0.6.1. (Schroeder, Bernstein, [5]) Zwei Mengen sind genau dann gleichmächtig, wenn es gegenläuge injektive Abbildungen gibt. Natürlich ist jf1; : : : ; ngj = n. Man schreibt j N j = @ heiÿt abzählbar unendlich. Hat die Menge P 0 bezeichnet man die Mächtigkeit der Potenzmenge mit @ sagt man zu @1 = 2 0 (aleph), und die Mächtigkeit 2c . c, N dann Insbesondere überabzählbar unendlich . Die Potenzmenge einer @ < @ < . N und Z sind gleichmächtig, vermöge der Bijektion: 1 7! 0; 2 7! 1; 3 7! 1; 4 7! 2; 5 7! 2; : : : . Satz 0.6.2. (Cantor) @ = j N j = j Q j < j R j = j C j = @ = 2@0 . Menge hat immer eine echt gröÿere Mächtigkeit, d.h. 0 1 Die Mengen 0 1 Die Vereinigung von abzählbar vielen abzählbaren Mengen ist wieder abzählbar. Beweis. Nach dem Satz von Schroeder-Bernstein N und der Bijektion Z, genügt es eine Abzählung von Q = f mn j m; n 2 Ng zu denieren, um j N j = j Q j zu zeigen. Durch die Pfeile in der zwischen und + folgenden Tabelle ist die gewünschte Abzählung deniert, wobei die Duplikationen wegzulassen sind. # m n n! 1 2 3 4 .. . 1 1=1# 2 3 1=2! 1=3. 1=4! 2=1% 2=2. 2=3% 3=1# 4=1% 4 3=2% .. .. .. . . . .. . Mit demselben Argument zeigt man auch, dass die Vereinigung von abzählbar vielen abzählbaren Mengen wieder abzählbar ist. Mit dem sog. Cantorschen Diagonalverfahren beweist man, dass R nicht abzählbar ist. Wir nehmen eine Abzählung aller reellen Zahlen 12 LINEARE ALGEBRA im Intervall (0; 1) = fx 2 R j 0 < x < 1g = fx ; x ; : : : g als gege1 2 ben an und verwenden die Dezimalbruchentwicklung bzw. 10-adische Entwicklung . x1 = 0; a11 a12 a13 : : : x2 = 0; a21 a22 a23 : : : x3 = 0; a31 a32 a33 : : : .. . Die Zahl y = 0; y1y2 y3 : : : , in Dezimalbruchentwicklung mit den Ziern yi = 4 5 ist dann nicht in der Liste der aii = 5 ; aii 6= 5 falls falls xj , im Widerspruch zur Annahme. Es y mehr1; 0 : : : = wird angemerkt, dass durch die Wahl der Ziern 4 und 5 für deutige Dezimalbruchentwicklungen von 0; 9 : : : . y vermieden, z.B. j R j = j C j genügt es nach dem Satz von SchroederBernstein eine injektive Abbildung von C in R zu nden. Dergleichen Für die Aussage gibt es viele, aber der Beweis wird hier weggelassen. 0.7. Beweise, Beispiele. Es gibt direkte und indirekte Beweise. Bei letzteren wird das Gegenteil der Behauptung angenommen und zum Widerspruch geführt. Wir geben einige Beispiele für die verschiedenen Beweistechniken. Der Beweis, dass das geometrische Mittel kleiner oder gleich dem arith- metischen Mittel ist, wird direkt geführt. Satz 0.7.1. x; y 2 R Für positive gilt pxy x y. + 2 Beweis. 0 (x y )2 = x2 ) xy da 2xy + y 2 x + y 2 x; y beide positiv sind. Der Beweis, dass das Satz 0.7.2. p 2 p 2 2 ) xy 14 (x + 2xy + y ) ) pxy x + y ; 2 2 2 nicht rational ist, wird indirekt geführt. ist irrational. LINEARE ALGEBRA p 13 2 = m n 2 Q angenommen, mit m; n 2 N teilerfremd. 2 m 2 2 2 Aus 2 = 2 , d.h. 2n = m , folgt, dass 2 ein Teiler von m ist, d.h. 2 n 2 teilt m , und 2 teilt sogar m nach Lemma 0.3.2. Folglich ist 4 ein Teiler 2 von 2n und 2 teilt n, wegen der Primfaktorzerlegung, ein Widerspruch Beweis. Sei zur Teilerfremdheit von m und n. Der Beweis des antiken Satzes von Euklid (300 v. Chr) ist indirekt. Satz 0.7.3. (Euklid) Es gibt unendlich viele Primzahlen. Beweis. Unter der Annahme, dass es nur die endlich vielen Primzahlen p; q; : : : ; r, gibt, betrachten wir die Zahl z = (pq r) + 1 in Primfak0 torzerlegung, vgl. Satz 0.3.3. Also teilt p o.B.d.A. z . Somit ist z = pz 0 0 0 mit z 2 N und pz = z = p(q r ) + 1, d.h. p(z q r) = 1, im Widerspruch zu p 6= 1. Induktionsbeweis. Das Prinzip der vollständigen Induktion wird benutzt um einen Induk- tionsbeweis zu führen, d.h. eine Aussage p(n) für alle n 2 N zu zeigen. Häug benutzt man das folgende Schema. Satz. Für alle natürlichen Zahlen gilt p(n). n. p(1). Gelte p(m) für alle m 2 N ; m n. Beweis. Induktion über Induktionsbeginn: Es gilt Induktionsannahme: Induktionsschluss: Unter Verwendung der Annahme folgt Der Induktionsbeginn kann eine beliebige Zahl aus N 0 p(n +1) . sein. Den fol- genden Satz mit Induktionsbeweis schreibt man Gauÿ als Schulkind zu. Satz 0.7.4. (Gauÿ) Pn n(n+1) . k=1 k = 2 Beweis. Induktion über n. Beginn: Die Formel ist richtig für n = 1. Annahme: Sei die Formel richtig für alle m 2 N ; m n. Schluss: Unter Verwendung der Annahme folgt n+1 X k=1 k= n X k=1 k + (n + 1) = n(n + 1) 2 + (n + 1) = (n + 1)(n + 2) : 2 14 LINEARE ALGEBRA 1. Algebraische Strukturen und Vektorräume Eine Menge mit Verknüpfungen heiÿt algebraische Struktur . Die Ei- genschaften der Verknüpfungen werden durch Axiome festgelegt. 1.1. Gruppen. M ist eine Abbildung : M M ! M; (x; y) 7! x y = xy; Eine (zweistellige) Verknüpfung in einer Menge oft bezeichnet als Produkt. Meistens wird der Multiplikationspunkt weggelassen. Denition. Eine nichtleere Menge G = (G; ) mit einer Verknüpfung heiÿt Gruppe , wenn die folgenden Axiome, hier Gruppenaxiome , gelten. x; y; z 2 G gilt (x y ) z = x (y z ). e, d.h. x e = x für alle (G1) (Assoziativgesetz ) Für alle (G2) Es gibt ein (rechts-)neutrales Element x 2 G. (G3) Es gibt (rechts-)inverse Elemente , d.h. zu jedem ein x0 2 G mit x x0 = e. x 2 G existiert Eine Gruppe heiÿt kommutativ oder abelsch , wenn zusätzlich gilt: (G4) (Kommutativgesetz ) Für alle x; y 2 G ist x y = y x. Im folgenden Lemma werden einige Konsequenzen der Gruppenaxiome formuliert. Lemma 1.1.1. Sei (G; ) eine Gruppe. (1) Es existiert genau ein neutrales Element, d.h. das rechtsneutrale e ist eindeutig bestimmt und xe = ex = x für alle x 2 G. 1 Es existiert genau ein inverses Element für x, bezeichnet mit x , 0 0 d.h. das rechtsinverse Element x ist eindeutig bestimmt und xx = 0 x x = e für alle x 2 G. 1 1 Für alle x; y 2 G ist (x ) = x und (xy ) 1 = y 1 x 1 . Für a; b 2 G sind die Gleichungen xa = b und ay = b immer 1 1 und eindeutig lösbar mit x = ba bzw. y = a b. Insbesondere Element (2) (3) (4) gelten die Kürzungsregeln: ab = ac =) b=c und ab = cb =) a = c: Beweis. (1) und (2): Die Beweise von (1) und (2) sind gekoppelt. Sei x0 x, und sei x00 ein Rechtsinverses von x0 . Dann 0 ist sowieso xx = e, aber auch x0 x = (x0 x)e = (x0 x)(x0 x00 ) = x0 (xx0 ) x00 = (x0 e)x00 = x0 x00 = e; ein Rechtsinverses von LINEARE ALGEBRA 15 d.h. Rechtsinverse sind auch Linksinverse. Damit folgt ex = (xx0 )x = x(x0 x) = xe = x; d.h. ein rechtsneutrales Element ist auch linksneutral. Man verwendet diese beiden Überlegungen, und nimmt an, dass es die beiden Rechtsinversen x0 ; x00 von x gibt. Dann folgt deren Gleichheit x0 = x0 e = x0 (xx00 ) = (xx0 )x00 = ex00 = x00 ; d.h. inverse Elemente sind eindeutig bestimmt. rechtsneutrale Elemente e; e0 Weiter gilt für zwei e = ee0 = e0 ; d.h. es gibt genau ein neutrales Element. Zusammenfassend sind (1) und (2) gezeigt. (3): Die Beziehung (x 1 ) 1 = x folgt aus (2), und (xy ) 1 = y 1x 1 bestätigt man durch Einsetzen. (4): Die angegebenen Lösungen bestätigt man durch Einsetzen und die Kürzungsregeln folgen per Linksmultiplikation mit multiplikation mit b 1 a 1 bzw. Rechts- . Damit ist auch die Eindeutigkeit der Lösungen gezeigt. Denition. (Untergruppenkriterium ) Eine nicht-leere Teilmenge G heiÿt Untergruppe , wenn gelten: hh0 2 H für alle h; h0 2 H . h 1 2 H für alle h 2 H . H einer Gruppe (UG1) (UG2) Es ist einfach zu zeigen, dass die beiden Bedingungen (UG1) und (UG2) zur Bedingung (UG) äquivalent sind. (UG) Man h 1 h0 2 H schreibt H für alle h; h0 2 H . G (Gleichheit eingeschlossen) und sagt, H ist ab- H ist bzgl. der inG eingeschränkt auf die Insbesondere hat H dasselbe neutra- geschlossen bzgl. Multiplikation und Inversion, d.h. duzierten Operation , d.h. die Verknüpfung in H , selbst eine Gruppe. G. Die Untergruppenbeziehung ist transitiv , d.h. aus H L G folgt H G. Wenn sich alle Elemente einer Gruppe G als Produkt der Elemente x1 ; x2 ; : : : 2 G bzw. ihrer Inversen darstellen lassen, dann sagt man, dass G von diesen Elementen erzeugt wird und man schreibt G = hx1 ; x2 ; : : : i. Die Menge fx1 ; x2 ; : : : g heiÿt ein Erzeugendensystem von G. Eine Gruppe, die von einem Element erzeugt wird, heiÿt Teilmenge le Element wie zyklisch . 16 LINEARE ALGEBRA Beispiel. (1) (Z; +) (Q ; +) (R ; +) (C ; +) sind additiv ge- schriebene abelsche Gruppen in Untergruppenbeziehung. Die additive Z = h1i ist eine unendliche zyklische Gruppe mit dem erzeugenden Element 1. Dagegen ist (N ; +) keine Gruppe. (2) (Q n0; ) (R n0; ) (C n0; ) sind multiplikativ geschriebene abelsche Gruppen in Untergruppenbeziehung. (Zn0; ) ist keine Gruppe. (3) Die Menge der Permutationen von f1; : : : ; ng, für n 3, ist bzgl. Gruppe Hintereinanderausführung eine nichtabelsche Gruppe mit ist die kleinste, nicht abelsche Gruppe. Sie hat G = f1; x : : : ; xng 2 und neutralem Element Multiplikationen in 1 1 1 . . . . . . . .. . . . G. x2 x2 x3 x3 1. Elemen- Sn , vgl. [3, symmetric group]. ten, die sog. symmetrische Gruppe (4) Sei n! 6 Die S3 Elemente. eine endliche Gruppe mit n Elementen Die folgende Gruppentafel beschreibt alle x2 x3 x2 x3 x2 x2 x2 x3 x3 x2 x3 x3 xj xj x2 xj x3 xj . . . xn xn x2 xn x3 xn . . . xi xi xi x2 xi x3 xixj xi xn xn xn xn x2 xn x3 xn xj xnxn . . . . . . Auf Grund der Kürzungsregel stehen in jeder Zeile und in jeder Spalte einer Gruppentafel jeweils genau alle Gruppenelemente. Insbesondere xi genau einmal in jeder Zeile und in jeder Spalte. Solch eine quadratische n n Anordnung von n Symbolen, meist 1; : : : ; n, derart dass jedes Symbol genau einmal in jeder Zeile steht also jedes einzelne Element und jeder Spalte auftritt, nennt man ein Lateinisches Quadrat . Allerdings ist nicht jedes Lateinische Quadrat eine Gruppentafel, auch schon deswegen nicht, weil die Multiplikation in einer Gruppe assoziativ ist. Die Gruppentafel für eine Gruppe und ist eindeutig bestimmt: G = f1; a; bg der Ordnung 3 existiert a b 1 1 a b a a b 1 b b 1 a 1 LINEARE ALGEBRA a Also ist = 1 3. Ordnung b, 17 und es gibt (strukturell) genau eine Gruppe der Die Symmetrie einer Gruppentafel bzgl. der Hauptdia- gonalen, so wie bei der Gruppe der Ordnung 3, ist äquivalent zur Kommutativität. Es gibt zwei strukturell verschiedene Gruppen der Ordnung 4, die sog. zyklische Gruppe und die elementar abelsche Gruppe , beide sind Letztere heiÿt auch Kleinsche Vierergruppe . abelsch. Die Gruppen- tafel der Kleinschen Vierergruppe ist im Beispiel nach Lemma 1.2.1 angegeben. Bemerkung. Die leere Menge ist keine Gruppe, weil sie kein neu- trales Element enthält. Die Gruppe mit nur einem Element heiÿt triviale Gruppe , bzw. Null-Gruppe oder xm+n geln , d.h. x 1-Gruppe , je nach Schreib- In multiplikativ geschriebenen Gruppen gelten die Potenzre- weise. n= x 1 n = xm xn und xmn xm = n , für alle m; n 2 Z, wobei . Abelsche Gruppen schreibt man oft additiv. In additiv nx = x + + x n Summanden, und man erhält die Potenzregeln in der Form: (m + n)x = mx + nx, bzw. mnx = m(nx) und nx = x x. geschriebenen abelschen Gruppen bezeichnet z. B. mit 1.2. Körper und Ringe. Mit dem Gruppenbegri erhält man weitere algebraische Strukturen . Denition. Eine Menge K = (K; +; ) mit zwei Verknüpfungen heiÿt Körper , wenn die folgende Axiome, hier Körperaxiome , gelten. (K1) (K; +) ist eine additiv geschriebene abelsche Gruppe mit 0 als neutralem Element. (K2) (K n 0; ) ist eine multiplikativ geschriebene Gruppe mit 1 als neutralem Element. a; b; c 2 K gelten a(b + c) = ab + ac und (a + b)c = ac + bc: (D) (Distributivgesetze ) Für alle Ist (K n 0; ) eine abelsche Gruppe in (K2), d.h. ab = ba für a; b 2 K , dann spricht man von einem kommutativen Körper . Für ein Element Es gilt die Konvention Punkt vor Strich, wobei der Multi- das Negative von Für a 2 K n 0 heiÿt a a von a. a. a heiÿt 1 das Inverse plikationspunkt i.A. weggelassen wird. Eine Teilmenge eines Körpers, die 0 und 1 enthält heiÿt Teilkörper , wenn sie bzgl. der induzierten Verknüpfungen abgeschlossen ist. Im folgenden Lemma werden einige Konsequenzen der Körperaxiome formuliert. 18 LINEARE ALGEBRA Lemma 1.2.1. (1) (2) Sei (K; +; ) ein Körper. 1 6= 0, insbesondere hat jeder a0 = 0a = 0 für alle a 2 K . Körper mindestens zwei Elemente. ( a)b = a( a; b 2 K , insbesondere ist ( a)( b) = ab. Aus ab = 0 folgt a = 0 oder b = 0. b) (3) Die Vorzeichenregel gilt, d.h. (4) Beweis. (1): Nach (K2) gilt = für alle 1 2 K n 0. a0 + a0 = a(0 + 0) = a0, 0a = 0. (2): Mit dem Distributivgesetz folgt a0 = 0 nach (K1). ab Analog folgt also ist ab + ( a)b = (a a( b) = ab, und (3): Nach dem Distributivgesetz, (K1) und (2) gilt a)b = 0b = 0, also ( zusammen ergibt sich ( a)b = ab. Analog a)( b) = ab. folgt a 6= 0 führt Linksmultiplikation der Gleichung ab = 0 mit a 1 mittels (2) zu b = a ab = 0. (4): Für Bemerkung. 1 Die Vorzeichenregel folgt im Wesentlichen aus den Dis- tributivgesetzen. Beispiel. (1) Teilkörper. (2) Die Menge bzw. 1= Q ; R; C sind kommutative Körper und Q R C sind GF(2) = Z2 = f0; 1g ist mit der Vereinbarung 1 + 1 = 0, 1, ein Körper mit zwei Elementen. Das ist der kleinste KörGF(q ) sind kommutativ, vgl. [3, Wedderburn's n haben als Ordnungen Primzahlpotenzen q = p und zu je- per. Endliche Körper Theorem], der Primzahlpotenz gibt es (bis auf Isomorphie) genau einen Körper, vgl [3, Finite Fields]. Die Bezeichnung GF(q ) steht für Galois eld . Die rationalen Quaternionen bilden den kleinsten nicht kommutativen Körper, vgl. [3, Quaternions]. Nicht kommutative Körper heiÿen auch Schiefkörper . (3) Für einen endlichen Körper K sind (K; +) und (K n 0; ) endli- che Gruppen, die sich durch Gruppentafeln beschreiben lassen. Man spricht hier von der Additionstafel und der Multiplikationstafel . den Körper Für GF(2) = f0; 1g ist die Additionstafel durch 1 + 1 = 0 völlig fest gelegt, die Multiplikationstafel ist sowieso trivial. GF(4) = f0; 1; a; bg ist im Bei3 sich wegen 1 + 1 = 0 eindeutig Die Multiplikationstafel für den Körper spiel nach Lemma 1.1.1 als Gruppentafel einer Gruppe der Ordnung angegeben. Die Additionstafel ergibt zu: LINEARE ALGEBRA + 0 1 0 1 0 1 1 0 a a b b b a 19 a b a b b a 0 1 1 0 Das ist die Gruppentafel der Kleinschen Vierergruppe. Eine Menge R = (R; +; ) mit zwei Verknüpfungen heiÿt (R; +) eine additiv geschriebene abelsche Gruppe ist, wenn Denition. Ring , wenn die Multiplikation assozativ ist, und wenn die Distributivgesetze gelten. Das sind die Ringaxiome . Für Ringe gilt, wie in Körpern, Z ist ein kommutativer Ring mit 1. und es gilt die Vorzeichenregel. Der Ring 2 Z hat 1. keine Vektorräume. Denition. Sei K a0 = 0a = 0, 1.3. ein kommutativer Körper und geschriebene abelsche Gruppe. deniert durch (a; v ) 7! av. V eine additiv KV ! V K -Vektorraum , Sei eine Verknüpfung Dann heiÿt (V; +; ) ein wenn folgende Axiome, hier Vektorraumaxiome , gelten: (V1) (Gemischte Assoziativität ) Für alle (ab)v = a(bv ). a; b 2 K; v 2 V ist a; b 2 K; u; v 2 V a(u + v ) = au + av und (a + b)v = av + bv . (Normierung ) Für alle v 2 V ist 1v = v . (V2) (Gemischte Distributivität ) Für alle (V3) ist Elemente eines Vektorraums heiÿen Vektoren , Elemente aus dem Körper K und K av heiÿen Skalare oder Koezienten , die Verknüpfung Skalarmultiplikation . 0 2V heiÿt Skalarenkörper . Die V heiÿt = 0 heiÿt Nullraum , Verknüpfungen + und für V heiÿt Nullvektor , heiÿen lineare Operationen , wobei wiederum der Multiplikationspunkt i.A. weggelassen wird. Die 0 bezeichnet auch den Nullvektor, je nach Kontext. sowohl die Null im Körper, als Ist K = R bzw. K = spricht man von einem reellen bzw. komplexen Vektorraum. Nimmt man in den Vektorraumaxiomen statt eines Körpers einen Ring spricht man von einem R-Modul und von Modulaxiomen . C , so R, so Die leere Menge ist kein Vektorraum, weil ein Vektorraum als additive abelsche Gruppe ein neutrales Element hat. Mit dem Buchstaben tig stets ein Vektorraum bezeichnet. V wird künf- = f(a1 ; : : : ; an ) j ai 2 K g, K , also die Menge aller n-Tupel mit Einträgen aus K , wird zu einem n-dimensionalen K -Vektorraum, dem sog. Beispiel. (1) Die kartesische Potenz eines kommutativen Körpers Kn 20 LINEARE ALGEBRA arithmetischen Vektorraum , vermöge der folgenden linearen Operationen für n-Tupel. (a1 ; : : : ; an ) + (b1 ; : : : ; bn ) = (a1 + b1 ; : : : ; an + bn ); a(a1 ; : : : ; an ) = (aa1 ; : : : ; aan ): (2) Insbesondere ist jeder Körper ein Vektorraum über einem Teilkörper. Also kann werden. (3) Die Menge C M auf dem Intervall für alle f; g z.B. als Q -, R - oder als C -Vektorraum aufgefasst = ff j f : [a; b] ! Rg aller reellwertigen Funktionen [a; b] wird vermöge der linearen Operationen (f + g )(t) = f (t) + g (t) und (af )(t) = a f (t ) ; 2 M; a 2 R ; t 2 [a; b], zu einem reellen Vektorraum mit der Nullfunktion als Nullvektor. Lemma 1.3.1. Für einen K -Vektorraum V (1) 0v = 0 und a0 = 0, (2) av = 0 impliziert a = 0 oder v = 0, (3) v = ( 1)v . mit a 2 K, v 2 V gelten: V und K sind additive abelsche Gruppen, und aus 0v = (0 + 0)v = 0v + 0v , bzw. a0 = a(0 + 0) = a0 + a0 folgen beide Aussagen. Beweis. (1): (2): Mit a 6= 0 folgt aus av = 0 mittels (1) v = 1v = (a 1 a)v = a 1 (av ) = a 1 0 = 0: (3): Das Distributivgesetz und (2) implizieren v+( 1)v = 1v + ( 1)v = 1 + ( 1) v = 0: LINEARE ALGEBRA 21 2. Unterräume, Basis und Dimension Unterräume. Denition. (Unterraumkriterium ) Eine nicht-leere Teilmenge U eines K -Vektorraumes V heiÿt Unterraum , wenn gelten: 0 0 (UR1) u + u 2 U für alle u; u 2 U . (UR2) au 2 U für alle u 2 U; a 2 K . Man schreibt U V (Gleichheit eingeschlossen) und sagt, U ist linear abgeschlossen , d.h. U ist bzgl. der induzierten linearen Operationen, d.h. die Verknüpfungen in V eingeschränkt auf die Teilmenge U , selbst ein Vektorraum und hat denselben Nullvektor wie V . Die Unterraumbeziehung ist transitiv , d.h. aus U W V folgt U V . Es sei hier ausdrücklich erwähnt, dass für einen Vektorraum V die Bezeichnung U V stillschweigend einen Unterraum U bezeichnet. Sollte mit U tatsächlich nur eine Untermenge gemeint sein, dann wird 2.1. das explizit erwähnt. Beispiel. Der arithmetische reelle Vektorraum R 2 = f(a; b) j a; b 2 Rg, also die reelle Ebene, hat u.A. als Unterräume den Nullraum 0 = f(0; 0)g, den ganzen Raum R , die x-Achse X = f(a; 0) j a 2 Rg, die y -Achse Y = f(0; a) j a 2 Rg, und die Winkelhalbierende W = f(a; a) j a 2 Rg. 2 Denition. K -Vektorraum. Endliche Summen der Form (2.1) v = a1 v1 + + an vn ; mit ai 2 K und vi 2 V , heiÿen Linearkombinationen der Vektoren vi . Sei M eine (nicht notwendig endliche) Teilmenge eines Vektorraumes, seien v1 ; : : : ; vn 2 M und a1 ; : : : ; an 2 K , dann heiÿt ein Ausdruck der Form (2.1) eine Linearkombination von M , bzw eine Darstellung von v bzgl. M . Die Darstellung a1 v1 + + an vn = 0 des Nullvektors heiÿt trivial , wenn alle Skalare ai = 0 sind, und nicht trivial, wenn ai 6= 0 für mindestens einen Index i gilt. P1 Unendliche Ausdrücke ähnlich zu (2.1), z.B. von der Form i=1 ai vi , Sei V ein sind mit den Vektorraumaxiomen nicht denierbar. Man braucht dafür einen Konvergenzbegri , wie z.B. in der Analysis. Satz 2.1.1. Sei M eine nicht-leere Teilmenge des Dann ist die Menge L(M ) = n nX i=1 K -Vektorraumes V . ai vi j n 2 N ; ai 2 K; vi 2 M aller Linearkombinationen von M ein Unterraum von o V. 22 LINEARE ALGEBRA 0 = 0v Beweis. Wegen 2 L(M ) für ein beliebiges v 2 M ist L(M ) nicht leer. Die lineare Abgeschlossenheit von L(M ) folgt sofort aus der Form der Elemente. Satz 2.1.2. Der Durchschnitt von (beliebig vielen) Unterräumen eines Vektorraumes ist ein Unterraum. D T U 2S U der Durchschnitt des Unterraumsystems S K -Vektorraumes V . Da alle Unterräume U den Nullvektor enthalten, ist D nicht leer, und es genügt die lineare Abgeschlossenheit von D zu zeigen. Seien u; v 2 D , d.h. u; v 2 U für alle U 2 S . Dann ist auch u + v 2 U für alle Unterräume U 2 S . Somit ist u + v 2 D. Analog bestätigt man, dass av 2 D , für a 2 K und v 2 D . Beweis. Sei = des Bemerkung. Wenn der Durchschnitt von Unterräumen gleich 0 ist dann sagt man, dass der Durchschnitt trivial ist. Insbesondere ist der Durchschnitt von Unterräumen niemals leer. Denition. M eines Vektorraumes V fU j M U; Unterraum U g Für eine Teilmenge hM i = \ heiÿt M . Das ist oensichtlich der kleinste Unterraum V , der M enthält. Es gilt h;i = 0. Satz 2.1.3. Das Erzeugnis einer nicht-leeren Teilmenge M des Vektorraumes V ist die Menge aller Linearkombinationen von M , d.h. hM i = L(M ). das Erzeugnis von von L(M ) folgt hM i L(M ) laut Denition und nach Satz 2.1.1. Umgekehrt folgt für alle Unterräume U von V aus M U sofort L(M ) U , also L(M ) hM i mit Gleichheit. Satz 2.1.4. Seien U; W V Unterräume des Vektorraumes V . Die Menge U [ W ist genau dann ein Unterraum, wenn entweder U W oder W U . Beweis. Es genügt für U 6 W und W 6 U zu zeigen, dass U [ W nicht linear abgeschlossen ist. Die Summe u + w der Elemente w 2 W n U 0 und u 2 U n W ist nicht in U [ W , denn z.B. der Ansatz u + w = u 2 U 0 u 2 U. führt zum Widerspruch w = u Beweis. Aus M Denition. Sei S eine (beliebige) Menge von Unterräumen des S S V , sei mit S = fU j U 2 S g die Mengenvereinigung der Unterräume in S bezeichnet. Dann heiÿt der Unterraum X fU j U 2 S g = S S = L S S Vektorraumes LINEARE ALGEBRA 23 S . Die Elemente dieser Summe sind endliche Summen der Form v = u1 + + un , wobei die ui aus jeweils einem der Unterräume aus der Menge S sind. Insbesondere ist U + W = fu + w j u 2 U; w 2 W g = hU [ W i die Summe von U; W V , also der kleinste Unterraum, der U und W enthält. die Summe der Unterräume aus Die Menge aller Unterräume eines Vektorraumes ist mit der üblichen Inklusion eine geordnete Menge und hat die beiden Verknüpfungen Durchschnitt und Summe. Das Distributivgesetz, wie für Mengen, vgl. die Rechenregeln für Mengen, Kapitel 0.2, gilt nicht. x-Achse X , Ebene (W R 2 die y -Achse Y und die Winkelhalbierende , wie im obigen Beispiel, ist \ X ) + (W \ Y ). W \ (X + Y ) Denn für die W = der reellen R 6= 2 0 = Stattdessen gilt das schwächere Dedekindsche Modulargesetz oder auch nur Modulargesetz . Lemma 2.1.5. (Dedekindsches Modulargesetz) Seien X Y gilt X \ (Y + W ) = Y + (X \ W ): X; Y; W Unter- räume eines Vektorraums. Für X \ (Y + W ) Y + (X \ W ). x = y + w 2 X \ (Y + W ), dann ist w = x y X \ (Y + W ) Y + (X \ W ). Beweis. Sowieso ist Sei umgekehrt 2 X\W und Basis und Dimension. Denition. Eine Teilmenge M V eines Vektorraumes mit V = hM i = L(M ) heiÿt Erzeugendensystem von V . Ein Vektorraum heiÿt 2.2. endlich erzeugt , wenn er ein endliches Erzeugendensystem besitzt, z.B. V = hv1 ; : : : ; vn i. Es ist natürlich, nach minimalen Erzeugendensystemen eines Vektorraumes zu fragen. Hierfür dient die folgende und wichtigste Denition der Linearen Algebra. Denition. Vektoren v1 ; : : : ; vn 2 V , die nur die triviale Darstellung des Nullvektors gestatten, heiÿen linear unabhängig , d.h. a1 v1 + + an vn = 0 sonst linear abhängig . )a ai 2 K; Eine (nicht notwendig endliche) Menge M heiÿt 1 = = an = 0; wobei linear unabhängig, wenn jede endliche Teilmenge linear unabhängig ist. Ein einzelner Vektor v 6= 0 ist linear unabhängig. Eine Menge, die den Nullvektor enthält, ist linear abhängig, die leere Menge ist linear unabhängig. Obermengen linear abhängiger Mengen sind linear abhängig, Teilmengen linear unabhängiger Mengen sind linear unabhängig. 24 LINEARE ALGEBRA Beispiel. Die n-Tupel e1 = (1; 0; : : : ; 0); e2 = (0; 1; 0; : : : ; 0) : : : ; en = (0; : : : ; 0; 1); n im n-dimensionalen arithmetischen Vektorraum K heiÿen Einheitsvektoren . Sie sind oensichtlich linear unabhängig. Für eine Teilmenge S V eines Vektorraumes V stellen sich zwei zentrale Fragen. T S v 2 V , dass v 2= hS i? (1) Wie sehen die minimalen Teilmengen (2) Wie erkennt man für aus mit hT i = hS i? Die Antwort wird durch die folgenden beiden Lemmata gegeben. Lemma 2.2.1. Seien T S V Teilmengen des Vektorraumes V mit hT i = hS i. Die Menge T ist genau dann minimal bzgl. hT i = hS i, wenn sie linear unabhängig ist. h;i = 0 genügt es 0 2= T 6= ; und hT i = hS i zu bev ; : : : ; vn 2 T mit einer Pn nicht trivialen Darstellung 6 0, d.h. i ai vi = 0. Sei o.B.d.A. a = Pn v = a a v . Somit h T n f v gi = h T i = h S i und T ist nicht i i i Beweis. Wegen trachten. Ist 1 T linear abhängig, dann gibt es 1 =2 T 1 =1 1 1 minimal. Ist umgekehrt 1 0 = 6 v 2 T mit 2 L(T n fvg), d.h. es gibt paarweise nicht minimal, dann existiert ein hT n fvgi = hT i = hS i. Also v v; v1 ; : : : ; vn 2 T mit v = a1 v1 + + an vn ; d.h. v verschiedene eine nicht triviale Darstellung der 0. a1 v1 Somit ist anvn = 0; T linear abhängig. Lemma 2.2.2. Sei S V eine linear unabhängige Teilmenge des Vektorraumes V , und sei v 2 V . Dann gilt die Äquivalenz: v 2= hS i () S [ fv g ist linear unabhängig: S [ fv g linear abhängig, dann gibt es v1 ; : : : ; vn 2 S mit av + a1 v1 + + an vP n = 0. Dabei n 1 da S linear unabhängig ist. Also ist v = i=1 a ai vi 2 Beweis. Ist einer nicht trivialen Darstellung a 6= 0, L(S ) = hS i ist nach Satz 2.1.3. Ist umgekehrt S [ fv g linear unabhängig, also nach Lemma 2.2.1 ein hS; vi, dann gilt v 2= hS i. minimales Erzeugendensystem von Denition. heiÿt Basis . jeder Vektor raum GF(2) Ein minimales Erzeugendensystem eines Vektorraumes Ist im Vektorraum v2V V PB gegeben, dann hat u2B au u. Der Vektor- eine Basis eine Basisdarstellung v= ist der einzige, der nur eine Basis besitzt, nämlich f1g. LINEARE ALGEBRA Die Skalare au 25 in der obigen Basisdarstellung sind gemäÿ des folgen- den Satzes eindeutig bestimmt und heiÿen Koezienten von der Basis B. Das Tupel bzgl. der Basis B. (au j u 2 B ) heiÿt Koordinatentupel v bzgl. von v ; vn ) eine geordnete Basis des (endlich dimensionalen) VekV , sei v = a1 v1 + + an vn eine Basisdarstellung von v 2 V . n Das eindeutig bestimmte Tupel (a1 ; : : : ; an ) 2 K heiÿt Koordinatenvektor oder Koordinatentupel von v bzgl. der Basis (v1 ; : : : ; vn ). Die Skalare a1 ; : : : ; an , in geordneter Folge, heiÿen Koordinaten des Vektors v bzgl. der Basis (v1 ; : : : ; vn ). Die Anordnung resultiert aus der Sei (v1 ; : : : torraumes Anordnung der Basis, deshalb wird in diesem Kontext die Anordnung der Basis immer stillschweigend vorausgesetzt. Satz 2.2.3. Für eine Teilmenge B eines Vektorraumes V sind die fol- genden Aussagen äquivalent: (1) (2) B B ist eine Basis. ist linear unabhängig und Erzeugendensystem. (3) B hB i = V , d.h. B ist ein minimales ist eine maximale linear unabhängige Menge. (4) Jeder Vektor aus V hat eine eindeutige Darstellung bzgl. B. Insbesondere sind Basisdarstellungen von Vektoren eindeutig. Beweis. Lemma 2.2.1 impliziert (1) ziert (1) () (3). (4) =) (1): für alle B v 2 B. (2) =) (4): () (2) und Lemma 2.2.2 impli- ist ein minimales Erzeugendensystem, da P v 2= B n fv g P v = ni=1 ai vi = ni=1 P bi vi zwei Darstellungen von v 2 V mit v1 ; : : : ; vn 2 B , dann folgt aus ni=1 (ai bi )vi = 0 und der linearen Unabhängigkeit von B die Gleichheit der Darstellungen. Seien Das folgende Korollar resultiert aus Lemma 2.2.1. Korollar 2.2.4. Jedes endliche Erzeugendensystem eines Vektorrau- mes enthält (mindestens) eine Basis. Insbesondere haben endlich erzeugte Vektorräume eine endliche Basis. Lemma 2.2.5. In einem Vektorraum mit einer Basis aus n Vektoren sind jeweils n + 1 Vektoren linear abhängig. u1 ; : : : ; un eine Basis von V und seien v1 ; : : : ; vn+1 2 V n 0. Der Induktionsbeweis beginnt mit n = 1. Also v1 = au1 und v2 = bu1 Beweis. Sei 26 LINEARE ALGEBRA mit a 6= 0 und b 6= 0. Somit ist bv1 av2 = 0 eine nicht triviale v1 ; v2 sind linear abhängig. Die Aussage wird als richtig für alle Zahlen < n angenommen. Darstellung der 0, d.h. Es wird o.B.d.A. eine Anordnung der Basis angenommen derart, dass v1 = a1 u1 + y1 mit a1 6= 0 und y1 2 U = hu2; : : : ; uni. Weiter gibt es aj 2 K und yj 2 U , so dass für alle 2 j n + 1 vj = aj u1 + yj : Damit folgt für alle 2 j n + 1 wj = a1 vj aj v1 = a1 (aj u1 + yj ) aj (a1 u1 + y1 ) = a1 yj aj y1 2 U: Für U gilt die Induktionsannahme, also sind die Vektoren w2 ; : : : ; wn+1 linear abhängig, und es existieren Skalare b2 ; : : : ; bn+1 , nicht alle gleich 0, so dass 0 = b2 w2 + + bn+1 wn+1 = = ( a2 b2 an+1 bn+1 )v1 + a1 b2 v2 + + a1 bn+1 vn+1 schlieÿlich eine nicht triviale Darstellung der v1 ; : : : ; vn+1 sind linear abhängig. Satz 2.2.6. In einem endlich erzeugten 0 ist, d.h. die Vektoren Vektorraum sind alle Basen (endlich und) gleichmächtig und alle echten Unterräume sind endlich erzeugt mit Basen kleinerer Mächtigkeit. Beweis. Nach Korollar 2.2.4 existiert eine endliche Basis, und nach Lemma 2.2.5 sind alle Basen von gleicher Mächtigkeit n, und darüber hinaus haben alle linear unabhängigen Teilmengen von Unterräumen eine Mächtigkeit n. Somit haben auch alle Unterräume endliche Basen. Nach Lemma 2.2.2 ist die Mächtigkeit der Basen echter Unterräume < n. Denition. Die Mächtigkeit n einer Basis (und damit aller Ba- sen) eines endlich erzeugten Vektorraumes dim V = n. Es gilt dim 0 = 0. V heiÿt Dimension von V, Vektorräume, die nicht endlich erzeugt sind, heiÿen unendlich dimensional , dim V = 1. Genauer kann man von abzählbarer oder überabzählbarer Dimension eines Vektorraumes sprechen, gemäÿ der Mächtigkeit der Basis. Das folgende Korollar ist eine sofortige Konsequenz von Lemma 2.2.2 und Satz 2.2.6. Korollar 2.2.7. U V und U V eines endlich dimen dim V . Insbesondere folgt aus Für einen Unterraum sionalen Vektorraumes V ist dim U = dim V , dim U dass U = V. LINEARE ALGEBRA 27 Beispiel. (1) dim K n = n, da fe1 ; : : : ; en g eine Basis ist. 3 3 (2) U = f(a; b; 0) 2 K j a; b 2 K g ist ein Unterraum von K dim U = 2, da f(1; 0; 0); (0; 1; 0)g eine Basis von U ist. Lemma von Zorn. mit Das Lemma von Zorn ist ein Axiom, mit dem die Existenz maximaler Elemente in geordneten unendlichen Mengen unter gewissen Voraussetzungen garantiert wird. Äquivalent zum Zornschen Lemma sind u.A. der Wohlordnungssatz und das Auswahlaxiom , vgl. [5]. Letztere sollen hier nicht formuliert werden. Mit diesen zusätzlichen Axiomen lassen sich Resultate beweisen, die ansonsten nicht erhalten werden können. Man weiÿ durch Gödel, vgl. [5], dass diese Zusatzaxiome die Widerspruchsfreiheit der Mathematik nicht verletzen. Denition. Sei (P; ) eine (teilweise) geordnete Menge mit Teilmenge Q. Das Element x 2 P heiÿt eine obere Schranke von Q, wenn y x für alle y 2 Q, analog untere Schranke . Eine Teilmenge Q einer (teilweise) geordneten Menge P heiÿt Kette , wenn je zwei Elemente von Q vergleichbar sind, d.h. für y1 ; y2 2 Q ist entweder y1 y2 oder y2 y1 . Ein Element x 2 P heiÿt maximal in P , wenn für y 2 P , mit y x, folgt y = x. Lemma. (Lemma von Zorn) Eine nicht-leere geordnete Menge, in der jede Kette eine obere Schranke hat, besitzt (mindestens) ein maximales Element. In einer endlichen geordneten Menge existieren immer maximale Elemente und das Lemma von Zorn ist deshalb überüssig. Beispiel. N ohne N selbst, also P(N ) nfNg, hat N nfng. Die Mengen N ; Z mit ihrer natürli- Die Potenzmenge von die maximalen Elemente chen Ordnung haben keine maximalen Elemente. Der nachfolgende Basisergänzungssatz ist für endlich dimensionale Vektorräume eine sofortige Konsequenz von Lemma 2.2.2. Für unendlich dimensionale Vektorräume benötigt man das Lemma von Zorn als Beweismittel. Der Beweis des folgenden Basisergänzungssatzes ist typisch für den Einsatz des Lemmas von Zorn. Satz 2.2.8. (Basisergänzungssatz) Jede linear unabhängige Teilmenge eines Vektorraumes lässt sich zu einer Basis fortsetzen. Insbesondere hat jeder Vektorraum eine Basis. Beweis. Sei SV die gegebene linear unabhängige Menge. Man ver- wendet das Lemma von Zorn, um die Existenz einer maximalen linear unabhängigen Teilmenge des Vektorraumes V zu zeigen, die S enthält. 28 LINEARE ALGEBRA Nach Satz 2.2.3 ist damit eine Basis gefunden und der Zusatz, dass jeder Vektorraum eine Basis besitzt, folgt, wenn speziell S als die leere Menge angesetzt wird. Hierzu sei S 2U = fL V j S L; L linear unabhängig g die, per Inklusion geordnete, nichtleere Menge aller linear unabhängigen Teilmengen von U V, die wird gezeigt, dass M S = enthalten. S L2K L Für eine beliebige Kette 2 U. K Das ist die Voraussetzung des Lemmas von Zorn, dass nämlich jede Kette eine obere Schranke U, d.h. maximale linear unabhängige Teilmengen von V . Jedes Element L 2 K enthält S , also besitzt, und dann gibt es maximale Elemente in gilt S M. Seien weiter die endlich vielen Elemente v1 ; : : : ; vn 2 M . L1 ; : : : ; Ln 2 K mit vi 2 Li für 1 i n. Da K eine Kette Lj unter den L1 ; : : : ; Ln , d.h. v1 ; : : : ; vn 2 Lj . Alle Li sind linear unabhängige Mengen, also sind auch die v1 ; : : : ; vn linear unabhängig, und damit auch M . Dann gibt es ist, gibt es ein maximales Bemerkung. Beweise, die mit dem Lemma von Zorn geführt werden, sind Existenzbeweise, wie z.B. der Basisergänzungssatz, insbesondere nicht konstruktiv . Z.B. ist der Körper R der reellen Zahlen auch ein Q -Vektorraum, von überabzählbarer Dimension nach Satz 0.6.2, und hat nach dem Basisergänzungssatz, Satz 2.2.8, eine Basis, aber, da der Beweis hierfür nur mit dem Lemma von Zorn, oder äquivalenten Axiomen, geführt werden kann, lässt sich keine Basis angeben. Deswegen lehnen manche Mathematiker das Lemma von Zorn als Beweismittel ab. U; W V Unterräume. Dann heiÿt W ein KomV , wenn U + W = V und U \ W = 0. Gleichfalls ist U ein Komplement von W . Man sagt, Komplemente zerlegen den Vektorraum in eine direkte Summe V = U W . Das Komplement von V ist 0 und umgekehrt. Satz 2.2.9. (Komplementierungssatz) Jeder Unterraum ist komplemenDenition. plement von Seien U in tierbar. S des Unterraumes U V lässt sich nach dem Basisergänzungssatz zu einer Basis B von V fortsetzen. Also gilt V = U +W mit U = hS i und W = hB n S i. Ein Element v 6= 0 des Durchschnitts U \ W hätte bzgl. der Basis B verschiedene Darstellungen, also folgt aus der eindeutigen Basisdarstellung, dass V = U W , und W ist ein Komplement von U . Beweis. Eine Basis Beispiel. Komplemente sind i.A. nicht eindeutig. Die x-Achse X , 2 die y -Achse Y , und die Winkelhalbierende W der reellen Ebene R LINEARE ALGEBRA 29 komplementieren sich gegenseitig, d.h. R 2 =X Y = X W = Y W: Um die Dimension von Vektorräumen denieren zu können muss gezeigt werden, dass alle Basen eines Vektorraumes die gleiche Mächtigkeit besitzen. Hierfür kann man auch statt Lemma 2.2.5 den folgenden Austauschsatz von Steinitz heranziehen. Parallelen zum Basisergänzungssatz sind unverkennbar. Satz 2.2.10. (Austauschsatz near unabhängig. Sei fv ; : : : ; vng eine 1 vi ist auch fu1; : : : ; um; vm+1; : : : ; vng und bei geeigneter Nummerierung der eine Basis von V. u1 ; : : : ; um 2 V liBasis von V , dann ist m n von Steinitz) Seien m n. Für m = n ist m < n, d.h. U = hu1 ; : : : ; um i ( V . Nach Lemma 2.2.2 gibt es ein vm+1 2 = U nach Umnummerierung der vi . Nach endlich vielen solchen Auswahlen erhält man eine Basis von V . Beweis. Nach dem Basisergänzungssatz ist nichts zu zeigen. Sei also Bemerkung. Sei V ein Vektorraum mit Basis fv1 ; : : : ; vng. Der Vektor u 2 V lässt sich genau dann gegen vi eintauschen, d.h. auch fv1; : : : ; vi 1; u; vi+1; : : : ; vng Pn ist eine Basis, wenn in der eindeutigen Basisdarstellung u = i=1 ai vi gilt ai 6= 0, wenn also die Koordinate von u in Richtung vi nicht 0 ist. Direkte Summen. Denition. Sei fUi j i 2 P I g eine Menge von Unterräumen eines Vektorraumes V . Die Summe heiÿt direkt , i2I Ui dieser Unterräume P P L wenn Ui \ U = 0 für alle i 2 I . Man schreibt U = i2I Ui , j i j = 6 i i 2 I Ln und i=1 Ui = U1 Un sofern I = f1; : : : ; ng. Beispiel. (1) Komplemente bilden direkte Summen, U W = V . n Ln Ke mit Ke = fae j a 2 K g = he i, da (2) K = i i i i i=1 Kei \ he1 ; : : : ; ei 1 ; ei+1 ; : : : ; en i = 0; für alle i = 1; : : : ; n. 2.3. (3) In der reellen Ebene komplementieren sich die drei Unterräume, die x-Achse, die y -Achse und die Winkelhalbierende paarweise, aber sie bilden nicht ihre direkte Summe, d.h. Summen von mehr als zwei Summanden sind i.A. nicht direkt, wenn sich jeweils zwei der Summanden trivial schneiden. 30 LINEARE ALGEBRA L Lemma i Ui . Dann ist die (endliche) Darstellung P 2.3.1. Sei V = v = S i ui mit ui 2 Ui eindeutig. Sind Bi UP i Basen, dann ist B = i Bi eine Basis von V , und es gilt dim V = i dim Ui , falls V endliche Dimension hat. Insbesondere ist eine Teilmenge B eines K L Vektorraumes V 6= 0 genau dann eine Basis, wenn V = v2B Kv . Beweis. Sei fui j ig P V eine endliche Menge mit ui 2 Ui für paarweise i P verschiedene . Wenn denn ui = j 6=i ui = 0 ist, dann sind alle Summanden ui = 0, i uiP Ui j 6=i Uj = 0. Somit sind zwei Darstellungen 2 \ eines Vektors gleich, weil ihre Dierenz gleich 0 ist. B ein Erzeugendensystem P und es genügt die lineaP re Unabhängigkeit von B zu zeigen. Sei 0 = v2B av v = i ui eine P Darstellung des Nullvektors, wobei ui = a v die jeweilige Teilv2Bi v summe ist, die in Ui liegt. Nach obiger Überlegung sind alle ui = 0, und da Bi eine Basis von Ui ist, sind schlieÿlich alle Koezienten av = 0, d.h. B ist eine Basis. Der Zusatz ist eine Spezialisierung der Ui zu 1-dimensionalen Unterräumen und es genügt zu zeigen, dass für eine Basis B die Summe P V = Pv2B Kv direkt ist, aber ein Element u 6= 0 des Durchschnitts Ku \ v6=u Kv hätte verschiedene Darstellungen bzgl. der Basis B , im Denitionsgemäÿ ist Widerspruch zur eindeutigen Basisdarstellung, vgl. Satz 2.2.3. Satz 2.3.2. (Dimensionssatz U für Unterräume) Für endlich dimensio- W eines Vektorraumes gilt dim U + dim W = dim(U + W ) + dim(U \ W ): nale Unterräume und W = (U \ W ) X mit einem Komplement X , dann ist U + W = U + X . Weiter ist U \ X U \ W und folglich auch U \ X (U \ W ) \ X = 0. Also U + W = U X . Man stattet die Beweis. Sei auftretenden Unterräume mit Basen aus und erhält nach Lemma 2.3.1 dim X = dim W dim(U \ W ), dim(U \ W ), wie behauptet. Beispiel. (1) Der Unterraum also U dim(U + W ) = dim U + dim W aller Polynome p(x) = Pn i i=0 ai x im f :R !R f1; x; x ; : : : g, bestehend aus allen Monomen . reellen Vektorraum aller stetigen reellwertigen Funktionen hat die (geordnete) Basis Das Tupel türlich ist 2 (a0 ; : : : ; an ; 0; : : : ) ist der Koordinatenvektor von p(x). U unendlich dimensional. Na- (2) Oensichtlich ist jeder Körper ein Vektorraum über einem Teilkörper. Der Körper Dimension 2. C hat als R -Vektorraum die Basis f1; ig, also die LINEARE ALGEBRA 31 n-dimensionaler K -Vektorraum V isomorph zum arithmetischen Vektorraum K n ist. Satz 2.3.3. Sei V ein K -Vektorraum mit Basis (v1 ; : : : ; vn ). Dann n ist die Abbildung ' : V ! K , deniert durch 'v = (a1 ; : : : ; an ), falls Pn v = i=1 ai vi , bijektiv und linear, d.h. '(v + v 0 ) = 'v + 'v 0 und '(av ) = a('v ): Auf Grund des folgenden Satzes sagt man, dass ein Beweis. Auf Grund der eindeutigen Basisdarstellung ist und injektiv. also ist ' ' wohldeniert Jeder Koordinatenvektor hat oensichtlich ein Urbild, insgesamt bijektiv. üblichen Rechenregeln für Die Linearität von n-Tupel. ' folgt wegen der 32 LINEARE ALGEBRA 3. Lineare Abbildungen und Matrizen Matrizen. Denition. Eine m n Matrix A = (aij ) = (aij )1im; 1j n; über dem kommutativen Körper K ist ein rechteckiges Zahlenschema mit m Zeilen und n Spalten, 3.1. 0 a11 a12 a21 a22 B A=B @ . . . . . . am1 am2 und mit Einträgen aij 2 K. a n a n 1 2 .. . . . . amn Die Matrix 1 C C = (aij ); A A heiÿt vom Format m n. Man kann auch Matrizen über Ringen denieren, i.A. nehmen wir stillschweigend an, dass die Einträge von Matrizen aus einem kommutativen Körper sind. Eine Matrix hat Zeilen- und Spaltenvektoren , wobei hier i der Zeilenindex und j der Spaltenindex ist. Die Dimension des Er- zeugnisses der Spaltenvektoren einer Matrix im arithmetischen Vektorraum in Km K n. heiÿt Spaltenrang , Ist m = n, s-rang(A), analog Zeilenrang , dann heiÿt die Matrix n-reihig z-rang(A) quadratisch . Die quadratische Matrix, 0 1 0 B 0 1 E = En = B @ . .. .. 0 0 heiÿt Einheitsmatrix , wenn häug unterdrückt. Einträge alle 0 Æij Æij = . 1 0 1 0 0 C . .. C = (Æij ); A 1 falls falls i = j. i 6= j heiÿt Kroneckersymbol . Der Index n wird Eine Matrix, deren sind, heiÿt Nullmatrix . Die Matrix 0 B B Eij = B B @ 0 . . . 0 0 . . . 1 1 C C C C A 0 1 an der Stelle (i; j ), und sonst nur Einträgen 0, heiÿt (i; j )-Matrixeinheit . M(m n; K ) bezeichnet die Menge aller Matrizen vom Format m n mit Einträgen aus K . Man schreibt kurz M(n; K ) = M(n n; K ). mit genau einer LINEARE ALGEBRA Beispiel. Die Matrix 0 33 1 1 1 0 0 @ A = 0 1 1 0 A = (aij ) 0 0 1 1 ist vom Format 3 4. Spaltenrang und Zeilenrang sind beide gleich 3. Später wird gezeigt, dass für Matrizen über Körpern grundsätzlich Zeilen- und Spaltenrang gleich sind. Satz 3.1.1. M(m n; K ) K -Vektorraum vermöge der linea- wird zum ren Operationen (aij ) + (bij ) = (aij + bij ) und a(aij ) = (aaij ): Die Matrixeinheiten bilden eine Basis, d.h. dim M(m n; K ) = mn. K n beweistPman, dass Aus der Identität, A = i;j aij Eij , Beweis. Wie für den arithmetischen Vektorraum M(m n; K ) ein K -Vektorraum ist. folgt, dass die Matrixeinheiten Eij eine Basis bilden. Denition. Seien A = (aij ) eine m n Matrix, und B = (bjk ) eine n t Matrix. Für A und B wird, in dieser Reihenfolge, eine Produktmatrix C = (cik ) vom Format m t deniert durch cik = n X j =1 aij bjk ; i = 1; : : : ; m; k = 1; : : : ; t: cik an der Stelle (i; k) ist das Skalarprodukt der i-ten Zeile von A mit der k -ten Spalte von B . Sei A 2 M(m n; K ), dann ist Em A = A = AEn . Die Matrizen A und B müssen zusammenpassen, damit man sie multiplizieren kann. Die Produkte AB und BA existieren nur dann gemeinsam, wenn die Formate von A und B gleich m n bzw. n m sind. Für A; B 2 M(n; K ), existieren AB und BA, aber i.A. ist AB 6= BA. Aus AB = 0 folgt nicht, wie für Körper, A = 0 oder B = 0, vielmehr gibt es sog. Nullteiler , d.h. Elemente A 6= 0, für die es ein Element B 6= 0 gibt, so dass AB = 0 ist. M(n; K ) ist nicht Der Eintrag nullteilerfrei . Beispiel. AB = 1 2 0 0 1 1 Das umgekehrte Produkt 0 1 1 0 1 3 2 1 @ 1 1 0 A= : 3 2 0 2 1 0 BA existiert nicht. 34 LINEARE ALGEBRA Av = 1 2 0 0 1 1 ist das Produkt der Matrix 0 1 1 3 @ 1 A= 3 2 A mit einem Spaltenvektor v . Matrixprodukt ist nicht kommutativ. CD = Übrigens sind 0 1 0 0 D und C 0 0 0 1 = 0 1 0 0 6= 0 0 0 0 Das folgende = DC: Nullteiler. Der folgende Satz ist sehr technisch. Der (mühsame) Beweis verwendet nur die denierte Addition und Multiplikation von Matrizen und wird hier nicht ausgeführt. Satz 3.1.2. Für zusammenpassende Matrizen gelten das multiplikative Assoziativgesetz, und die Distributivgesetze, d.h. (AB )C = A(BC ); A(B + C ) = AB + AC und (A + B )C = AC + BC: Denition. Für die m n Matrix A = (aij ) heiÿt die n m MaT trix A = (aji ) die Transponierte von A, oder zu A transponiert . Als Hauptdiagonale einer Matrix A = (aij ) bezeichnet man die schräge Linie, die den Diagonaleinträgen aii , i = 1; 2; : : : , folgt. Man erT aus A, indem man A an der Hauptdiagonalen spiegelt. Es hält A T T T T T T T gelten (A ) = A, (A + B ) = A + B und (cA) = cA . QuadratiT sche Matrizen A mit A = A heiÿen symmetrisch . Eine quadratische Matrix A, deren Nicht-Diagonaleinträge alle 0 sind heiÿt Diagonalmatrix . Man schreibt A = diag (a1 ; : : : ; an ) und insbesondere ist die Einheitsmatrix E = diag (1; : : : ; 1) eine Diagonalmatrix. Beispiel. 0 1 Satz 3.1.3. Mit 1 2 0 0 1 1 T 1 0 = @ 2 1 A: 0 1 AB existiert auch B T AT , und es gilt (AB )T = B T AT . A = (aij ) eine m n Matrix, B = (bjk ) eine n t Matrix T 0 0 und AB = C = (cik ). Mit A = (aji ), wobei aji = aij usw., ist Beweis. Seien n n n j =1 j =1 j =1 X X X c0ki = cik = aij bjk = bjk aij = b0kj a0ji : LINEARE ALGEBRA 35 Satz 3.1.4. M(n; K ) Ring mit ein sog. Matrixring mit der Einheitsmatrix 1, ist bzgl. Matrix-Addition und -Multiplikation ein n > 1 ist M(n; K ) kein Körper. Beweis. Nach Satz 3.1.1 ist M(n; K ) E als 1. Für eine additive abelsche Gruppe. Nach Satz 3.1.2 ist die Multiplikation assoziativ, und es gelten die Distributivgesetze. Für n> 1 hat M(n; K ) Nullteiler, ist also kein Körper. Lineare Abbildungen. Denition. Eine Abbildung : V ! W der K -Vektorräume V und W heiÿt linear , wenn (v + v 0 ) = v + v 0 und (av ) = a(v ); 0 für alle v; v 2 V und a 2 K . Eine allgemeine lineare Abbildung heiÿt auch Homomorphismus . Sie heiÿt Endomorphismus , wenn V = W ist, 3.2. Monomorphismus , wenn sie injektiv ist, Epimorphismus , wenn sie surjektiv ist, und Isomorphismus , wenn sie bijektiv ist. Ein Isomorphis- ist bijektiv also invertierbar, vgl. Kapitel 0.5. Wendet man 1 0 0 auf (v + v ) = v + v und auf (av ) = a(v ) an, und berücksichtigt 1 die Bijektivität so erhält man sofort, dass auch ein Isomorphismus ist. Im letzteren Fall heiÿen V und W isomorph , V = W . Ein bijektiver Endomorphismus heiÿt Automorphismus . Die Abbildung mit (v ) = 0, für alle v 2 V , heiÿt Nullabbildung . Für lineare Abbildungen gilt stets, (0) = 0 und ( v ) = (v ). Weiter ist die mus Hintereinanderausführung linearer Abbildungen, sofern erklärt, wieder linear. Grundsätzlich ist die Hintereinanderausführung von Abbildungen assoziativ, also auch für lineare Abbildungen. Lineare Abbildungen lassen sich mit wenigen Bildvorgaben festlegen. Satz 3.2.1. Seien V 6= 0, W , beides K -Vektorräume. Sei B eine Basis von V . Ordnet man jedem u 2 B ein (beliebiges) wu 2 W zu, dann existiert genau eine lineare Abbildung : V ! W mit (u) = wu für alle u 2 B . P = u2B au u Beweis. Zuerst wird die Existenz einer solchen linearen Abbildung gezeigt unter Verwendung der eindeutigen Darstellung eines Vektors v2V :V bzgl. der Basis !W mit B. Denn X (v ) = ( u2B au u) = X u2B v au wu 36 LINEARE ALGEBRA ist wohldeniert, und es gilt X (u) = wu . v0 = P 0 u2B au u gilt X (v + v 0 ) = au u + a0u u = (au + a0u )wu u2B u2B u2B X X = au wu + a0u wu = (v ) + (v 0 ); u2B u2B linear. Zum Beweis der Eindeutigkeit seien ; : V ! W mit (u) = wu = (u) für alle u 2 B , und man erhält für alle v 2 V X X X X (v ) = ( au u) = au (u) = au wu = au (u) = (v ); und analog (av ) = a(v ). X Für u2B Also ist die Abbildung u2B u2B unter Verwendung der Linearität von Beispiel. u2B und . Also ist = . (1) Die folgende Abbildung ist linear, später nennen wir sie eine Linearform , weil das Bild eines echten Vektors eine Zahl ist: : K3 ! K; (a ; a ; a ) = a 1 2 3 1 + a2 + a3 : (2) Die folgenden beiden Abbildungen sind nicht linear: : Q 2 ! Q 2 ; (a1 ; a2 ) = (a1 + 1; 0); : Q 2 ! Q 2 ; (a1 ; a2 ) = (0; a22 ): Denn (0; 0) 6= (0; 0) und 2(0; 1) = (0; 4) 6= 2 (0; 1). Denition. Für eine lineare Abbildung : V ! W heiÿt ker() = fv 2 V j (v ) = 0g V der Kern von und Im() = (V ) = f(v ) j v 2 V g heiÿt Bild von . Im nächsten Satz wird bewiesen, dass Kern und Bild linearer Abbildungen wieder Unterräume sind. Die Dimension heiÿt Rang von Satz 3.2.2. . rang() = dim Im() Für lineare Abbildungen sind Bilder und Urbilder von Un- terräumen wieder Unterräume. Insbesondere sind Kerne Unterräume. Für eine lineare Abbildung (1) (2) :V !W gelten: ist genau dann surjektiv, wenn (V ) = Im() = W . ist genau dann injektiv, wenn ker = 0, bzw. wenn lineare Unabhängigkeit erhält. Beweis. Bilder und Urbilder unter einer linearen Abbildung enthal- ten immer den Nullvektor, sind also niemals leer. Deshalb genügt hier der Nachweis der linearen Abgeschlossenheit. Für das Bild (V ) ge- 0 0 schieht das durch die Denition der Linearität, (v ) + (v ) = (v + v ) LINEARE ALGEBRA 37 (av ). Für die Behandlung des Urbildes (W 0 ) eines 0 0 0 0 Unterraumes W W seien v; v mit (v ); (v ) 2 W zwei Elemente 0 0 des Urbildes von W unter , also ist auch die Summe v + v wegen (v + v 0 ) = (v ) + (v 0 ) 2 W 0 , weil W 0 als Unterraum von W linear abund a(v ) = geschlossen ist. Analog schlieÿt man für das Produkt mit einem Skalar. Somit ist auch das Urbild von W 0 ein Unterraum. Insbesondere ist der Kern einer linearen Abbildung, also das Urbild der 0, ein Unterraum. Die Feststellung unter (1) ist oensichtlich, für (2) wird zuerst die mit ker = 0 gezeigt. Sei zuerst ker = 0, dann impliziert (u) = (v ) sofort (u v ) = 0, also ist u v 2 ker = 0, d.h. u = v , und ist injektiv. Ist umgekehrt injektiv, dann ist 0 das einzige Urbild der 0, und ker = 0. Äquivalenz der Injektivität von mit dem Erhalt der linearen zu zeigen, sei zuerst injektiv und fv1 ; : : : ; vn g Um die Äquivalenz der Injektivität von Unabhängigkeit unter sei linear unabhängig. Aus 0= Pn i=1 ai vi 2 n X i=1 n X ai (vi ) = ( Bemerkung. und a1 ai vi ) an = 0 folgt aus der linearen Unabhängigkeit der vi , d.h. die Bilder (vi ) sind linear unabhängig. Wenn umgekehrt die lineare Unabhängigkeit erhält, dann ist (v ) 6= 0 für v 6= 0, d.h. ker = 0. folgt ker = 0, i=1 = Das Bild einer linear abhängigen Menge ist wieder linear abhängig, weil eine nicht triviale Darstellung triviale Darstellung Satz 3.2.3. = P i ai (vi ) = 0 P i ai vi = 0 auf die nicht abgebildet wird. Das Bild eines Erzeugnisses unter einer linearen Abbil- !W dung ist das Erzeugnis der Bilder. Genauer, sei :V lineare Abbildung, und sei Dann ist S V eine Teilmenge. hS i = (S ) : eine P S Teilmenge des K -Vektorraumes V . Da hS i = f ni=1 ai vi j Pn vi 2 S; ai 2 K; P n 2 Ng, ist hS i = f i=1 ai (vi ) j vi 2 S; ai 2 K; n 2 Ng = f ni=1 ai wi j wi 2 (S ); ai 2 K; n 2 Ng = h(S )i. Beweis. Sei Satz 3.2.4. (Dimensionssatz mensionalen Vektorraum ist dim Im() dim W V für Abbildungen) Für einen endlich di- und eine lineare Abbildung und dim V = dim ker + dim Im(): :V !W 38 LINEARE ALGEBRA Beweis. Es ist Unterraum von dim Im() W ist. dim W , da Im() nach Satz 3.2.2 ein Weiter ist für eine Komplementierung ker U die Restriktion jU dim Im = dim (V ) = dim U injektiv, da ker \U = 0. V = Also ist nach den Sätzen 3.2.2 und 3.2.3, und mit der Dimensionsformel für Unterräume folgt die behauptete Gleichung. Der Satz 0.5.1, dass für endliche gleichmächtige Mengen injektiv und surjektiv äquivalent sind, lässt sich auf endlich dimensionale Vektorräume übertragen. Satz 3.2.5. Für eine lineare Abbildung zwischen K -Vektorräumen end- licher, gleicher Dimension sind injektiv, surjektiv und bijektiv äquivalent, und dazu gleichwertig ist, dass das Bild einer Basis wieder eine Basis ist. K -Vektorräume sind genau dann isomorph, wenn sie gleiche Di : V ! W gilt, rang = dim (V ) = dim V = dim W . Zwei mension besitzen. Für einen Isomorphismus Insbesondere sind der Skalarenkörper und die Dimension ein vollständiges Invariantensystem eines Vektorraumes. Beweis. Auf Grund der Sätze 3.2.2 und 0.5.1 wird durch eine injektive lineare Abbildung :V !W licher Dimension eine Basis von Damit ist zwischen Vektorräumen gleicher end- V auf eine Basis von W abgebildet. auch surjektiv und mit denselben Sätzen folgt auch die Umkehrung, und somit auch die Äquivalenz zur Bijektivität. Für Vektorräume gleicher Dimension gibt es eine Bijektion zwischen den Basen. Eine lineare Abbildung, die man gemäÿ Satz 3.2.1 mit dieser Bijektion deniert, ist oensichtlich ein Isomorphismus. Umgekehrt vermittelt ein Isomorphismus , also eine injektive und surjek- tive lineare Abbildung eine Bijektion zwischen Basen von d.h. V und W V und W, haben gleiche Dimension, und es gilt die behauptete Gleichung. Satz 3.2.6. Seien U, V , W , Z alles K -Vektorräume. Sei V endlich ; ; mit dimensional. Es gelten für die linearen Abbildungen ! V ! W ! Z; (1) rang minfdim V; dim W g, (2) rang( ) rang , mit Gleichheit, falls surjektiv ist, (3) rang() rang , mit Gleichheit, falls injektiv ist. U LINEARE ALGEBRA 39 Beweis. (1) folgt aus dem Dimensionssatz für lineare Abbildungen. (V ) Wegen (U ) wenn surjektiv ist, also gilt (2). gilt dim (V ) mit Gleichheit, dim (V ) mit Gleichheit, wenn injektiv dim (V ) Ähnlich folgt dim (U ) ist, also gilt (3). Darstellung von linearen Abbildungen durch Matrizen. Denition. Sei : V ! W eine lineare Abbildung, seien Basen A = (v1 ; : : : ; vn ) und B = P(mw1 ; : : : ; wm ) der K -Vektorräume V bzw. W gegeben. Also (vj ) = i=1 aij wi , j = 1; : : : ; n, wobei aij 2 K . Die Matrix M (A; B ) = (aij ) heiÿt darstellende Matrix von bzgl. der Basen A und B . Diese darstellende Matrix ist vom Format m n und eindeutig bestimmt durch (; A; B ). Für einen Endomorphismus nimmt man i.A. die darstellende Matrix bzgl. einer Basis, d.h. M (A; A). 3.3. Matrixbeschreibung Mit der darstellenden Matrix lässt sich v= Pn j =1 aj vj n X (v ) = ( mit aj vj ) = n X aj ( m X aij wi ) = m X n X j =1 j =1 i=1 i=1 j =1 Pn bi = j =1 aij aj , oder in Matrixschreibweise 0 1 0 1 @ (3.1) b1 . .. bm die Spalten von (vj ). bilder Seien umgekehrt Basen M(mn; K ). A= M (A; B ) @ a1 . .. an M (A; B ) . Im() = Im M (A; B ) genau die Man identiziert oft Für aij aj wi = m X i=1 bi wi ; A: In dieser Form sind Koordinatenvektoren der Basis- A und B von V bzw. W xiert und sei (aij ) 2 :V ! W M (A; B ) = (aij ), denn die Abbildung (aij ) : Dann existiert genau eine lineare Abbildung mit darstellender Matrix Kn explizit beschreiben. gilt nämlich: ! K m, deniert durch (3.1), ist linear laut Distributivgesetz für die Matrix-Addition und -Multiplikation. Weiter sind die Spalten (aij ) genau M (A; B ). von die Koordinatenvektoren der Basisbilder, d.h. (aij ) = Satz 3.3.1. Seien A = (v1 ; : : : ; vn ), B = (w1 ; : : : ; wm ) und C = (z1 ; : : : ; zp ) Basen der K -Vektorräume V , W und Z . Seien lineare 40 LINEARE ALGEBRA ; gegeben durch V ! W ! Z , mit Matrizen M (A; B ) und M (B; C ). Dann ist M (A; C ) = M (B; C )M (A; B ) die darstellende Matrix von bzgl. A und C . Abbildungen Beweis. Mit (ckj ) M (A; B ) = (aij ), M (B; C ) = (bki ) und darstellenden M (A; C ) = ist (vj ) = (wi ) = (vj ) = Anwendung von (vj ) = m X i=1 m X i=1 p X k=1 p X k=1 aij wi ; für 1j bki zk ; für 1 i m; ckj zk ; für 1j n: auf die erste Gleichung ergibt für aij (wi ) = m X i=1 aij p X k=1 bki zk = also auf Grund der eindeutigen Basisdarstellung Denition. n; Eine quadratische Matrix A 1j p X m X n bki aij zk ; k=1 i=1 P ckj = mi=1 bki aij . über einem Körper oder Ring heiÿt invertierbar oder regulär oder nicht singulär , wenn es eine Matrix B über demselben Körper oder Ring gibt, mit AB = E = BA. Nur quadratische Matrizen können invertierbar sein. Die Menge GL(n; K ) = fA 2 M(n; K ) j A invertierbarg heiÿt allgemeine lineare Gruppe über dem Körper K vom Grad n. Der nächste Satz rechtfertigt, 1 dass man die Inverse von A mit A bezeichnet. Satz 3.3.2. GL(n; K ) ist bzgl. Matrixmultiplikation eine Gruppe mit E T T 1 = (A 1 )T . als Eins. Mit A ist auch A invertierbar und (A ) GL(n; K ), ABB 1 A 1 = Beweis. Matrixmultiplikation ist eine Verknüpfung für A; B 2 GL(n; K ) gilt (AB ) da = B A , denn E, E rechtsneutral, und die Inversen exiT stieren per denitionem. Mit A 2 GL(n; K ) ist auch A 2 GL(n; K ), 1 denn AA = E = E T = (A 1 )T AT , also (AT ) 1 = (A 1 )T . für 1 1 1 laut Assoziativgesetz. Sowieso ist Beispiel. 1 3 2 4 1 1 = 10 4 2 3 1 . LINEARE ALGEBRA Denition. Basen von V . A Seien = (v1 ; : : : der Basis A0 und = (v10 ; : : : ; vn0 ) zwei Der Übergang von einer Basis zu einer anderen heiÿt Basistransformation . Sei A0 ; vn ) 41 vj0 = Pn i=1 pij vi , 1 A. bzgl. der Basis j n, die Darstellung Die quadratische Matrix P = (pij ) ist eindeutig bestimmt und heiÿt Basistransformationsmatrix von A0 . nach Basistransformationsmatrix P invertiert. Pn i=1 pij vi für alle n, d.h. P A wird die ist auch die deniert durch (vj ) = = M (A; A) = Mid (A0 ; A): P (3.2) 1j A0 und Die Matrix darstellende Matrix des Automorphismus vj0 = A Bei Vertauschung der Reihenfolge von PnP kann man den Koordinatenvektor (a1 ; : : : ; an ) des Vektors v = der Basis (v1 ; : : : ; vn ) i=1 ai vi bzgl.P n 0 0 0 0 in den Koordinatenvektor (a1 ; : : : ; an ) von v = i=1 ai vi bzgl. der an0 0 deren Basis (v1 ; : : : ; v ;n ) umrechnen, 0 0 1 0 1 Mit der Basistransformationsmatrix @ Denn v= n X i=1 Folglich ist ai vi = n X a1 . .. a0n A=P a0j vj0 = j =1 Pn ai = j =1 pij a0i . Satz 3.3.3. n X j =1 a0j 1 @ a1 . .. an n X i=1 A: pij vi = n X n X i=1 j =1 Für einen endlich dimensionalen Vektorraum neare Abbildung :V !W pij a0j vi : V ist die li- genau dann ein Isomorphismus, wenn eine (und damit alle) darstellenden Matrizen invertierbar sind. Insbe- A; B von V bzw. W : M (A; B ) 1 = M 1 (B; A): sondere gilt für Basen Beweis. Sei zuerst = M (A; B ) 1 ein Isomorphismus, d.h. dim V = dim W , und A; B . Der inverse N = M 1 (B; A). 1 1 Die Identität id jV = = wird bzgl. der Basis A durch die Einheitsmatrix dargestellt. Also gilt NM = E = MN nach Satz 3.3.1, d.h. alle darstellenden Matrizen von sind invertierbar, und es gilt die sei M Isomorphismus die darstellende Matrix bzgl. habe die darstellende Matrix behauptete Gleichung. Habe umgekehrt lende Matrix M = bzgl. zweier Basen M (A; B ). A; B die invertierbare darstel- :W !V M (B; A), dann ist Sei die lineare Abbildung deniert durch die darstellende Matrix M 1 = 42 LINEARE ALGEBRA = id jW und = id jV nach Satz 3.3.1, = 1 . Also ist ein Isomorphismus. und nach Satz 0.5.2 ist Betrachtet man Basistransformationen als Automorphismen, dann ist das folgende Korollar eine sofortige Konsequenz von Satz 3.3.3. Korollar 3.3.4. Basistransformationsmatrizen sind invertierbar und jede invertierbare Matrix beschreibt eine Basistransformation. Die inverse Basistransformation wird durch die inverse Matrix beschrieben. Satz 3.3.5. Seien V und W Vektorräume mit Basen A; A0 von V bzw. B; B 0 von W . Sei : V ! W eine lineare Abbildung. Seien P und Q 0 0 die Basistransformationsmatrizen von A nach A und von B nach B . Dann gilt M (A0 ; B 0 ) = Q 1 M (A; B )P: Beweis. Die Basistransformationen P; Q lassen sich nach (3.2) als dar- stellende Matrizen der jeweiligen Identitäten ren, d.h. (A0 ; A) idV und (B 0 ; B ). idW interpretie- P = MidV und Q = MidW Notiert man die idV = idW unter Verwendung von Satz 3.3.1 für die dar- Gleichung stellenden Matrizen, dann erhält man die behauptete Gleichung M (A; B )P 3.4. = M idV (A0 ; B ) = MidW (A0 ; B ) = QM (A0 ; B 0 ): Rang einer Matrix. Es wird gezeigt, dass für Matrizen über Körpern Spaltenrang und Zeilenrang gleich sind. Das gilt i.A. nicht für Matrizen über Ringen. Lemma 3.4.1. Die Spaltenränge der darstellenden Matrizen einer li- nearen Abbildung sind alle gleich dem Rang der linearen Abbildung. M eine darstellende Matrix der linearen Abbildung . Dann ist rang = dim Im() = dim (V ) = s-rang(M ). Denn für die Einheitsvektoren ei gilt Mei = vi mit den Spaltenvektoren vi der Matrix M , also hv1 ; : : : ; vn i = h(e1 ); : : : ; (en )i, nach (3.1), und der Spaltenrang von M ist gleich dem Rang von . Satz 3.4.2. Eine lineare Abbildung vom Rang r zwischen endlich Beweis. Sei dimensionalen Vektorräumen hat (bzgl. geeigneter Basen) eine darstellende Matrix der Form Mr = Er 0 Insbesondere existieren zu jeder Matrix bare Matrizen P und Q mit QCP 0 0 C = Mr . : vom Spaltenrang r invertier- LINEARE ALGEBRA 43 : V ! W eine lineare Abbildung vom Rang r. Sei V = U ker eine Komplementierung, und sei A = (v1 ; : : : ; vr ; : : : ) eine Basis von V , die der Zerlegung folgt. Wegen U \ ker = 0 ist die Restriktion jU injektiv. Also hat W nach Satz 3.2.2 eine Basis B = (v1 ); : : : ; (vr ); wr+1; : : : , und Mr = M (A; B ). Der Zusatz Beweis. Sei folgt nach Satz 3.3.5. Satz 3.4.3. Für Matrizen über Körpern sind Zeilenrang und Spalten- rang gleich. A gibt es nach Satz 3.4.2 invertierbare MaP; Q mit M = diag (Er ; 0) = QAP , und die Spaltenränge von A und M sind gleich nach Lemma 3.4.1. Transposition vertauscht Zeilen Beweis. Für eine Matrix trizen und Spalten, also insbesondere Zeilen- und Spaltenrang. Oensichtlich sind Zeilen- und Spaltenrang von M gleich. Wegen sind dann Zeilen- und Spaltenrang von Denition. A gleich. rang En = n. Für eine rang M (A; B ) für beliebige Basen 0, = P T AT QT Der Spalten- bzw. Zeilenrang einer Matrix mit Einträgen aus einem Körper heiÿt Rang der Matrix. Rang MT und Die Nullmatrix hat den lineare Abbildung ist rang = A und B . Der Rang einer oberen n-reihigen Dreiecksmatrix, deren Diagonaleinträge allesamt ungleich 0 sind, ist n. Korollar 3.4.4. Für eine m n Matrix A über einem Körper gelten: T (1) rang A = rang A . (2) rang A min(m; n). (3) rang(AB ) min(rang A; rang B ). (4) rang A = rang(QAP ) für invertierbare Matrizen P; Q. Beweis. (1) und (2) folgen sofort aus der Gleichheit von Zeilen- und Spaltenrang. Wegen Satz 3.2.6, über die Ränge zusammen gesetzter Abbildungen, gilt (3). Aus Satz 3.4.2 folgt (4). Satz 3.4.5. Für eine n-reihige quadratische Matrix A über einem Kör- per sind äquivalent: (1) A ist invertierbar. (2) Es existiert genau eine Matrix (3) rang A = n. A 1 Beweis. (1) und (2) sind äquivalent, weil (2) =) (3): Da A A = En 1 meln aus Satz 3.4.4 sofort mit A 1 A = E = AA GL(n; K ) rang En = n, folgt rang A = n, also (3). und 1 . eine Gruppe ist. mit den Rangfor- 44 LINEARE ALGEBRA (3)=) (1): Für eine Matrix A und A 2 M(n; K ) vom Rang n gibt es nach P; Q, so dass QAP A ist invertierbar, d.h. (1) gilt. = Lemma 3.4.2 invertierbare Matrizen 1 = P Q, E, also Äquivalenz und Ähnlichkeit von Matrizen. Denition. Zwei Matrizen A; B 2 M(m n; K ) heiÿen äquivalent, wenn es passende invertierbare Matrizen P und Q gibt, mit B = QAP . Satz 3.5.1. (1) Äquivalenz von Matrizen ist eine Äquivalenzrelation. E r 0 Jede Äquivalenzklasse hat einen Repräsentanten der Form . 3.5. 0 0 (2) Zwei Matrizen von gleichem Format sind genau dann äquivalent, wenn sie gleichen Rang besitzen. (3) Es gibt genau 1 + min(m; n) (4) Die darstellenden Matrizen bildung :V !W Äquivalenzklassen von M (A; B ) m n Matrizen. für eine xierte lineare Ab- bilden (bei Variation der Basen A und B) eine komplette Äquivalenzklasse. Beweis. (1): Reexivität, Symmetrie und Transitivität lassen sich leicht zeigen, und die Repräsentanten gewinnt man mit Lemma 3.4.2. (2): Nach Korollar 3.4.4 (4) haben äquivalente Matrizen gleichen Rang, und umgekehrt sind Matrizen gleichen Ranges nach Lemma 3.4.2 äquivalent. (3): Nach Korollar 3.4.4 (2) ist der Rang einer min(m; n) mn Matrix und die Nullmatrix bildet eine eigene Äquivalenzklasse. (4): Nach (2) und Satz 3.3.5 liegen alle darstellenden Matrizen von in einer Äquivalenzklasse. Nach Korollar 3.3.4 ist umgekehrt auch jede Matrix der Äquivalenzklasse eine darstellende Matrix von Denition. Zwei gleichgroÿe quadratische Matrizen ähnlich, wenn es eine invertierbare Matrix P . A und B heiÿen B = P 1 AP . gibt, mit Die Ähnlichkeit von Matrizen ist eine Äquivalenzrelation, wie man leicht bestätigt. Ähnliche Matrizen sind natürlich äquivalent, d.h. sie haben gleichen Rang, und jede Äquivalenzklasse quadratischer Matrizen zerfällt in komplette Ähnlichkeitsklassen. Weiter bilden die darstellenden Matrizen eines xierten Endomorphismus , also fM (A; A) j A Basisg, eine komplette Ähnlichkeitsklasse, als Spezialfall von Satz 3.5.1 (4). LINEARE ALGEBRA 45 Abbildungsraum, Dualraum und Faktorraum. Denition. Für K -Vektorräume V und W heiÿt die Menge aller linearen Abbildungen : V ! W der Abbildungsraum von V nach W , HomK (V; W ) = f j : V ! W; linearg: Satz 3.6.1. Der Abbildungsraum HomK (V; W ) ist ein K -Vektorraum vermöge der linearen Operationen für ; 2 HomK (V; W ), a 2 K : ( + )(v ) = (v ) + (v ) und (a)(v ) = a (v ) für alle v 2 V: 3.6. Beweis. Die linearen Operationen sind wohldeniert, denn + ist wieder eine lineare Abbildung, wegen ( + )(v + v 0 ) = (v + v 0 ) + (v + v 0 ) = (v ) + (v 0 ) + (v ) + (v 0 ) = ( + )(v ) + ( + )(v 0 ); v; v 0 2 V ; und analog ( + )(av ) = a( + )(v ) für alle v 2 V . 0 Weiter ist auch a eine lineare Abbildung, denn sowieso ist a(v + v ) = 0 a(v ) + a(v ), für alle v 2 V ; aber für die skalare Multiplikation muss man die Kommutativität des Körpers K verwenden, denn (a)(bv ) = a(bv ) = ab(v ) = b(a)(v ); für alle v 2 V: für alle Der formale, aber langatmige, Nachweis aller Vektorraumaxiome wird weggelassen, z.B. für die gemischten Distributivitäten: a( + ) (v ) (a + b) (v ) Denition. = = (a) + (a ) (v ) (a) + (b) (v ) v 2 V; v 2 V: für alle für alle Die Automorphismen eines Vektorraumes bilden eine GLK (V ), die Automorphismengruppe oder lineare Gruppe, K -Vektorraumes V . Satz 3.6.2. Der Abbildungsraum Gruppe des EndK V = HomK (V; V ) wird mit Hintereinanderausführung von Endomorphismen als Multiplikation zum Ring mit 1, dem sog. Endomorphismenring von V. Beweis. Die Hintereinanderausführung von Endomorphismen ist wieder ein Endomorphismus, vgl. die Denition linearer Abbildungen, und sowieso assoziativ. nachzuweisen. Deshalb genügt es die beiden Distributivgesetze ( + ) (v ) = ( + ) = (v ) = (v ) ( ) + ( ) (v ); + (v ) 46 für alle LINEARE ALGEBRA v 2 V , d.h. ( + ) = + . Analog zeigt man das zweite Distributivgesetz. Satz 3.6.3. Für zwei K -Vektorräume V; W der Dimensionen n bzw. m ist HomK (V; W ) = M(m n; K ) mit Dimension mn. Fixiert man Basen A = (v1 ; : : : ; vn ) und B = (w1 ; : : : ; wm ) von V bzw. W , dann ist 7! M (A; B ) ein solcher Isomorphismus. M(m n; K ) die Dimension mn. Die 7! M (A; B ) ist laut Denition einer darstellenden Matrix Beweis. Nach Satz 3.1.1 hat Abbildung wohldeniert, linear, injektiv und surjektiv, also ein Isomorphismus. Denition. Seien R; S Ringe mit 1. Eine bijektive R ! S heiÿt Ringisomorphismus , wenn für a; b 2 R, '(a + b) = '(a) + '(b) R und S heiÿen dann isomorph, und R = S. Abbildung ' : '(ab) = '(a)'(b): Genauso gibt es Gruppeniso- morphismen . Korollar 3.6.4. Für einen K -Vektorraum V EndK (V ) = M(n; K ) und der Dimension GLK (V ) = GL(n; K ); n sind als Ring bzw. als Gruppe. Fixiert man eine Basis A = (v1 ; : : : ; vn) von V , dann ist 7! M (A) jeweils ein solcher Isomorphismus. Beweis. Die Abbildung 7! M (A) ist laut Denition einer darstel- lenden Matrix wohldeniert. Diese Abbildung ist linear, injektiv und surjektiv, also ein Vektorraum-Isomorphismus im Falle des Endomorphismenringes, und multiplikativ nach Satz 3.3.1, also ein Ringisomorphismus. Nach Satz 3.3.1 und Satz 3.3.3 ist diese Abbildung ein Gruppenisomorphismus im Falle der linearen Gruppe. Bemerkung. Satz 3.6.3 und Korollar 3.6.4 zusammen mit Formel (3.1) versetzen uns in die Lage zwischen basisfrei notierten linearen Abbildungen und deren darstellenden Matrizen hin und her zu wechseln. Denition. Ein Ring, der zugleich ein K -Vektorraum ist, heiÿt eine K -Algebra, z.B. ist EndK (V ) eine K -Algebra. Der Abbildungsraum V = HomK (V; K ) heiÿt der Dualraum des K -Vektorraumes V . Eine LINEARE ALGEBRA 47 2 V heiÿt Linearform . Der Kern dem n-dimensionalen Vektorraum V hat lineare Abbildung einer Linear- form die Dimensi- on n toren 6= 0 auf 1. Die darstellenden Matrizen für Linearformen sind Zeilenvek- (a1 ; : : : ; an ) und, wenn v = (b1 ; : : : ; bn ) mit seinem Koordina- tenvektor identiziert wird, dann nimmt die Gleichung (3.1) die Form eines Skalarproduktes an, M (A; B )v = (a1 ; : : : ; an )(b1 ; : : : ; bn )T = a1 b1 + + an bn : Beispiel. Die lineare Abbildung (a1 ; :::; an ) 7! a1 + + an von K n ! K ist eine Linearform. Auch die Abbildung (a1 ; : : : ; an ) 7! ai für ein festes i ist eine Linearform, genauer eine Projektion . Ordnet man einem Vektor, z.B. aus R 2 , seine Länge zu, so ist das keine Linearform, da Längen nicht negativ werden können. Man sagt dazu Norm . Satz 3.6.5. Sei B = fv1 ; : : : ; vng eine Basis des K -Vektorraumes V . Seien 1 ; : : : ; n 2 V deniert mit dem Kroneckersymbol durch i (vj ) = Æij ; i; j = 1; : : : ; n: Dann ist B = f1 ; : : : ; n g eine Basis von V , die sogenannte Dual basis zu B . Insbesondere gelten dim V = dim V = n und V = V . = PnHomK (V; K ) = M(1 n) = Aus i=1 ai i = 0 folgt für jedes j Beweis. Nach Satz 3.6.3 ist Grund gleicher Dimension. V n X aj = aj j (vj ) = ( d.h. die i=1 V auf ai i )(vj ) = 0; i sind linear unabhängig, und bilden eine Basis. Bemerkung. gröÿer als Für unendlich dimensionale Vektorräume ist dim V . Insbesondere sind V und V nur für endlich dimen- sionale Vektorräume isomorph. Dann gilt aber auch und man identiziert Denition. orthogonales V und V dim V V = V = V in natürlicher Weise. Für einen Unterraum U V heiÿt U ? = f 2 V j (u) = 0 für alle u 2 U g Komplement von U in V . Das orthogonale U ? ist linear abgeschlossen, also ein Unterraum. Satz 3.6.6. Für einen Unterraum U eines Vektorraumes V ? Dimension ist dim U = dim V dim U und U = U ?? = fv 2 V j (v ) = 0 für alle 2 U ? g: Komple- ment endlicher 48 LINEARE ALGEBRA V = U W eine Komplementierung, seien A; B Basen von U bzw. W . Dann ist (A [ B ) = fa ; b j a 2 A; b 2 B g die ? Dualbasis. Oensichtlich ist B = fb j b 2 B g U , und für ein P P ? allgemeines Element = a2A ca a + b2B cb b 2 V gilt 2 U genau dann, wenn ca = 0, für alle a 2 A. Also ist B eine Basis ? ? von U , und dim U = dim W = dim V dim U . ??. Umgekehrt ist ein allgemeines Element v = Sowieso ist U U P P u + w = a2A ca a + b2B cb b 2 V genau dann in U ??, wenn 0 = b (u + w) = b (w) = cb für alle b 2 B , da B eine Basis von U ? ist, ?? U mit Gleichheit. d.h. U Beweis. Sei Korollar 3.6.7. Für einen endlich dimensionalen Vektorraum V ist ? eine Dualität, d.h. eine ordnungsumkehrende die Abbildung U 7! U Bijektion, zwischen der Menge der Unterräume von V und der Menge ? ? der Unterräume von V , d.h. aus U1 U2 folgt U1 U2 . U ?. Für die Abbildungen '; , gegeben durch U ! 7 U ? bzw. U ? 7! U , gelten wegen U = U ??, U U1 Beweis. Aus 2 folgt oensichtlich ' vgl. Satz 3.6.6, ' = id und U1? 2 ' = id. Also ist ' bijektiv nach Satz 0.5.2. Beispiel. K Sei = GF(q ) der endliche Körper mit Dann hat der arithmetische Vektorraum Kn q = pn Elementen. genauso viele Unterräume r, wie der Dimension n r. Denition. Für einen Unterraum U V ist eine Äquivalenzrelation 0 auf V deniert durch, v U v , falls v v 0 2 U . Eine Äquivalenzklasse [v ] = v + U = fv + u j u 2 U g heiÿt auch Nebenklasse oder aner Unterraum . Ein Element aus einer Nebenklasse, z.B. v heiÿt Repräsentant . Die Quotientenmenge von V bzgl. dieser Relation, also die Menge der Äquivalenzklassen V=U = V= U = f[v ] j v 2 V g heiÿt Faktorraum von V nach U , vgl. Satz 3.6.8. der Dimension Satz 3.6.8. Sei der Faktorraum V ein K -Vektorraum mit Unterraum U . Dann ist V=U auch ein K -Vektorraum vermöge der induzierten linearen Operationen [v1 ] + [v2 ] = [v1 + v2 ] Hat V und a[v ] = [av ]: dim(V=U ) = dim V dim U . deniert durch '(v ) = [v ] ist linear endliche Dimension, dann ist Abbildung ':V surjektiv, mit ! V=U , ker ' = U , der sog. kanonische Epimorphismus. Die und LINEARE ALGEBRA 49 Beweis. Die induzierten linearen Operationen sind wohldeniert, da v1 ; v2 bzw. v sind. v1 ; v10 2 [v1 ] und v2 ; v20 2 [v2 ], also v1 v10 = u1 2 U und v2 v20 = u2 2 U , ist v1 + v2 = (v10 + u1 ) + (v20 + u2 ) = (v10 + v20 ) + (u1 + u2 ) 2 (v10 + v20 ) + U; 0 0 folglich ist [v1 + v2 ] = [v1 + v2 ], unabhängig von den Repräsentanten. Gleiches zeigt man für [av ]. Damit wird V=U zu einer additiven abelschen Gruppe mit [0] = 0 + U = U als Null und [v ] = v + U = [ v ] als negativem Element. Um V=U als Vektorraum nachzuweisen, müssen sie unabhängig von den jeweiligen Repräsentanten Denn für die Assoziativität, die gemischten Distributivgesetze und die Normierung bestätigt werden, exemplarisch a [v] + [v0 ] = a[v + v 0 ] = Die Abbildung a(v + v0 ) = [av + av 0 ] = [av ] + [av 0 ] = a[v ] + a[v 0 ]: ' ist oensichtlich surjektiv, und sogar linear, auf Grund der Denition der induzierten linearen Operationen. Also gilt nach dem Dimensionssatz 3.2.4 für Abbildungen Bemerkung. Der kanonische Epimorphismus von eine Komplementierung von lich V = U dim V = dim U +dim(V=U ). W U V mit Kern U und stehen in direkter Beziehung. Sei näm- eine Komplementierung, dann gilt mit der eindeu- v = u + w 2 V mit u 2 U und w 2 W sofort [v ] = '(v ) = '(w ) = [w ]. Man erhält zusätzlich die folgenden linearen Abbildungen : V ! W , deniert durch (v) = w, und : V=U ! W , deniert durch ([v ]) = w. Damit ist = ' eine sog. Zerlegung der Abbildung . Die Abbildung ist die Projektion 2 von V auf W , d.h. es gilt = , und ist ein Isomorphismus, denn insbesondere gilt dim(V=U ) = dim W . tigen Darstellung Der nächste Satz, für allgemeine algebraische Strukturen Homomor- phiesatz genannt, folgt für endlich dimensionale Vektorräume sofort aus Satz 3.6.8 und dem Dimensionssatz 3.2.4 für lineare Abbildungen. Satz 3.6.9. :V V= ker() = W: Für einen Epimorphismus !W ist Der nächste Satz, für allgemeine algebraische Strukturen noetherscher Isomorphiesatz genannt, folgt für endlich dimensionale Vektorräume sofort aus dem Satz 3.6.8 und dem Dimensionssatz 2.3.2 für Unterräume. Satz 3.6.10. U; W des Vektorraumes V (U + W )=W = U=(U \ W ): Für Unterräume ist 50 LINEARE ALGEBRA 4. Lineare Gleichungssysteme und Gauÿalgorithmus Lineare Gleichungssysteme. Denition. Sei A = (aij ) eine m n Matrix über dem Körper K , T m ein Spaltenvektor. Dann heiÿt und sei b = (b1 ; : : : ; bm ) 2 K a11 x1 + + a1n xn = b1 4.1. .. . .. . am1 x1 + + amn xn = bm T 2 K n das ein lineares Gleichungssystem . Wenn x = (x1 ; : : : ; xn ) Gleichungssystem löst, dann heiÿt x ein Lösungsvektor . Man schreibt ein lineares Gleichungssystem kurz Ax = b. Das lineare Gleichungssystem heiÿt homogen , wenn b = 0, sonst inhon mogen . Die Gesamtlösung ker A = fx 2 K j Ax = 0g des homogenen Gleichungssystems, Ax = 0, ist linear abgeschlossen, also ein Untern raum von K und heiÿt Kern von A. Satz 4.1.1. Das lineare Gleichungssystem Ax = b ist genau dann lösbar, wenn rang A = rang(A; b). Das homogene System hat immer die triviale Lösung, und falls A 2 M(m n; K ) vom Rang m ist, dann ist Ax = b für jedes b lösbar. A = (v1 ; : : : ; vn ) in rang(A) = rang( Pn A; b). Ist umgekehrt diese Rangbedingung erfüllt, dann ist b = i=1 xi vi eine T Linearkombination der Spalten von A, und damit ist x = (x1 ; : : : ; xn ) Beweis. Wenn Ax =P b lösbar Spaltenschreibweise, ist, dann ist, mit n i=1 xi vi = b, d.h. eine Lösung. Die Zusätze sind dann oensichtlich. Beispiel. Das folgende lineare Gleichungssystem erfüllt die Lösbar- keitsbedingung von Satz 4.1.1 nicht, und ist oensichtlich unlösbar. x1 + x2 = 0; x1 + x2 = 1: Satz 4.1.2. Sei A 2 M(m n; K ). Die Gesamtlösung, des homogenen Gleichungssystems Ax = 0 ist ein Vektorraum der Dimension n rang A. Die Gesamtlösung, des inhomogenen Gleichungssystems Ax = b ist, im Falle der Lösbarkeit, x0 + ker A = fx0 + y j Ay = 0g wobei x0 (irgend-)eine spezielle Lösung ist, also Ax0 = b. Beweis. Sei ! K m eine lineare Abbildung mit darstellender A bzgl. der beiden Standardbasen. Dann kann man ker A mit Unterraum ker ' identizieren und erhält nach Satz 3.2.2, dass Matrix dem ' : Kn LINEARE ALGEBRA ker A 51 ein Vektorraum ist. Nach dem Dimensionssatz 3.2.4 für Abbil- dungen gilt dann n = dim V = dim ker ' + dim '(V ) = dim ker A + rang A: x1 eine weitere Lösung, d.h. Ax1 = b, dann gilt A(x1 x0 ) = 0, d.h. x1 = x0 + y mit y 2 ker A. Somit liegt jede Lösung von Ax = b in x0 + ker A. Umgekehrt ist auch jedes Element x0 + y mit y 2 ker A Sei eine Lösung. Korollar 4.1.3. Für A 2 M(n; K ) sind äquivalent: (1) Ax = 0 hat nur die Lösung 0. (2) Ax = b ist für jedes b eindeutig lösbar. (3) rang A = n. (4) A ist invertierbar. 1 Die eindeutig bestimmte Lösung ist dann x = A b. Beweis. (3) und (4) sind nach Satz 3.4.5 äquivalent. Aus (4) folgen x = A 1 b die einzige Lösung für invertierbares A ist. Sowohl aus (1) als auch aus (2) folgt, dass entweder 0 oder b eine eindeutige Linearkombination der Spalten von A ist, d.h. die Spalten von A sind linear unabhängig und rang A = n. Also folgt (3). sofort (1) und (2), da Elementare Umformungen. Denition. Elementare Zeilenumformungen 4.2. (Spaltenumformungen ) einer Matrix sind (1) Multiplikation einer Zeile (Spalte) mit einem Skalar (2) Vertauschung zweier Zeilen (Spalten), 6= 0, (3) Addition des Vielfachen einer Zeile (Spalte) zu einer anderen. Es gibt drei Typen von elementaren Matrizen (1) Mi (a) = E + (a 0 B B B B B =B B B B @ 1)Eii = 1 1 .. C C C C C C: C C C A . 1 a 1 .. . 1 Die Matrix a 6= 0. Mi (a) ist invertierbar und Mi (a) 1 = M i (a 1 ), falls 52 LINEARE ALGEBRA (2) Vij = E Eii + Eij 0 Ejj + Eji = 1 1 B B B B B B B B B =B B B B B B B B B @ .. C C C C C C C C C C: C C C C C C C C A . 1 1 . . . .. . . . 1 0 1 . 1 0 1 .. . 1 Vij erfüllt Vij ZA(i; j; a) = E + aEij = Die Matrix (3) 0 B B B =B B @ 1 = Vij , ist also selbstinvers. 1 1 .. a C C C C: C A . 1 ZA(i; j; a) ist invertierbar und ZA(i; j; a) 1 = ZA(i; j; a). Das folgende Korollar ergibt sich sofort aus den Denitionen. Korollar 4.2.1. Elementare Matrizen sind invertierbar und ihre In- versen sind wieder elementare Matrizen. Elementare Zeilenumformungen (Spaltenumformungen) und Linksmultiplikationen (Rechtsmultiplikationen) mit den entsprechenden elementaren Matrizen bewirken dasselbe. Insbesondere treten keine Rangänderungen ein. 0 Denition. Sei die Matrix A B = @ z1 . . . zn 1 C A zeilenweise geschrieben. A hat Treppenform , wenn sich die Zahl der führenden Nullen der Zeilen z1 ; z2 ; : : : streng monoton erhöht. Man sagt 0 Beispiel. 1 0 1 6 7 4 @ 0 0 0 2 3 A 0 0 0 0 0 0 ist in Treppenform, 1 1 2 3 @ 4 5 6 A 0 0 7 gen nicht. Das folgende Korollar ist eine Konsequenz von Korollar 4.1.3. dage- LINEARE ALGEBRA Korollar 4.2.2. 53 Der Rang einer Matrix in Treppenform ist gleich der Anzahl der Zeilen ungleich 0. Insbesondere ist eine Matrix in Treppen- form genau dann invertierbar, wenn sie eine obere Dreiecksmatrix ist mit Diagonalelementen, die sämtlich ungleich 0 sind. Gauÿalgorithmus. Sei 0 6= A 2 M(m n; K ) über einem Körper K . 4.3. (1) In der ersten Spalte, die ungleich 0 ist, also z.B. in der Spalte, wird durch Zeilenvertauschung a1j 6= 0 erreicht. j -ten (2) Durch Aufaddieren von geeigneten Vielfachen der ersten Zeile auf die folgenden annulliert man alle Einträge in der Zeilenindex 2. j -ten Spalte ab (3) Die erste Zeile lässt man unverändert, und verfährt mit der Restmatrix, d.h. alle Zeilen mit Index 2, genauso. Dieses Verfahren, iteriert, heiÿt Gauÿalgorithmus . Damit erhält man eine Matrix in Treppenform. Satz 4.3.1. Der Gauÿalgorithmus überführt eine Matrix in Treppen- A existiert eine invertierbare Matrix B , so dass BA in Treppenform ist. Es gilt rang A = rang BA. form. Für jede Matrix Beweis. Durch den Gauÿalgorithmus wird die Matrix A in Treppen- form überführt. Nach Korollar 4.2.1 geschieht diese Umformung ohne Rangänderung, schlieÿlich durch Linksmultiplikation mit einer invertierbaren Matrix B , nämlich dem Produkt aller elementaren Matrizen, die von links heran multipliziert werden. Bemerkung. Der Gauÿalgorithmus ist ein praktikables Verfahren zur Bestimmung des Ranges einer Matrix. Er bricht ab, wenn die Restmatrix 0 ist. Elementare Zeilenumformungen vom Typ (1), also Multipli- kationen von Zeilen mit Skalaren nicht verwendet. 6= 0, wurden beim Gauÿalgorithmus Das gewinnt später bei der Berechnung der Deter- minante an Bedeutung. Der Rang einer Matrix ist eine algorithmische Gröÿe , und keine explizite Funktion, d.h. es gibt keine für alle Matrizen gleiche Funktion, z.B. der Matrixeinträge, die als Wert den Rang einer Matrix hat. Satz 4.3.2. Die allgemeine lineare Gruppe wird von den elementaren Matrizen erzeugt, d.h. jede invertierbare Matrix ist ein Produkt von elementaren Matrizen. 54 LINEARE ALGEBRA A führt der Gauÿalgorithmus zu einer invertierbaren oberen Dreiecksmatrix BA, wobei B das Produkt Beweis. Für eine invertierbare Matrix von elementaren Matrizen ist. Insbesondere sind alle Diagonaleinträge ungleich 0 und gestatten, beginnend mit der letzten Zeile, wiederum mit elementaren Zeilenoperationen, d.h. mit Linksmultiplikationen mit Elementarmatrizen, eine Überführung von Diagonalmatrix B; C; D, CBA = D. Somit ist A BA in eine (invertierbare) B 1 C 1 D. Hierbei sind = und damit auch ihre Inversen, allesamt Produkte von Ele- mentarmatrizen. Also ist jede invertierbare Matrix das Produkt von Elementarmatrizen. Der folgende Satz sichert, dass sich die Lösung eines linearen Gleichungssystems bei Umformung der Matrix, mittels Gauÿalgorithmus, in Treppenform nicht verändert. Satz 4.3.3. A invertierbar und sei B das Produkt der elementaren Matrizen, die A in Treppenform überführen, d.h. 0 c11 1 .. A BA = @ . 0 cnn ist eine (invertierbare) obere Dreiecksmatrix mit c11 cnn 6= 0. Dann ist die Lösung von Ax = b dieselbe wie von BAx = Bb und rekursiv beT stimmbar. Genauer, sei C = (cij ) = BA und d = (d1 ; : : : ; dn ) = Bb. Dann lassen sich die Komponenten xi der Lösung rekursiv bestimmen: d c d c d xn = n ; xn 1 = n;n n 1 n 1;n n ; usw. : cn;n cn 1;n 1cn;n Sei die Matrix Beweis. Die linearen Gleichungssysteme die gleichen Lösungen, weil der B Ax = b und BAx = Bb haben invertierbar ist. xi ergibt die angegebenen Formeln. Rekursives Einsetzen Man nennt das Verfahren, die Lösung eines linearen Gleichungssystems, mit Matrix in Treppenform, rekursiv zu erhalten, Gauÿelimination . Explizite Invertierung von Matrizen. 1 Sei A invertierbar und sei A = (v1 ; : : : ; vn ) spaltenweise geschrieben. Dann gelten Avi = ei , für i = 1; : : : ; n. D.h. man erhält durch die Lösung der n linearen Gleichungssysteme Ax = ei , für i = 1; : : : ; n, die Inverse von A. Oft verwendet man den Gauÿalgorithmus, um die Inverse zu bestimmen. Man bringt die erweiterte Matrix (A; E ) mit elementaren Zeilenumformungen in die Form (E; B ), vgl. Satz 4.3.2. 1 Dabei entsteht automatisch B = A , weil dem Gauÿalgorithmus die LINEARE ALGEBRA 55 Linksmultiplikation mit einer invertierbaren Matrix entspricht, die hier A 1 ist, denn A 1 (A; E ) = (E; A 1 ). Satz 4.3.4. Die invertierbaren, oberen Dreiecksmatrizen gleich bilden eine Gruppe, analog die unteren. Beweis. Es genügt zu zeigen, dass die Menge der invertierbaren, z.B. oberen, Dreiecksmatrizen bzgl. Multiplikation und Inversion abgeschlos- A = (aij ) ist genau dann eine obere Dreiecksma= 0 für alle i > j . Für die Einträge eines Produk= P AB zweier oberer Dreiecksmatrizen A; B ist cij = sen ist. Eine Matrix aij (cij ) trix, wenn Pn C = k=1 aik bkj = weil cij für i > tes gemäÿ 0 j ikj aik bkj , also ist AB eine obere Dreiecksmatrix, durch eine leere Summe gegeben ist, die denitions- ist. Um die Abgeschlossenheit bzgl. Inversion zu zeigen, genügt es in der AB = E mit einer invertierbaren oberen Dreiecksmatrix B , A = B 1 als obere Dreiecksmatrix nachzuweisen. Aus der Gleichung AB = E folgt durch Bestimmung der ersten Spalte des Produkts, dass die erste Spalte von A ein Vielfaches ae1 des ersten EinGleichung die Matrix heitsvektors ist. Damit folgt weiter durch die Bestimmung der zweiten Spalte des Produkts, dass die zweite Spalte von A eine Linearkombi- nation der ersten beiden Einheitsvektoren ist, usw., es ergibt sich eine obere Dreiecksmatrix für A. Bemerkung. (1) Für eine invertierbare obere Dreiecksmatrix A folgt, 1 wegen a11 ann 6= 0, aus der Matrixgleichung AA = E: 0 1 1 0 a11 a111 1 .. .. A =@ A: A 1=@ . . 0 ann 0 ann1 (2) Die Inverse einer unitriangulären Matrix trix mit Diagonaleinträgen, die alle gleich angeben. Sei A=E N Pn 0 sind, also P dij = 0 d d = k=1 ik kj i+1kj Dreiecksmatrix Matrix 1 sind, lässt sich explizit mit einer oberen Dreiecksmatrix deren Diagonaleinträge N 2 = (fij ), fij = A, d.h. eine DreiecksmaN = (dij ), i + 1 > j . Dann gilt für d d . Also hat die obere 1 ik kj für N 2 nicht nur eine verschwindende Hauptdiago- nale sondern auch eine verschwindende obere Nebendiagonale . Mit glei- N j mindestens n N = 0. Quadra- chem Argument, beweist man induktiv, dass die Potenz j 1 verschwindende Nebendiagonalen besitzt, also tische Matrizen 6= 0 heiÿen nilpotent , wenn eine Potenz die Nullmatrix 1 xn = (1 x)(1 + x + + xn ), ist. Wendet man die Identität vgl. geometrische Reihe , auf die beiden kommutierenden Matrizen 1 E; N 56 LINEARE ALGEBRA N )(E + N + + N n 1 ) = A(E + N + + N n 1 ), also die Inverse A 1 = E + N + + N n 1 . (3) Für eine invertierbare obere Blockdreiecksmatrix A gilt 1 0 1 X Y Y X 1 A = 0 Z = 0 Z 1 ; 0 mit Y = X 1 Y Z 1 , wie man durch Multiplikation bestätigt. Satz 4.3.5. Jede invertierbare Matrix A über einem Körper gestattet eine LU-Zerlegung. D.h. es existiert eine Permutationsmatrix P , eine untere Dreiecksmatrix L, mit lauter Einsen auf der Hauptdiagonalen, und eine obere Dreiecksmatrix U derart, dass AP = LU . an, dann ergibt sich E=E N n = (E Beweis. Beim Gauÿalgorithmus wendet man elementare Zeilenumformungen vom Typ (3) an, d.h. ein Vielfaches einer oberen Zeile wird auf eine untere Zeile addiert. Diese Umformungen werden durch Linksmultiplikation mit einer invertierbaren unteren Dreiecksmatrix bewirkt, vgl. die Denition der Elementarmatrizen. Die gleichfalls verwendeten Zeilenvertauschungen, denen ja keine untere Dreiecksmatrix entspricht, dienen dazu einen Pivot , das ist ein Eintrag ungleich 0, auf die Diago- nale zu permutieren. Das ist bei einer invertierbaren Matrix auch mit Spaltenpermutationen möglich. Also gibt es, vgl. Satz 4.3.4, eine invertierbare untere Dreiecksmatrix L 1 und eine Permutationsmatrix so dass, entsprechend dem Gauÿalgorithmus, in Treppenform ist. Also ist lar 4.2.2, da U mit U L AP 1 =U P, eine Matrix eine obere Dreiecksmatrix nach Korol- A invertierbar ist. Zur Numerik linearer Gleichungssysteme. (1) Groÿe Matrizen passen womöglich nicht in den Computer, es sei denn, sie sind dünn besetzt. Matrizen heiÿen dünn besetzt , wenn es vorteilhaft ist die Speicherung von Einträgen 0 zu un- terdrücken, vgl. [1]. (2) Rundungsfehler wachsen beim Gauÿalgorithmus an und erzwingen u.U. eine Rechnung mit Gleitkommazahlen mit zunehmend längerer Mantisse . (3) Statt das Gleichungssystem Ax b. Ax = b zu lösen, minimiert man Dadurch vermeidet man Schwierigkeiten mit der Lösbar- keitsbedingung. (4) Lösungsverfahren, z.B. der Gauÿalgorithmus, lassen sich z.T. erheblich durch geeignete Umformungen der Matrix beschleunigen, z.B. durch geschickte Umordnung von Zeilen und Spalten, vgl. [1]. LINEARE ALGEBRA 57 5. Determinanten Quadratischen Matrizen über einem Körper oder Ring werden Skalare zugeordnet, ihre sog. Determinanten. Sie beschreiben Volumina. Beispiel. Die Zeilenvektoren der Matrix M = ac db spannen ein Parallelogramm auf mit der orientierten Fläche det(M ) = ad bc, der Determinante der Matrix M . Die Matrix M ist übrigens genau dann invertierbar, wenn det(M ) 6= 0. Permutationen. Denition. Eine bijektive Selbstabbildung der Menge M = f1; : : : ; ng heiÿt Permutation von M . Die Permutationen von M bilden bzgl. 5.1. der Hintereinanderausführung als Verknüpfung die symmetrische Grup- Sn der Ordnung n!, vgl.[3, symmetric group]. Für 2 Sn bezeichnet man = (1); : : : ; (n) . Eine Permutation , die nur i mit j verpe tauscht und alle anderen Ziern xiert, heiÿt Transposition , bezeichnet = (i; j ). Satz 5.1.1. Die mit symmetrische Gruppe wird von den Transpositionen erzeugt, d.h. jede Permutation ist das Produkt endlich vieler Transpositionen. Beweis. Es wird eine Induktion über 2 ist klar, wegen (1; 2) = id. 2 n n geführt. Der Beginn für = Sei die Behauptung richtig für alle < n. Seien i = (i; n) Transpositionen für 1 Sei Sn 1 = f 2 Sn j (n) = ng. Damit erhält man eine natürlichen Zahlen in 1. Partition Sn = Sn (5.1) 1 [ n[1 i=1 Sn 1 i : Denn wegen der Kürzungsregel in Gruppen haben alle Mengen fi j 2 Sn g die Mächtigkeit (n 1 se Mengen paarweise disjunkt, da für i 1)! = 6= j i Sn 1 i = jSn j, weiter sind die0 mit ; 2 Sn folgt 1 6= 0j , weil die linke Permutation i nach n permutiert und die rechte j nach n. 1 Nach Induktionsannahme ist jedes Element in Sn 1 ein Produkt aus Transpositionen, also nach (5.1) auch jedes Element von Sn . Bemerkung. Produktdarstellungen von Permutationen mittels Trans- positionen sind nicht eindeutig, z.B. id = (2; 1)(2; 1) = (3; 1)(3; 1). 58 LINEARE ALGEBRA Denition. Sei n 2. Die symmetrische Gruppe Sn operiert , vgl. [3, Groups Acting on Sets] durch Vertauschung der Indizes auf der Menge Z[x ; : : : ; xn] aller Polynome p(x ; : : : ; xn) in den Variablen xi, 1 1 vermöge p(x1 ; : : : ; xn ) = p(x(1) ; : : : ; x(n) ) für 2 Sn : Lemma 5.1.2. Sei n 2 und sei Y f (x1 ; : : : ; xn ) = (xj xi ) 2 Z[x1 ; : : : ; xn ]: i<j 2 Sn 2 f+1; 1g, derart, dass Dann gibt es für jede Permutation Vorzeichen, sign ein eindeutig bestimmtes f (x1 ; : : : ; xn ) = (sign )f (x1 ; : : : ; xn ): Transpositionen haben das Vorzeichen 1. Beweis. Da Permutationen bijektiv sind, ist das Vorzeichen, sign , wohldeniert und eindeutig. Weiter genügt es zu zeigen, dass das Vorzeichen der Transposition hY (1; 2) i<j i (xj xi ) (1; 2) h = (1; 2) (x2 gleich x1 ) 1 ist. Es gilt Y (xj i<j i;j )6=(1;2) ( denn im Restprodukt bewirkt die Transposition xi ) i = Y i<j (xj xi ); (1; 2) nur eine Umord- nung. Denition. Das Vorzeichen einer Permutation heiÿt auch Signum , sign . Eine Permutation mit Vorzeichen +1 heiÿt gerade , sonst ungerade . Transpositionen sind ungerade. Satz 5.1.3. Für ; 2 Sn ist sign( ) = (sign )(sign ). Insbesonde- re gilt die Vorzeichenregel, d.h. das Produkt zweier ungerader Permutationen ist gerade. Es gilt Produkt von k sign = ( 1)k , wenn die Permutation ein Transpositionen ist. Die Anzahlen der Transpositionen in den Produktdarstellungen einer Permutation haben gleiche Parität. Speziell sind gerade Permutationen Produkte einer geraden Anzahl von Transpositionen. Beweis. Nach Lemma 5.1.2 ist ( )f (x1 ; : : : Ist dass ; xn ) = f (x1 ; : : : ; xn ) = (sign )f (x1 ; : : : = (sign )(sign )f (x1 ; : : : ; xn ): ; xn ) = 1 k ein Produkt von Transpositionen, dann folgt sofort, sign = ( 1)k , also ist die Anzahl der Transpositionen in einer LINEARE ALGEBRA 59 Produktdarstellung einer Permutation immer von gleicher Parität , d.h. entweder gerade oder ungerade. Das nächste Korollar gilt nach Satz 5.1.3 und weil jSnj = n! ist. Korollar 5.1.4. Es gibt gleich viele gerade wie ungerade Permutatio1 nen in Sn , nämlich n!. Die geraden Permutationen bilden eine Unter2 gruppe der Sn , die sog. alternierende Gruppe An . Insbesondere gelten: sign id = +1 und sign = sign 1 . Beweis. Mit einer ungeraden Permutation multiplikation An 7! 0 Abbildungen An 0 2 Sn werden per Links! Sn n An und Sn n An ! deniert, vgl. Satz 5.1.3. Beide Hintereinanderausführungen erge- ben die jeweilige Identität. Also sind diese Abbildungen nach Satz 0.5.2 bijektiv, d.h. jAnj = n!. tergruppe von 1 2 Wiederum nach Satz 5.1.3 ist An eine Un- Sn, weil id 2 An und weil Inverse und Produkt gerader Permutationen wieder gerade sind. Denition. Eine quadratische Matrix, die in jeder Zeile und jeder Spalte genau einen Eintrag 1 und sonst lauter Einträge 0 hat, heiÿt Permutationsmatrix . Eine solche Matrix entsteht aus der Einheitsmatrix durch Permutation der Zeilen (Spalten) und ist invertierbar, da sich hierbei der Rang nicht verändert. Die n-reihigen Permutations- matrizen bilden eine Gruppe bzgl. Multiplikation, isomorph zur symmetrischen Gruppe Sn . Die Einheitsmatrix ist das neutrale Element, und für eine Permutationsmatrix P ist die Transponierte PT = P 1 die inverse Matrix. Das Signum einer solchen Permutationsmatrix ist gleich dem Signum der Permutation mit der man die Zeilen (Spalten) der Einheitsmatrix umordnet, um die gegebene Permutationsmatrix zu erhalten. Multilinearformen. Denition. Sei V ein K -Vektorraum und sei n 2. Eine Abbildung ' : Vn = V V ! K heiÿt Multilinearform , oder genauer n-Linearform auf V oder n-linear , 5.2. wenn sie in allen Komponenten linear ist, d.h. '(v1 ; :::; vi + vi0 ; :::; vn ) = '(v1 ; :::; vi ; :::; vn ) + '(v1 ; :::; vi0 ; :::; vn); '(v1 ; :::; avi ; :::; vn ) = a'(v1 ; :::; vi ; :::; vn ); 0 für alle a 2 K , vi ; vi 2 V und alle i = 1; : : : ; n. Für n = 2 spricht man von Bilinearform . Eine n-Linearform ' heiÿt alternierend , wenn 60 LINEARE ALGEBRA '(v1 ; : : : ; vn ) = 0, falls das Tupel (v1 ; : : : ; vn ) linear abhängig ist. Insbesondere gilt '(v1 ; : : : ; vn ) = 0 für eine alternierende n-Linearform ', sofern vi = vj für i 6= j . Eine n-Linearform ' 6= 0 auf einem ndimensionalen Vektorraum V , heiÿt nicht ausgeartet , wenn v1 ; : : : ; vn 2 V existieren, so dass '(v1 ; : : : ; vn ) 6= 0, ansonsten ausgeartet. Das Beispiel, det(M ), am Anfang dieses Kapitels ist eine nicht ausgeartete, alternierende Bilinearform der Spalten bzw. der Zeilen von M . Lemma 5.2.1. Eine n-Linearform ist genau dann alternierend, wenn '(v1 ; : : : ; vn ) = 0, falls vi = vj , i 6= j . n-Linearform hat oensichtlich den Wert 0 falls Argumente wiederholt auftreten. Sei umgekehrt ' eine n-Linearform, die der angegebenen Bedingung genügt. Sei (v1 ; : : : ; vn ) ein linear Pn abhängiges Tupel von Vektoren, d.h. i=1 ai vi = 0 mit o.B.d.A. a1 6= 0. Pn 1 Also ist v1 = a a v und i=2 1 i i '(v1 ; : : : ; vn ) = a1 1 a2 '(v2 ; v2 ; : : : ) a1 1 a3 '(v3 ; v2 ; v3 ; : : : ) a1 1 an '(vn ; v2 ; : : : ; vn) = 0; d.h. ' ist alternierend. Lemma 5.2.2. Sei ' eine alternierende n-Linearform auf V , und sei 2 Sn eine Permutation. Dann gilt für v1 ; : : : ; vn 2 V '(v(1) ; : : : ; v(n) ) = (sign )'(v1 ; : : : ; vn): Beweis. Eine alternierende Beweis. Für n = 1 ist nichts zu zeigen. Sei also jetzt n 2. Sätzen 5.1.1 und 5.1.3 genügt es für eine Transposition, z.B. Nach den (1; 2), den Vorzeichenwechsel zu bestätigen. Es gilt wie behauptet: '(v1 + v2 ; v1 + v2 ; v3 ; : : : ) '(v1 ; v1 ; v3 ; : : : ) + '(v1 ; v2 ; v3 ; : : : ) +'(v2 ; v1 ; v3 ; : : : ) + '(v2 ; v2 ; v3 ; : : : ) = '(v1 ; v2 ; v3 ; : : : ) + '(v2 ; v1 ; v3 ; : : : ): Lemma 5.2.3. Sei (v1 ; : : : ; vn ) eine Basis des n-dimensionalen Vektorraumes V . Für eine alternierende n-Linearform ' auf V gilt: X (5.2) '(u1 ; : : : ; un ) = '(v1 ; : : : ; vn ) (sign )a1;(1) an;(n) ; 0 = = wobei Ist P ui = nk=1 aik vk , 2Sn für i = 1; : : : ; n. ' zusätzlich nicht ausgeartet, dann ist '(v1 ; : : : ; vn ) = 0 äquivalent v 1 ; : : : ; vn . zur linearen Abhängigkeit der LINEARE ALGEBRA Beweis. Unter Verwendung der '(u1 ; : : : ; un) = n X n X k1 =1 k2 =1 61 n-Linearität ergibt sich n X kn =1 a1;k1 an;kn '(vk1 ; : : : ; vkn ): ' alternierend, dann gilt '(vk1 ; : : : ; vkn ) = 0, falls (k1 ; : : : ; kn ) keine Permutation von (1; : : : ; n) ist, und mit Berücksichtigung des VorzeiIst chens gemäÿ Lemma 5.2.2 folgt die Formel (5.2). Wenn auch nur für eine Basis (v1 ; : : : ; vn ) mel (5.2) identisch gilt 0. '(v1 ; : : : ; vn ) = 0, dann ist ' laut For- Der folgende Satz sichert die Existenz nicht ausgearteter, alternierender n-Linearformen. Satz 5.2.4. Sei (v1 ; : : : ; vn) eine Basis des n-dimensionalen K -Vektorn ! K , deniert raumes V . Für 0 6= a 2 K ist die Abbildung ' : V durch '(u1; : : : ; un) = a P X 2Sn (sign )a1;(1) an;(n) ; ui = nk=1 aik vk , für i = 1; : : : ; n, eine nicht ausgeartete, nierende n-Linearform auf V . wobei alter- Beweis. Wegen der eindeutigen Basisdarstellung ist die Abbildung ' wohldeniert, und oensichtlich eine Multilinearform, und nicht aus- '(v1 ; : : : ; vn ) = a 6= 0. Also ist, auÿer im trivialen Fall n = 1, nur noch zu beweisen, dass ' alternierend ist. Es genügt nach Lemma 5.2.1 für ui = uj , also aik = ajk für k = 1; : : : ; n, zu zeigen, dass '(u1 ; : : : ; un ) = 0 ist. Mit der Transposition 0 = (i; j ) gilt dann geartet, wegen nach Korollar 5.1.4 X 2Sn (sign )a1;(1) an;(n) X = + = = da 2An X 2An X 2An (sign )a1;(1) ai;(i) aj;(j ) an;(n) (sign(0 )a1;0 (1) ai;0 (i) aj;0 (j ) an;0 (n) sign + sign(0 ) a1;(1) ai;(i) aj;(j ) an;(n) 0; ai;(i) = aj;0 (j ) und aj;(j ) = ai;0 (i) und sign = Es gibt nur wenige nicht ausgeartete, alternierende einem Vektorraum V, sign(0 ). n-Linearformen auf wie der nächste Satz bestätigt. Normiert man 62 LINEARE ALGEBRA eine nicht ausgeartete, alternierende n-Linearform auf einer xierten Basis, dann gibt es nur eine einzige nicht ausgeartete, alternierende n-Linearform. Satz 5.2.5. Nicht ausgeartete, alternierende n-Linearformen auf einem n-dimensionalen Vektorraum V sind proportional, d.h. für zwei nicht ausgeartete, alternierende n-Linearformen '; auf V existiert ein a 6= 0 mit '(u1 ; : : : ; un ) = a (u1 ; : : : ; un ) für alle u1 ; : : : ; un 2 V . Insbesondere existiert genau eine nicht ausgeartete, alternierende nLinearform ' derart, dass '(v1 ; : : : ; vn ) = 1 für die xierte Basis (v1 ; : : : ; vn ) ist. ; vn ) ist der Bruch '(v1 ; : : : ; vn ) a= (5.3) 6= 0 (v1 ; : : : ; vn ) Pn wohldeniert nach Satz 5.2.3. Seien ui = k=1 aik vk , für i = 1; : : : ; n, P und sei c = 2Sn (sign )a1;(1) an;(n) , dann folgt mit Formel (5.2) '(u1 ; : : : ; un ) = c'(v1 ; : : : ; vn) = ac (v1 ; : : : ; vn) = a (u1 ; : : : ; un): Beweis. Für eine Basis (v1 ; : : : Determinanten von Endomorphismen und Matrizen. Denition. Sei B = (v1 ; : : : ; vn ) eine Basis des n-dimensionalen K -Vektorraumes V , und sei ' eine nicht ausgeartete, alternierende nLinearform auf V . Dann heiÿt ' (v1 ); : : : ; (vn) det() = (5.4) '(v1 ; : : : ; vn) die Determinante des Endomorphismus von V . Grundsätzlich haben 5.3. nur Endomorphismen endlich dimensionaler Vektorräume eine Determinante. Der nächste Satz rechtfertigt die obige Denition. Satz 5.3.1. Die Determinante eines Endomorphismus ist unabhängig von der Basis und unabhängig von der nicht ausgearteten, alternierenden Multilinearform. kein Automorphismus, dann ist das Tupel (v1 ); :::; (vn ) linear abhängig, also ist det = 0 nach Lemma 5.2.3 für alle Basen und alle alternierenden n-Linearformen '. Für eine nicht ausgeartete n-Linearform ' und einen Automorphismus ist die Abbildung ' : V V ! K , deniert durch '(u1; : : : ; un) = ' (u1 ); : : : ; (un) , eine n-Linearform, da linear ist. Beweis. Ist LINEARE ALGEBRA 63 ist das Tupel (u1 ; : : : ; un ) genau dann linear unabhängig, wenn (u1 ); : : : ; (un ) linear unabhängig ist. Also ist ' wie auch ' nicht ausgeartet. Nach Lemma 5.2.1 ist ' mit ' alternierend. Somit sind ' und ' proportional nach Satz 5.2.5, d.h. es gibt ein a 2 K , so dass für jede Basis (v1 ; : : : ; vn ) ' (v1 ; : : : ; vn ) ' (v1 ); : : : ; (vn ) a= = = det(): '(v1 ; : : : ; vn ) '(v1 ; : : : ; vn ) Für einen Automorphismus Die Determinante ist also basisunabhängig. Eine weitere nicht ausgeartete n-Linearform ist proportional zu Folglich ist ', also ' = b mit b (v1 ); : : : ; (vn) ' (v1 ); : : : ; (vn ) = det() = '(v1 ; : : : ; vn ) b (v1 ; : : : ; vn ) (v1 ); : : : ; (vn ) : = (v1 ; : : : ; vn ) Damit ist die Determinante auch unabhängig von '. b 6= 0. Der Kern des folgenden Korollars heiÿt auch Determinantenmultiplika- tionssatz. Korollar 5.3.2. (Determinantenmultiplikation) Für Endomorphismen ; eines endlich dimensionalen Vektorraumes gelten: (1) (2) ist genau dann ein Automorphismus, wenn det 6= 0. det( ) = det() det( ); det(id) = 1; det( 1 ) = det() 1 Beweis. (1): Nach Lemma 5.2.3 haben Automorphismen denitionsgemäÿ Determinante (2): Seien und 6= 0. Automorphismen, und damit auch ist die Produktformel sowieso erfüllt. nach Satz 5.3.1 mit einer Basis (v 1 ; : : : , ansonsten Dann gilt laut Denition und ; vn ) ' (v1 ); : : : ; (vn) det( ) = '(v1 ; : : : ; vn ) ' (v1 ); : : : ; (vn) ' (v1 ); : : : ; (vn) = '(v1 ; : : : ; vn ) ' (v1 ); : : : ; (vn ) = det() det( ): 1 1 folgt mit der ProSowieso ist det(id) = 1, und det( ) = det() duktformel. 64 LINEARE ALGEBRA Denition. Als Determinante der quadratischen Matrix A = (aij ) 2 M(n; K ) bezeichnen wir den Skalar X (5.5) det A = (sign )a1;(1) an;(n) : 2Sn Für eine Permutationsmatrix Bemerkung. P ist det P = sign P = 1. Die Formel (5.5) lässt sich mittels Permutationsmatri- n-reihige Permutationsmatrix P = (pij ) gibt es eine Permutation 2 Sn , so dass pi; (i) = 1 für alle i = 1; : : : ; n, und pij = 0 sonst. Das Produkt a1; (1) an; (n) in der Formel (5.5) entsteht, indem man alle Einträge von A an den 1-Stellen von P nimmt zen veranschaulichen. Für eine und multipliziert. Versieht man dieses Produkt noch mit dem Vorzeichen von , wobei sign = sign P , und summiert über alle Permutati- onsmatrizen, so erhält man die Determinante. Determinanten sind sehr wichtig für die Theorie, aber aus praktischnumerischer Sicht nicht ökonomisch, z.B. deshalb weil die Summe (5.5) für eine n n Matrix n! Summanden hat. Daher werden in numerischen Algorithmen niemals Determinanten verwendet. Das folgende Resultat erlaubt den Transfer von Sätzen über Determinanten von Endomorphismen auf Matrizen. Satz 5.3.3. Die Determinanten aller darstellenden Matrizen eines En- domorphismus eines endlich dimensionalen Vektorraumes sind gleich der Determinante des Endomorphismus. A = (aij ) die darstellende Matrix P des Endomorphismus (v1 ; : : : ; vn ), also (vi ) = nj=1 aji vj , für i = 1; : : : ; n. Beweis. Sei bzgl. der Basis Die Determinante eines Endomorphismus ist nach Satz 5.3.1 basisunabhängig, und wegen Formel (5.2) gilt det = = ' (v1 ); : : : ; (vn) '(v1 ; : : : ; vn) det A: = X 2Sn (sign )a1;(1) an;(n) Also sind die Determinanten aller darstellenden Matrizen des Endomorphismus 5.4. gleich det . Rechenregeln für Determinanten von Matrizen. Rechenregeln für Determinanten von Matrizen kann man entweder mit Verwendung der expliziten Denition (5.5) beweisen, oder man betrachtet die Matrizen als darstellende Matrizen von Endomorphismen, nutzt die Gleichheit mit den Determinanten dieser Endomorphismen, LINEARE ALGEBRA 65 vgl. Satz 5.3.3, und verwendet dann die Ergebnisse über alternierende Multilinearformen. In allen Ergebnissen über Determinanten von Matrizen können Zeilen und Spalten vertauscht werden, wie im ersten Punkt des folgenden Satzes festgestellt wird. Deshalb genügt es die Aussagen über elementare Umformungen, also (2) bis (5), für Spalten oder Zeilen zu beweisen. Satz 5.4.1. Für eine n-reihige quadratische Matrix A über dem Körper K gelten: T (1) det A = det A . (2) Permutiert man die Zeilen (Spalten) von A mit zu A, dann ist det A = (sign ) det A. Insbesondere ändert die Determinante beim Vertauschen zweier Zeilen (Spalten) das Vorzeichen. (3) Addiert man zu einer Zeile (Spalte) der Matrix eine (beliebige) Linearkombination einer anderen, dann ändert sich die Determinante nicht. (4) Multipliziert man eine Zeile (Spalte) von wird die Determinante mit (5) Hat A c multipliziert. A mit c linear abhängige Zeilen (Spalten), dann ist 2 K, dann det A = 0. det A = 0, wenn A zwei gleiche Zeilen (Spalten), 0-Zeile (-Spalte) hat. = 1, det cA = cn det A. Insbesondere ist bzw. eine (6) det E B (7) (Determinantenmultiplikationssatz) Ist eine zweite n-reihige quadratische Matrix, dann ist det(AB ) = det(A) det(B ): (8) det A 1 = det A 1 , falls A invertierbar ist. (9) Matrizen sind genau dann invertierbar, wenn ihre Determinan- 6= 0 ist. te (10) Ähnliche Matrizen haben gleichen Rang und gleiche Determinan- te. Die Umkehrung ist für n 2 falsch. K ist kommutativ, also gilt a1;(1) an;(n) = 1 (1);1 a 1 (n);n . Weiter durchläuft auch 1 mit die ganze GrupSn , und sign = sign 1 . Also X det A = (sign )a1;(1) an;(n) 2Sn X = (sign 1 )a 1 (1);1 a 1 (n);n 1 2Sn X = (sign )a(1);1 a(n);n = det AT : 2Sn Beweis. (1): Der Körper a pe 66 LINEARE ALGEBRA (2) folgt aus Lemma 5.2.2. (3): Nach Lemma 5.2.1 ist für eine alternierende ' (v1 + av2 ; v2 ; : : : ; vn = '(v1 ; : : : n-Linearform ; vn )+ a'(v2 ; v2 ; : : : ; vn ) = '(v1 ; : : : ; vn ): '(v1 ; : : : ; cvi ; : : : ; vn ) = c'(v1 ; : : : ; vn ) n-Linearform. (4) folgt aus rende für eine alternie- (5) folgt aus Lemma 5.2.3. (6): det E = 1 gilt laut Denition, und det(cA) = cn det A folgt aus (4). (7) folgt aus dem Determinantenmultiplikationssatz und Satz 3.3.1. (8) folgt aus (7). (9) folgt aus (8). (10): Ähnliche Matrizen haben gleichen Rang, weil sie äquivalent sind, vgl. Satz 3.5.1, und gleiche Determinante nach dem Determinantenmultiplikationssatz. Die Formel (5.5) gestattet explizit die Berechnung der Determinante, wenngleich das für gröÿere Matrizen sehr mühsam ist. Für trizen gilt: Für 33 a1;1 det a2;1 a3;1 a det 1;1 a2;1 a1;2 = a a a2;2 1;1 2;2 22 Ma- a2;1 a1;2 : Matrizen gilt: a1;2 a1;3 a a a + a a a + a a a a2;2 a2;3 = 1;1 2;2 a3;3 a a1;2 2;3 a3;1 a a1;3 2;1 a3;2 a a : 3;1 2;2 1;3 3;2 2;3 1;1 3;3 2;1 1;2 a3;2 a3;3 Meistens wird das folgende Schema zur Berechnung der Determinante einer 33 Matrix als die Regel von Sarrus bezeichnet. Man fügt die beiden ersten Spalten der Matrix hinten nochmals an, und multipliziert die drei Matrixeinträge längs der schrägen Pfeile nach unten und bildet die Summe dieser Produkte. Anschlieÿend verfährt man genauso mit den Pfeilen nach oben, allerdings versieht man bei dieser Richtung, nach oben, die Produkte noch mit einem Minuszeichen, so wie in der obigen Formel. a1;1 a2;1 a3;1 & % a1;2 a2;2 a3;2 & % & % a1;3 a2;3 a3;3 & % & % a1;1 a2;1 a3;1 % & a1;2 a2;2 a3;2 + LINEARE ALGEBRA Die Regel von Sarrus gilt nur für 33 67 Matrizen, weil 3! = 6 ist. Für gröÿere Matrizen wäre die Anzahl der Summanden zu klein. Zur Berechnung von Determinanten verwendet man i.A. den Entwicklungssatz 5.4.3 von Laplace, oder den Gauÿalgorithmus, wie anschlieÿend. Aus Formel (5.5) erhält man die Determinante von Dreiecksmatrizen, da in der Summe über alle Permutationen nur der Summand für ungleich 0 = id sein kann. Korollar 5.4.2. nn Eine minante Dreiecksmatrix A = (aij ) hat die Deter- det A = a1;1 an;n : Bemerkung. Nach Satz 5.4.1, (2) bis (4), verändern elementare Ma- trixumformungen die Determinante auf einfachste Weise. Zeilenver- tauschungen, vgl. Satz 5.4.1, (2), ändern nur das Vorzeichen der Determinante, elementare Umformungen des Typs wie in Satz 5.4.1, (3), ändern die Determinante nicht. Nur diese beiden elementaren Umformungen werden beim Gauÿalgorithmus verwendet. Eine quadratische Matrix wird also durch den Gauÿalgorithmus in eine obere Dreiecksmatrix umgeformt, und ihre Determinante wechselt dabei höchstens das Vorzeichen. Die Determinanten von Dreiecksmatrizen sind sofort ablesbar, und man hat damit ein eektives Berechnungsverfahren für Determinanten gefunden. Es gibt allerdings auch direkte Verfahren, um Determinanten von gröÿeren Matrizen zu berechnen. Denition. Streicht man von einer Matrix einige Zeilen und einige A = (aij ) eine nn Matrix i; j n die i-te Zeile und Spalten so erhält man eine Untermatrix . Sei über dem Körper die j -te K. 1 Spalte, dann erhält man die quadratische Untermatrix Das Körperelement Matrix Streicht man für adj A = (Aij Aij )T = ( 1)i+j det Mij heiÿt Adjunkte von heiÿt Adjunkte von A. Satz 5.4.3. (Entwicklungssatz von Laplace) A = (aij ) über dem Körper K gelten: (1) (2) P det A = nj=1 aij Aij P det A = ni=1 aij Aij Für eine aij . nn Die Matrix i A. Entwicklung nach der j -ten Spalte von A. Entwicklung nach der -ten Zeile von Beweis. Nach Satz 5.4.1 genügt es die erste Aussage zu zeigen. Matrix Mij . Die A = (aij ) beschreibe einen Endomorphismus bzgl. der Basis 68 LINEARE ALGEBRA P ; vn), durch die Festlegung (vi ) = nj=1 aij vj , für i = 1; : : : ; n. Dann gilt für xiertes i ' (v1 ); : : : ; (vn ) det A = det = '(v1 ; : : : ; vn ) n X ' (v1 ); : : : ; (vi 1 ); vj ; (vi+1 ); : : : ; (vn) ; = aij '(v1 ; : : : ; vn ) j =1 (v1 ; : : : {z | = det } j wobei als Faktor die Determinante des Endomorphismus j auftritt, nur durch die neue Festlegung j (vi ) = vj unterscheidet. Bj beschrieben, die sich von A nur in der i-ten Zeile unterscheidet, und diese i-te Zeile ist der j -te Einheitsvektor. Permutiert man den Eintrag 1 der Matrix Bj von der Stelle (i; j ) an die Stelle (1; 1), dann ändert die Determinante der sich von Dieser Endomorphismus wird also durch die Matrix der Matrix bei den notwendigen Zeilen- und Spaltenvertauschungen jeweils das Vorzeichen und man erhält die neue Matrix det Bj = ( 1)i+j det Nij = Aij ; dabei hat die Matrix Nij die Form 0 B Nij = B @ mit der quadratischen i (n . . . Mij 0 1 C C A Matrix Mij , die aus A durch j -ten Spalte entsteht. Wegen det Nij = 1)-reihigen Streichen der -ten Zeile und der det Mij , 1 0 Nij , d.h. nach Satz 5.4.1 (3), folgt wie behauptet: det A = det = Bemerkung. n X j =1 aij det j = n X j =1 aij Aij : Hilfreich für die praktische Anwendung des Entwick- lungssatzes von Laplace ist das Vorzeichenschachbrett , d.h. die Matrix 0 B + ( 1)i+j = B @+ . . . Beispiel. + + + 1 C C A: .. . Mit dem Satz von Laplace bestimmt man die Determinante der folgenden 44 Matrix, indem man die Matrix nach der zweiten LINEARE ALGEBRA Spalte, die nachfolgende 69 3 3 Matrix nach der zweiten Zeile entwickelt und das Vorzeichenschachbrett verwendet. det 5 3 0 1 2 0 0 0 2 1 0 3 Satz 5.4.4. 1 4 2 4 Sei 3 = ( 2) 0 1 A= 1 4 3 1 = 4(9 0 2 = ( 2)( 2) 1 3 3 4 X eine obere (analog untere) Blockdrei- Y 0 1) = 32: ecksmatrix mit quadratischen Diagonalblöcken. Dann gilt: det A = det(X ) det(Y ): Beweis. Wenn der Diagonalblock ben X X nicht invertierbar ist, dann ha- und damit auch die ganze Matrix und wegen det X = det A = 0 A linear abhängige Spalten, gilt die behauptete Gleichung. Analog argumentiert man mit den Zeilen von Y. vertierbar. Nach dem Satz von Laplace 5.4.3 gilt z.B. det(X 1 ). X und YinX 1 0 = 0 E Seien also jetzt det Mit dem Determinantenmultiplikationssatz folgt dann aus der Matrixgleichung X 0 1 0 E E Y 0 0 1 X 0 = Y E 0 E die behauptete Gleichung, weil die obere Dreiecksmatrix auf der rechten Seite die Determinante 5.5. 1 hat. Anwendungen. Es gibt explizite Darstellungen der Inversen einer Matrix und der Lösung eines linearen Gleichungssystems. Numerisch haben diese Dar- stellungen keine Bedeutung, weil Determinanten auftreten. Satz 5.5.1. Für eine n n Matrix A gelten: (1) A (adj A) = (adj A) A = det(A)En . 1 (2) A = det1 A (adj A), falls A invertierbar. Beweis. Für A = (aij ) und ihre Adjunkte adj A = (Aij )T A (adj A) = n X j =1 aij Akj Nach dem Satz von Laplace 5.4.3 gilt i = k, und weil für i 6= k ik gilt : Pn j =1 aij Akj = Æik det A, für die linke Seite nichts anderes ist als die 70 LINEARE ALGEBRA A Determinante einer Matrix, die aus Zeile durch die i-te ersetzt, Falls Satz 5.5.2. 0 ist. ad bc 6= 0, gilt: a b c d k-te und das ist eine Matrix mit zwei gleichen Zeilen, deren Determinante natürlich Beispiel. entsteht, wenn man die 1 = 1 ad bc (2) folgt sofort aus (1). d b : c a Ax = b T mit einer invertierbaren nn Matrix A = (aij ) und mit b = (b1 ; : : : ; bn ) (Cramersche Regel) Das lineare Gleichungssystem hat die eindeutig bestimmte Lösung n 1 X bk Akj xj = det A k=1 Beweis. für j = 1; : : : ; n: A ist invertierbar, d.h. det a 6= 0, und die Lösung von Ax = b ist eindeutig, vgl. 4.1.3. Man bestätigt die angegebene Lösung durch Einsetzen. n X n X n 1 X aij xj = aij bk Akj det A j =1 j =1 = wegen n X k=1 n X 1 bk aij Akj det A k=1 j =1 = bi ; Pn j =1 aij Akj = det(A)Æik , vgl. Satz 5.5.1. Bemerkung. Schreibt man die Matrix A = (v1 ; : : : ; vn) spaltenweise, dann gilt det(A) xj = det(v1 ; : : : ; vj 1 ; b; vj +1 ; : : : ; vn ), d.h. man erhält T den j -ten Eintrag xj der Lösung x = (x1 ; : : : ; xn ) als Determinante der Matrix, die aus A entsteht, wenn man die Spalte vj durch die Spalte b ersetzt. Korollar 5.5.3. Eine quadratische, ganzzahlige Matrix hat genau dann eine ganzzahlige Inverse, wenn ihre Determinante 1 ist. Beweis. Nach Satz 5.5.1 hat eine ganzzahlige Matrix mit Determinante 1 auch eine ganzzahlige Inverse, da die Einträge der Adjunkten Determinanten sind. Umgekehrt folgt aus der Ganzzahligkeit der Inversen von det(A) det(A ), 1 also det(A); det(A ) 2 Z, 1 sofort A, mit det A = 1. 1= LINEARE ALGEBRA 71 Es gibt nur wenige gröÿere Matrizen, deren Determinante man brauchbar und explizit angeben kann. Determinante. Beispiel. Seien a1 ; : : : ; an 2 K . 1 1 det .. . 1 Bekannt ist hier die Vandermonde Dann heiÿt 1 Y = (aj . . . 1i<j n ann 1 a1 a21 : : : an1 a2 a22 : : : an2 . . . . . . an a2n : : : 1 ai ) Vandermonde Determinante . Insbesondere ist diese Determinante genau dann 6= 0, wenn die ai paarweise verschieden sind. Man beweist diese Formel induktiv und mittels oensichtlicher elementarer Zeilenoperationen. 72 LINEARE ALGEBRA 6. Eigenwerte und Eigenvektoren Auf der Suche nach Normalformen für Matrizen beschäftigen wir uns zuerst mit den diagonalisierbaren Matrizen, d.h. Matrizen, die ähnlich sind zu Diagonalmatrizen. Nicht alle Matrizen sind diagonalisierbar. In diesem Zusammenhang spielen die Begrie Eigenvektor und Eigenwert eine zentrale Rolle. Resonanzphänomene der Physik sind übrigens typische Eigenwertprobleme. Charakteristisches Polynom und Eigenwerte. Denition. Sei R ein kommutativer Ring mit 1. Ein Ausdruck der 6.1. Form p(x) = an xn + an 1 xn 1 + + a1 x + a0 mit Koezienten ai 2 R, heiÿt Polynom über R in der Variablen x. Sind alle Koezienten gleich 0 dann heiÿt p(x) das Nullpolynom . Ein Polynom, ungleich dem Nullpolynom, heiÿt vom Grade n, wenn an 6= 0 in (6.1). Der Koezient an heiÿt Leitkoezient , der Koezient a0 (6.1) heiÿt konstanter Koezient. Polynome mit Leitkoezient 1 heiÿen R[x] aller Polynome über R ist bzgl. der üblichen Polynom-Addition und -Multiplikation ein Ring mit 1 2 R R[x], der sog. Polynomring über R in einer Variablen, vgl. [3, Polynomial Rings]. Das Nullpolynom ist das Nullelement. Ein Element a 2 R heiÿt Nullstelle oder Wurzel des Polynoms p(x) 2 R[x], wenn p(a) = 0. Wenn p(x) = (x b1 ) (x bn ), dann sagt man, das Polynom p(x) zerfällt normiert . Die Menge in Linearfaktoren . In dieser Darstellung kann man alle Nullstellen, bi , sofort ablesen. Bemerkung. Zerfällt ein normiertes Polynom p(x) = xn + an 1 xn 1 + + a1 x + a0 = (x b1 ) (x bn ) 2 R[x] über einem kommutativen Ring R mit 1 in Linearfaktoren, dann erhält nämlich die man die Koezienten dieses Polynoms durch Ausmultiplikation, d.h. an 1 = b1 + + bn = X 1 an an 2 3 = = in bi ; b1 b2 b3 + + bn 2 bn 1 bn = X i<j<kn 1 .. . a0 X b1 b2 + b1 b3 + + b1 bn + b2 b3 + + bn 1 bn = = ( 1)n b1 bn : 1 i<j n bi bj bk ; bi bj ; LINEARE ALGEBRA 73 Diese Darstellung der Koezienten eines Polynoms als Polynome in den Nullstellen, bzw. Wurzeln, nennt man die Vietaschen Wurzelsätze . bi heiÿen elementarsymmetrische PoPolynomials]. Ein Polynom p(x1 ; x2 ; : : : ) Diese Polynome in den Variablen lynome , vgl. [3, Symmetric in mehreren Variablen, heiÿt symmetrisch , wenn es durch beliebige Permutationen der Variablen nicht verändert wird. Die elementar- symmetrischen Polynome sind einfachste Prototypen solcher symmetrischen Polynome. Für ein normiertes Polynom (x p(x) = x2 + ax + b = b1 )(x b2 ) des Grades 2 nehmen die Vietaschen Wurzelsätze ihre einfachste Form an, nämlich a= (b1 + b2 ) und b = b1 b2 ; a bei x ist die negative Summe der beiden Nullstellen, und der konstante Koezient b ist das Produkt der beiden d.h. der lineare Koezient Nullstellen. Übrigens ist das Polynom in Lemma 5.1.2 antisymmetrisch , d.h. bei Anwendung von Permutationen der Variablen ändert sich das Vorzeichen entsprechend dem Vorzeichen der Permutation. Polynome müssen keine Nullstellen haben, z.B. hat das Polynom x 2 +1 keine reellen Nullstellen, wohl aber komplexe, i. p(x) = Wenn man von Nullstellen einer Gleichung spricht, muss man den Zahlbereich angeben in dem man Nullstellen sucht. I.A. kann man die Nullstellen von Polynomen nur numerisch, und auch nur näherungsweise berechnen. Mit dem folgenden Satz, der später in der Algebra bewiesen wird, kann man in speziellen Situationen die Nullstellen erraten. Satz 6.1.1. ([3, Polynomial Extensions of Factorial Domains]) Ratio- nale Nullstellen eines normierten ganzzahligen Polynoms sind ganzzahlige Teiler des konstanten Koezienten. Beispiel. Das Polynom Nullstellen 2; 1, x2 x 2 = (x +1)(x 2) hat die ganzzahligen 2. beides ganzzahlige Teiler von Denition. Sei ein Endomorphismus des K -Vektorraumes V . Ein Skalar a 2 K heiÿt Eigenwert von , wenn es einen Vektor 0 6= v 2 V gibt, mit v = av , die sog. Eigenvektorgleichung . Jeder solche Vektor v 6= 0 heiÿt Eigenvektor von zum Eigenwert a. Für eine Matrix A 2 M(n; K ) heiÿt ein Skalar a 2 K Eigenwert von A, n wenn es einen Spaltenvektor 0 6= v 2 K gibt, mit Av = av . Jeder solche Vektor v 6= 0 heiÿt Eigenvektor von A zum Eigenwert a. Wählt man A = M (B; B ) als darstellende Matrix des Endomorphismus bzgl. der Basis B , dann identiziert man oft Eigenwert und 74 LINEARE ALGEBRA und A. Eigenvektor von Der Eigenwert ist basisunabhängig, der Ko- ezientenvektor eines Eigenvektors eines Endomorphismus ist basisabhängig. Die Eigenvektoren zum Eigenwert v = 0:v = 0, 0 eines Endomorphismus sind genau die Elemente Nullvektor ist niemals ein Eigenvektor. 6= 0 des Kerns von , . also Der bzw. die Matrix A invertierbar, dann ha0, und wenn a ein Eigenwert zum Eigen1 1 1 vektor v ist, dann haben bzw. A den Eigenwert a zum gleichen 1 Eigenvektor v , wie sich sofort durch Anwendung von z.B. auf die Sind der Endomorphismus ben sie niemals den Eigenwert Eigenvektorgleichung ergibt. Bemerkung. Mit der folgenden einfachen Beobachtung wird ein Trans- fer der Ergebnisse für Endomorphismen möglich. Also ist ein Vektor Eigenwert wenn () v = av (6.2) v 6= 0 (a id )v = 0: genau dann ein Eigenvektor von zum a, wenn er im Kern des Endomorphismus a id liegt, d.h. ) = 0, nach Korollar 5.3.2. det(a id Damit wird die folgende Sprechweise sinnvoll. Denition. a ein Eigenwert des Endomorphismus A, dann ist der Kern des Endomorphismus a id bzw. der Matrix aE A nicht trivial, und heiÿt Eigenraum zum Eigenwert a. Insbesondere sind Eigenvektoren v 6= 0 für einen bekannten Eigenwert a Lösungen des homogenen linearen Gleichungssystems (aE A)x = 0. Der Eigenraum zu a ist die Gesamtlösung dieses Ist der Skalar bzw. der Matrix homogenen linearen Gleichungssystems. Die Dimension des Eigenrau- A) heiÿt geometrische Vielfachheit des Eigenwertes a. Bemerkung. Sei ein Endomorphismus mit darstellender Matrix A und Eigenwert a, dann ist aE A eine darstellende Matrix von a id und det(a id ) = det(aE A) = 0, nach Satz 5.3.3, nach (6.2) und da ker(a id ) 6= 0. Also ist a Nullstelle der Gleichung: x a1;1 a 1;n .. .. .. : (6.3) 0 = det(xE A) = det . . . a x a n;1 n;n Die Einträge dieser Matrix sind aus dem Polynomring K [x]. Also ist diese Determinante ein Polynom über K . Man erhält dieses Polynom mes ker(aE z.B. durch Entwicklung dieser Determinante wie üblich. LINEARE ALGEBRA Denition. 75 ein Endomorphismus eines endlich dimensionalen Vektorraumes. Sei A eine darstellende Matrix von . Die Polynome (x) = det(x id ) bzw. A (x) = det(xE A) heiÿen charakteristisches Polynom des Endomorphismus bzw. der Matrix A. Satz 6.1.2. Sei ein Endomorphismus eines endlich dimensionalen Vektorraumes mit darstellender Matrix A. Dann sind das charakteristische Polynom von und A gleich. Insbesondere haben ähnliche Sei Matrizen gleiche charakteristische Polynome. Weiter sind die Eigenwerte von charakteristischen Polynoms. bzw. A, genau die Nullstellen des Insbesondere haben ähnliche Matrizen gleiche Eigenwerte. x ist xE A eine darstellende Matrix des En. Nach Satz 5.3.3 gilt: (x) = det(x id ) = Beweis. Für jeden Skalar x id A) = A (x). domorphismus det(xE Die verschiedenen darstellenden Matrizen eines Endomorphismus bilden eine volle Ähnlichkeitsklasse, also gilt insbesondere, dass ähnliche Matrizen gleiches charakteristisches Polynom haben. a is genau dann ein Eigenwert von A, wenn ker(aE A) 6= 0; also genau dann, wenn A (a) = det(aE A) = 0, vgl. (6.3). Der Skalar Bemerkung. (1) Dass ähnliche Matrizen A und B = S 1 AS gleiche charakteristische Polynome haben, erhält man auch mit dem Determinantenmultiplikationssatz A (x) = det(xE = det(xE A) = det S 1 (xE B ) = B (x): A)S xE = det S 1 AS (2) Zwar haben ähnliche Matrizen gleiche Eigenwerte aber die zugehörigen Eigenvektoren sind i.A. verschieden. A zum Eigenwert a, also Av = av . a(Sv ) mit einer invertierbaren Matrix S . 1 von SAS zum Eigenwert a. Matrix Sei v Dann gilt Somit ist Eigenvektor der (SAS Sv 1 )(Sv ) = Eigenvektor Man kann einige Koezienten des charakteristischen Polynoms direkt an der Matrix ablesen. Satz 6.1.3. Das charakteristische Polynom A (x) = xn + an 1 xn 1 + + a1 x + a0 76 LINEARE ALGEBRA A der Matrix = (aij ) 2 M(n; K ) ist normiert und hat den Grad Für den konstanten Koezienten gilt Pn i=1 aii tr A = Ist = ( 1)n det A, a0 ist die negative Spur von A. und an 1 n. = A eine Dreiecks- oder Diagonalmatrix, dann ist A (x) = (x a1;1 ) (x an;n ); d.h. die Eigenwerte sind genau die Diagonaleinträge. Ein Endomor- n-dimensionalen Vektorraumes bzw. eine n-reihige quan paarweise verschiedene Eigenwerte. phismus eines dratische Matrix haben höchstens Beweis. Sei A (x) = A = (bij ) mit bij 2 K [x], also nach (5.5) X det(xE A) = b1;1 bn;n + (sign )b1;(1) bn;(n) xE 6 2Sn 1= | = n Y i=1 {z rx } = ( ) (x ai;i ) + r(x): r(x) ein Polynom des Grades n 2, da (i) 6= i für mindestens zwei Indizes gilt. Somit ist an 1 = (a1;1 + + an;n ) = tr A, vgl. die Vietaschen Wurzelsätze. Setzt man x = 0 in A (x) ein, dann n erhält man a0 = A (0) = det( A) = ( 1) det A. Dabei ist Für Dreiecksmatrizen verwendet man Korollar 5.4.2. Polynome über Körpern haben höchstens so viele Nullstellen, d.h. Linearfaktoren, wie ihr Grad, also ist die Anzahl der paarweise verschiedenen Eigenwerte einer n n Matrix n. Beispiel. E= Wir betrachten die folgenden Matrizen 1 0 0 1 ; J= die Einheitsmatrix E, 1 1 0 1 ; I= die Jordanmatrix und die nilpotente Matrix N 0 1 1 0 J, ; N = 0 1 0 0 ; die imaginäre Matrix über verschiedenen Körpern K. I Die je- weiligen charakteristischen Polynome sind leicht berechenbar, da die beiden Koezienten dieser normierten quadratischen Polynome gerade die negative Spur und die Determinante der gegebenen Matrizen sind, E (x) = J (x) = (x 1)2 , I (x) = x2 + 1, N (x) = x2 . Die Matrizen E und J haben zwar dasselbe charakteristische Polynom, sind aber nicht ähnlich, weil für jede Matrix P 2 GL(2; K ) gilt J 6= P 1EP = E . In Satz 6.1.2 gilt also nicht die Umkehrung. Die Matrizen E und J haben den einzigen Eigenwert 1, die Matrix N d.h. hat den einzigen Eigenwert 0. LINEARE ALGEBRA Die Matrix I hat als reelle Matrix keinen Eigenwert, sie beschreibt die Drehung der reellen Ebene R 2 um Matrix sind die Eigenwerte von 90Æ I im Uhrzeigersinn. Als komplexe gleich N ist gleich dem Kern, also ebenfalls der komplexen Matrix I sind i. Der Eigenraum von E J ist Ke1 . Der Eigenraum Ke1 . Die beiden Eigenräume ist der ganze Raum, der Eigenraum von von 77 K (e1 ie2 ). Wenn man die Matrizen in ihr charakteristisches Polynom einsetzt und den Koezienten 1 des Polynoms als Einheitsmatrix interpretiert, dann erhält man immer die Nullmatrix, also (J E )2 = I 2 + E = N 2 = 0: Später werden wir den Satz von Cayley-Hamilton beweisen, dass jede p Matrix von ihrem charakteristischen Polynom annulliert wird. Es gilt I 4 = E , wie auch für i = 12 C , deshalb der Name. Eine Matrix M heiÿt nilpotent , wenn es eine m = 0. Nilpotente Matrizen haben natürliche Zahl m 2 gibt mit M immer und nur den Eigenwert 0. Denn wenn v 6= 0 ein Eigenvektor m m von M ist zum Eigenwert a, dann ist 0 = M v = a v , also a = 0. Weiter ist det M = 0, und der Eigenraum zum Eigenwert 0, d.h. der Kern von M , ist nicht 0. Also ist das charakteristische Polynom von M n gleich dem Monom x . übrigens für die imaginäre Matrix Annullierende Polynome für quadratische Matrizen und Endomorphismen endlich dimensionaler Vektorräume existieren immer, und das ist der Grund, weshalb die (nicht linearen!) Polynome in der Linearen Algebra eine Rolle spielen. Satz 6.1.4. Für jeden Endomorphismus eines endlich dimensionalen Vektorraumes und jede quadratische Matrix gibt es ein annullierendes (normiertes) Polynom (kleinsten Grades). n-reihige quadratische Matrix 2 zu führen. Der Vektorraum M(n; K ) hat die Dimension n , also sind 2 0 2 n die Matrizen E = A ; A; A ; : : : ; A linear abhängig, d.h. es existieren Pn2 i Skalare a0 ; a1 ; : : : , nicht alle gleich 0, derart, dass i=0 ai A = 0 die Pn2 i Nullmatrix ist. Also ist p(x) = i=0 ai x ein annullierendes Polynom. Beweis. Es genügt den Beweis für eine Natürlich gibt es dann auch (mindestens) ein normiertes annullierendes Polynom kleinsten Grades. Bemerkung. (1) Die Schranke n2 für den Grad annullierender Polynome von n n Matrizen ist zu groÿ. Später wird gezeigt, dass es annullierende Polynome vom Grad n gibt. 78 LINEARE ALGEBRA (2) Die Bestimmung von Eigenwerten, also der Nullstellen von Polynomen, ist kein lineares Problem. Die Bestimmung der Eigenvektoren bei bekanntem Eigenwert ist die Lösung des homogenen linearen Gleichungssystems (aE A)x = 0. Wenn eine Matrix keinen Eigenwert hat, dann natürlich auch keinen Eigenvektor. Körper, in denen jedes Polynom mit Koezienten aus diesem Körper auch Nullstellen hat, heiÿen algebraisch abgeschlossen , z.B. ist C , der Körper der komplexen Zahlen, algebraisch abgeschlossen. Jeder Körper ist in einem algebraisch abgeschlossenen Körper enthalten, so wie z.B. R in C . Matrizen über einem algebraisch abgeschlossenen Körper haben immer Eigenwerte, weil ihr charakteristisches Polynom immer Nullstellen hat. Denition. A den Eigenwert a hat, wenn also das charakteristische Polynom A (x) einen Linearfaktor x a hat mit A (x) = (x a)d r(x), wobei r(a) 6= 0, dann spricht man von der algebraischen Vielfachheit d des Eigenwertes a. Die Eigenwerte der Matrizen E; J; N haben sämtlich die Vielfachheit 2. Satz 6.1.5. Die algebraische Vielfachheit eines Eigenwertes einer MaWenn die Matrix trix ist eine obere Schranke für die Dimension des Eigenraumes, die geometrische Vielfachheit. Beweis. Sei ein Endomorphismus mit Eigenwert des Eigenraumes von a sei r, und sei (v1 ; : : : a. Die Dimension ; vr ; vr+1 ; : : : ) eine Basis beginnend mit einer Basis des Eigenraumes. Bzgl. dieser Basis hat eine eine Blockdreiecksform A = aE0 r B , und nach Satz 5.4.4 das charakteristische Polynom A (x) = (x a)r B (x). Also ist die geometrische Vielfachheit von a kleiner oder gleich der darstellende Matrix von algebraischen. Diagonalisierbarkeit von Matrizen. In diesem Abschnitt ist V ein endlich dimensionaler K -Vektorraum. Es werden solche Endomorphismen von V charakterisiert, für die V eine komplette Basis aus Eigenvektoren von hat. Eine weitere Cha6.2. rakterisierung der Diagonalisierbarkeit ndet man in Satz 8.5.1 über die Jordan Normalform. Satz 6.2.1. Eigenvektoren eines Endomorphismus zu verschiedenen Ei- genwerten sind linear unabhängig. Insbesondere bilden die Eigenräume eines Endomorphismus rekte Summe, d.h. P L i Ui = i Ui ihre di- V , wobei die Ui die Eigenräume zu den paarweise verschiedenen Eigenwerten sind. LINEARE ALGEBRA Der Vektorraum wenn V = L V i Ui . 79 hat genau dann eine Basis aus Eigenvektoren von , Wenn insbesondere das charakteristische Polynom eines Endomorphis- in paarweise verschiedene Linearfaktoren zerfällt, bzw. wenn genau n = dim V paarweise verschiedene Eigenwerte besitzt, dann hat V eine Basis, die aus Eigenvektoren von besteht. mus Beweis. Seien Eigenvektoren a1 ; : : : ; ak paarweise verschiedene Eigenwerte von mit v1 ; : : : ; vk . Dann gilt: ( (al id )vj = al vj vj = j Wendet man den Endomorphismus chung Pk i=1 ci vi = 0 0 (al = aj )vj l = j; falls l 6= j: falls Q l6=j (al id ) auf die Glei- an, dann erhält man 0 = j k X i=1 ci vi = cj Y l6=j (al aj ) vj : cj = 0 und die vi sind linear unabhängig. P Sei Ui der Eigenraum zum Eigenwert ai . Sei vj 2 Uj \ ( i6=j Ui ) für P ein j . Dann ist vj = i6=j vi mit vi 2 Ui , d.h. vi ist entweder der Nullvektor oder ein Eigenvektor zum Eigenwert ai . Da Eigenvektoren zu verschiedenen Eigenwerten linear unabhängig sind, sind alle vi = 0 und die Summe der Ui ist direkt. Die Zusätze sind oensichtlich. Also ist Denition. Eine quadratische Matrix heiÿt diagonalisierbar , wenn von V heiÿt diagonalisierbar , wenn V eine Basis aus Eigenvektoren von hat. Eine Diagonalmatrix hat wegen diag (a1 ; : : : ; an )ei = ai ei zu den Eigenwerten ai die Eigenvektoren ei , also existiert eine Basis aus Eigensie zu einer Diagonalmatrix ähnlich ist. Ein Endomorphismus vektoren. Satz 6.2.2. Ein Endomorphismus eines endlich dimensionalen Vek- torraumes ist genau dann diagonalisierbar, wenn seine darstellenden Matrizen diagonalisierbar sind. Insbesondere ist eine quadratische n-reihige Matrix genau dann diago- nalisierbar, wenn ihr charakteristisches Polynom in Linearfaktoren zerfällt und wenn für alle Eigenwerte die geometrische Vielfachheit gleich der algebraischen ist. Hierbei gilt P i ci = n für die Vielfachheiten ci . 80 LINEARE ALGEBRA ein diagonalisierbarer Endomorphismus des n-dimensionalen Vektorraumes V . Sei B = (v1 : : : ; vn ) eine Basis aus Eigenvektoren zu den Eigenwerten ai , also vi = ai vi , d.h. ist diagonalisierbar. Somit hat bzgl. B als darstellende Matrix die Diagonalmatrix diag (a1 ; : : : ; an ). Alle darstellenden Matrizen von sind ähnlich, soBeweis. Sei mit sind sie alle diagonalisierbar. Sei umgekehrt A diagonalisierbar. Sei ein Endomorphismus mit darA. Dann existiert auch eine Diagonalmatrix als dar- stellender Matrix stellende Matrix. Laut Denition existiert dann eine Basis aus Eigenvektoren von Sei A A und . diagonalisierbar mit charakteristischem Polynom A (x). existiert eine Basis von Eigenvektoren, d.h. für die Eigenräume L i Ui = V Dann Ui gilt nach Satz 6.2.1, und die Summe der geometrischen Viel- fachheiten ist gleich n = dim V . Nach Satz 6.1.5 ist die jeweilige alge- braische Vielfachheit gröÿer oder gleich der geometrischen Vielfachheit, und es folgt Gleichheit. Zerfällt umgekehrt das charakteristische Polynom der Matrix A in Line- arfaktoren und sind für jeden Eigenwert die algebraische und die geometrische Vielfachheit gleich, dann folgt mit wegen gleicher Dimension die Gleichheit. L i Ui V Damit ist nach Satz 6.2.1, A diagonalisier- bar. Beispiel. Die Jordanmatrix J und die nilpotente Matrix N aus dem obigen Beispiel sind über keinem Körper diagonalisierbar. Die imaginäre Matrix I ist als reelle Matrix nicht diagonalisierbar, wohl aber als komplexe. Um festzustellen, ob eine n-reihige quadratische Matrix diagonalisier- bar ist, bestimmt man zuerst das charakteristische Polynom, zerfällt es in Linearfaktoren, d.h. man bestimmt alle Eigenwerte, und anschlieÿend berechnet man die Dimensionen der Eigenräume. Die Matrix ist genau dann diagonalisierbar, wenn die Summe dieser Dimensionen gleich n ist. Später wird mit Verwendung der Jordan Normalform ein einfacheres Kriterium für die Diagonalisierbarkeit einer Matrix mit Hilfe des sog. Minimalpolynoms formuliert, vgl. Satz 8.2.2 und Satz 8.5.1. Für diagonalisierbare Matrizen gilt die Umkehrung in Satz 6.1.2. Satz 6.2.3. Diagonalisierbare Matrizen sind genau dann ähnlich, wenn sie dasselbe charakteristische Polynom haben. Beweis. Ähnliche Matrizen haben nach Satz 6.1.2 gleiche charakteristische Polynome. Also genügt es für zwei Diagonalmatrizen A = LINEARE ALGEBRA diag (a1 ; : : : 81 ; an ) und B = diag (b1 ; : : : ; bn ) mit gleichem charakteristi- schen Polynom die Ähnlichkeit zu zeigen. Gleiche Polynome, nämlich A = Q i (x ai ) = Q i (x bi ) = gleiche Ableitungen, also sind die B haben gleiche Nullstellen und bi nur Umordnungen der ai . Per- mutationen dieser Diagonaleinträge sind immer Ähnlichkeitstransformationen, z.B. vertauscht die Permutationsmatrix P = (pi;j ) = P 1 p1;2 = p2;1 = p3;3 = = pn;n = 1 per Ähnlichkeitstransformation A 7! P AP genau die Einträge a1 und a2 . mit 82 LINEARE ALGEBRA 7. Euklidische und unitäre Vektorräume Reelle und komplexe Vektorräume werden mit einer zusätzlichen Struktur versehen, mit einem Skalarprodukt. Damit kann man dann den Vektoren Längen und Winkel zuordnen, insbesondere kann man damit Orthogonalität denieren. Bilinearformen. Denition. Für einen K -Vektorraum V heiÿt die Abbildung :V V !K eine Bilinearform auf V , wenn in beiden Komponenten linear ist, vgl. Kapitel 5.2. Es gilt (v; 0) = (0; w ) = 0 für alle v; w 2 V . Sei V ein K -Vektorraum mit Basis (v1 ; : : : ; vn ), sei C = (ci;j ) 2 M(n; K ), Pn Pn und seien v = i=1 ai vi und w = j =1 bj vj Darstellungen der beiden Vektoren, d.h. die Koordinatentupel dieser Vektoren sind (a1 ; : : : ; an ) T bzw. (b1 ; : : : ; bn ). Dann bezeichnet der Ausdruck v Cw stillschweigend das Matrixprodukt des Koordinatenvektors von v als Zeilenvektor mit der Matrix C und dem Koordinatenvektor von w als Spaltenvektor, P T also v Cw = ac b. 1i;j n i i;j j 7.1. Es gibt Matrixdarstellungen von Bilinearformen auf endlich dimensionalen Vektorräumen. Satz 7.1.1. Sei V ein K -Vektorraum mit Basis (v1 ; : : : ; vn ), sei C = (ci;j ) 2 M(n; K ). Dann ist eine Bilinearform C gegeben durch X C : V V ! K; C (v; w) = ai ci;j bj = v T Cw; wobei v P = ni=1 ai vi und w P = nj=1 bj vj . Für eine xierte Basis ist die Zuordnung schen M(n; K ) kehrung C 7! C eine Bijektion zwi- und der Menge aller Bilinearformen auf 7! C = (vi ; vj ) Beweis. Mit i;j n 1 C ist C V, mit Um- . wohldeniert und bilinear nach dem Distributiv- gesetz für die Matrixmultiplikation, vgl. Satz 3.1.2. Die Koordinaten- vi bezüglich der Basis (v1 ; : : : ; vn) sind die EinheitsvekT toren ei , also C (vi ; vj ) = ei Cej = cij . Also folgt aus C = D sofort C = D, und die Abbildung C 7! C ist injektiv. Wir zeigen die Surjektivität. Für eine Bilinearform ist vektoren der (v; w) = ( n X i=1 ai vi ; n X j =1 bj vj ) = n X i;j =1 ai (vi ; vj )bj = v T Cw; LINEARE ALGEBRA C = ( (vi ; vj )), (vi ; vj ) . mit d.h. = C . Die Umkehrung ist 83 7! C = Denition. Die Matrix C = (vi ; vj ) heiÿt darstellende Matrix von V bzgl. der Basis (v1 ; v2 ; : : : ). Zwei Matrizen A; B 2 M(n; K ) heiÿen kongruent , wenn es eine invertierbare Matrix S 2 GL(n; K ) gibt T derart, dass A = S BS . Kongruenz von Matrizen ist eine ÄquivaT 1 = (S 1 )T und (SU )T = U T S T . Die Äquilenzrelation wegen (S ) valenzklassen heiÿen Kongruenzklassen . Wenn eine Matrix in einer Kongruenzklasse symmetrisch ist, dann sind es alle. Satz 7.1.2. Die darstellenden Matrizen einer Bilinearform auf einem endlich dimensionalen Vektorraum bilden eine komplette Kongruenzklasse. Insbesondere ist der Rang einer darstellenden Matrix einer Bilinearform basisunabhängig. S = (sij ) 2 GL(n; K ) die Basistransformationsmatrix von Pn 0 0 0 der Basis (v1 ; : : : ; vn ) zur Basis (v1 ; : : : ; vn ), also vj = k=1 sk;j vk . Die Bilinearform sei bzgl. beider Basen dargestellt durch C = (cij ) bzw. C 0 = (c0ij ). Dann ist C 0 = S T CS , denn Beweis. Sei c0ij = (vi0 ; vj0 ) = ( Jedem S n X k=1 sk;ivk ; n X l=1 sl;j vl ) = n X k;l=1 sk;i (vk ; vl )sl;j = (S T CS )ij : 2 GL(n; K ) entspricht eine Basistransformation. Also ent- steht eine komplette Kongruenzklasse als Menge aller darstellenden Matrizen einer Bilinearform. Kongruente Matrizen sind insbesonde- re äquivalent, haben also gleichen Rang. Denition. (v; w) = 0, auf V heiÿt regulär , wenn aus für alle v 2 V , folgt w = 0, und analog für die zweite Komponente. Die Bilinearform heiÿt symmetrisch , wenn (v; w ) = (w; v ), und antisymmetrisch , wenn (v; w) = (w; v ). Eine Bilinearform auf einem reellen Vektorraum heiÿt positiv denit , wenn (v; v ) > 0 für alle 0 6= v 2 V . Nur für angeordnete Körper kann man von positiv sprechen. Die Körper Q ; R sind wie üblich angeordnet. Die Bilinearform Endliche Körper und z.B. C lassen sich nicht anordnen. n mit darstellender Matrix C 2 M(n; K ) ist genau dann regulär, wenn C invertierbar T ist, bzw. rang C = n oder det C 6= 0. Denn (v; w ) = v Cw = 0, für w 6= 0 und für alle v 2 V , ist äquivalent zu Cw = 0, d.h. der Kern von C ist nicht trivial, und C ist nicht invertierbar. Der gemeinsame Eine Bilinearform auf einem Vektorraum der Dimension Rang aller darstellenden Matrizen einer Bilinearform heiÿt Rang der Bilinearform. 84 LINEARE ALGEBRA Lemma 7.1.3. Eine Bilinearform auf einem endlich dimensionalen Vektorraum ist genau dann (anti)symmetrisch, wenn ihre darstellen- A den Matrizen (anti)symmetrisch, d.h. = AT , sind. Eine positiv denite Bilinearform auf einem reellen Vektorraum ist regulär. Beweis. Sei symmetrisch (bzw. analog antisymmetrisch) mit dar- C = (cij ) bzgl. der Basis (v1 ; : : : ; vn ), also ci;j = (vi; vj ) = (vj ; vi ) = cj;i . Für eine symmetrische Matrix C gilt umgestellender Matrix kehrt (v; w) = v T Cw = (v T Cw)T = wT C T v = wT Cv = (w; v ): Sei ausgeartet, also (v; w ) = 0 für v 6= 0 und für alle w 2 V , (v; v ) = 0, und ist nicht positiv denit. d.h. Skalarprodukt und hermitesche Form. Denition. Eine positiv denite, symmetrische Bilinearform eines 7.2. reellen Vektorraumes heiÿt Skalarprodukt oder inneres Produkt . Ein reeller Vektorraum mit Skalarprodukt heiÿt euklidischer Raum . Man vw = (v; w) und die p wohldenierte reelle Zahl jv j = vv heiÿt Betrag , Norm oder Länge schreibt für ein xiertes Skalarprodukt alternativ v. Denition. von Für einen komplexen Vektorraum :V V !C eine hermitesche Form , wenn für alle der Konjugation in (1) (2) (3) C gelten: V heiÿt die Abbildung v; v 0 ; w; w0 2 V und a2C bzgl. (v + v 0 ; w) = (v; w) + (v 0; w). (av; w) = a (v; w). (v; w) = (w; v ). Hermitesche Formen sind nicht bilinear und sowieso nicht symmetrisch. linear, in der rechten nur additiv. Mit a + b = a + b und ab = ab für komplexe Zahlen a; b 0 folgen für v; w; w 2 V und a 2 C sofort: In der linken Komponente ist den Rechenregeln (1) (2) (3) (4) (v; aw) = a (v; w). (v; v ) 2 R . (v; w + w0 ) = (v; w) + (v; w0). (v; 0) = (0; w) = 0. Eine hermitesche Form heiÿt positiv denit , wenn 0 6= v (v; v ) > 0 für alle 2 V . Eine positiv denite hermitesche Form heiÿt Skalarprodukt LINEARE ALGEBRA 85 oder inneres Produkt oder komplexes Skalarprodukt , und ein komplexer Raum mit Skalarprodukt heiÿt unitärer Raum . Wie bei euklidi- p schen Räumen schreibt man für ein xiertes Skalarprodukt alternativ vw = (v; w) und die wohldenierte reelle Zahl jv j = vv heiÿt Betrag , Norm oder Länge von v . Oensichtlich ist die Länge eines Vektors vom verwendeten Skalarprodukt abhängig, also keine absolute Eigenschaft eines Vektors. Denition. Sei A = (ai;j ) eine komplexe Matrix. Die Matrix A = aj;i heiÿt adjungiert oder transponiert-konjugiert zu A, d.h. A entsteht aus A durch Transponieren und Konjugieren der Einträge. Für passende Matrizen gelten oensichtlich die Regeln (A ) = A, (A + B ) = A + B und (cA) = cA und (BA) = A B und (A 1 ) = (A ) 1 . Weiter gilt det(A ) = det(A), wegen det(AT ) = det(A), vgl. Satz 5.4.1 (1). A heiÿt hermitesch , wenn A = A , z.B. A = 1 i i 1 . Eine Matrix A heiÿt schief-hermitesch , wenn A = A , und schief-symmetrisch , wenn A = AT . Man sagt auch antihermitesch Eine komplexe Matrix und antisymmetrisch . Insbesondere sind die Diagonaleinträge einer hermiteschen Matrix reell, und die einer schief hermiteschen Matrix alle rein imaginär. Eine reelle Matrix, betrachtet als komplexe Matrix, ist genau dann hermitesch, wenn sie symmetrisch ist. Für komplexe Matrizen deniert durch 2 M(n; C ) ist eine komplexe Kongruenz mit (invertierbarer) Matrix S 2 GL(n; C ). A; B B = S AS Das ist eine Äquivalenzrelation. Wenn eine Matrix in einer komplexen Kongruenzklasse hermitesch ist, dann sind es alle. Auch hermitesche Formen haben darstellende Matrizen. Die beiden folgenden Sätze beweist man fast wörtlich so wie die Sätze 7.1.1 und 7.1.2. Satz 7.2.1. sei C = C V ein komplexer Vektorraum mit Basis (v1 ; : : : ; vn ), = (ci;j ) eine hermitesche n n Matrix. Dann ist eine hermitesche Form C gegeben durch C : V Sei V !C; X C (v; w) = i;j n ai ci;j bj = v T C w; 1 wobei v P = ni=1 ai vi und w P = nj=1 bj vj . C 7! C eine Bijektion zwinn Matrizen und der Mengealler hermiteschen Formen auf V , mit Umkehrung 7! C = (vi ; vj ) . Für eine xierte Basis ist die Zuordnung schen der Menge aller hermiteschen 86 LINEARE ALGEBRA Satz 7.2.2. Die darstellenden Matrizen einer hermiteschen Form auf C -Vektorraum bilden eine komplette kom- einem endlich dimensionalen plexe Kongruenzklasse. Insbesondere ist der Rang einer darstellenden Matrix einer hermiteschen Form basisunabhängig. Denition. Sei V torraum mit Basis vw = für v P = ni=1 ai vi dukt auf V n-dimensionaler Vek- ein reeller, bzw. komplexer, (v1 ; : : : und ; vn ). n X i=1 w ai bi ; Durch bzw. P = ni=1 bi vi vw = n X i=1 aibi wird das sog. Standardskalarpro- deniert. Die darstellende Matrix bzgl. der gegebenen Basis ist jeweils die Einheitsmatrix. Häug verwendet man für den reellen, bzw. komplexen arithmetischen Vektorraum Rn bzw. Cn stillschwei- gend die Basis der Einheitsvektoren um das Standardskalarprodukt zu denieren. Beispiel. Sei Bilinearform V = f(x; y ) , deniert durch 4 x; y = 0 x x y ; y0 j x; y 2 Rg die reelle Zahlenebene. 2 ist ein Skalarprodukt, denn 0 2 3 x y0 = 4xx0 2xy 0 Die 2yx0 + 3yy 0; ist oensichtlich symmetrisch, und positiv denit, wegen der quadratischen Ergänzung falls x ; x y y = 4x2 4xy + 3y 2 = (2x y )2 + 2y 2 > 0; (x; y ) 6= 0. Denition. Für einen reellen Vektorraum V wird das Kroneckerprodukt Z = V V zu einem komplexen Vektorraum vermöge (v1 ; v2 )+(w1 ; w2 ) = (v1 + w1 ; v2 + w2 ) und (a + ib)(v; w) = (av bw; aw + bv): Z = fv + iw j v; w 2 V g, i2 = 1, (v + iw ) + (v 0 + iw 0 ) = (v + v 0 ) + i(w + w 0 ) (a + ib)(v + iw ) = (av bw ) + i(aw + bv ): Die Abbildung ' : V ! Z , deniert durch '(v) = (v; 0) = v + 0i, ist eine Einbettung , d.h. injektiv, und man identiziert V mit seinem Bild 'V in Z . Der Vektorraum Z heiÿt komplexe Erweiterung von V . Die Einbettung 'V in Z ist ein reeller Vektorraum, also kein (komplexer) Unterraum von Z . Der Nullvektor ist (0; 0). Man schreibt auch ähnlich wie bei den komplexen Zahlen mit Rechenregel LINEARE ALGEBRA Übrigens wird das Kroneckerprodukt X = V komplexen Vektorraum vermöge (v1 ; v2 )+(w1 ; w2 ) = (v1 +w1 ; v2 +w2 ) und 87 V alternativ zu einem (a+ib)(v; w) = (a+ib)v; (a+ib)w auch zu einem komplexen Vektorraum. Allerdings ist das nicht die komplexe Erweiterung. U.A. ist die komplexe Dimension der komplexen Er- Z gleich der reellen Dimension von V , also dimC Z = dimR V , X doppelt so groÿ ist, also dimC X = 2 dimR V . weiterung während die komplexe Dimension von Die komplexe Erweiterung eines reellen Vektorraumes dient dazu Sätze über reelle und komplexe Vektorräume gemeinsam zu beweisen. Die nächsten Ergebnisse legen diese Möglichkeit nahe. Satz 7.2.3. In der komplexen Erweiterung Z des reellen Vektorraumes V ist jede R -Basis von V , d.h. eine Basis des R -Vektorraumes V , auch eine C -Basis von Z , d.h. eine Basis des C -Vektorraumes Z . Insbesondere dimC Z = dimR V: Beweis. Es genügt die Aussage für endlich dimensionale Vektorräume zu zeigen, da sich sowohl die lineare Unabhängigkeit als auch das Erzeugnis auf endliche Teilmengen einer Basis zurückführen lässt. R C Es -Basis ist. Aus 0 = 1 ; : : : ; vn ) eine Pn Pn -Basis (vP n ( a + ib ) v = a v + i b v folgt bei separater Betrachj j j =1 j j =1 j j j =1 j j tung der Real- und Imaginärteile, dass alle aj ; bj gleich 0 sind, also auch alle aj + ibj = 0, d.h. die vj sind über linear unabhängig. Pn P Sei v + iw ZP, d.h. v; w V mit v = j =1 aj vj und w = nj=1 bj vj n und v + iw = j =1 (aj + ibj )vj , d.h. (v1 ; : : : ; vn ) erzeugt Z über . wird gezeigt, dass die 2 Beispiel. C 2 C Die komplexe Erweiterung des arithmetischen Vektorrau- n R n ist der arithmetische Vektorraum C , vermöge der Einbettung n n bzw. Identizierung ' : R ! C , deniert durch mes '(a1 ; : : : ; an ) = (a1 ; : : : ; an ); denn v +iw = (a1 ; : : : ; an )+i(b1 ; : : : ; bn ). Die Einheitsvektoren e1 ; :::; en sind sowohl eine Basis von dimC C n = n, aber dimR C Bemerkung. Rn n als auch von C n. Man beachte dimR R n = = 2n. Das obige Beispiel macht klar, dass man zur komplexen Erweiterung durch eine Erweiterung des Skalarenkörpers kommt. Diese Vorgehensweise ist motiviert durch die übliche Interpretation eines reellen charakteristischen Polynoms einer reellen Matrix als komplexes Polynom, z.B. um immer von Nullstellen, gegebenenfalls von komplexen Nullstellen, sprechen zu können. 88 LINEARE ALGEBRA Denition. Seien Mengen A A0 und B B 0 und eine Abbildung : A ! B gegeben. Eine Abbildung b : A0 ! B 0 heiÿt eine Fortsetzung von , wenn für die Einschränkung oder Restriktion bjA auf A gilt bjA = . Wir betrachten hier nur lineare Abbildungen ; b. In der Analysis ist man z.B. an stetigen oder dierenzierbaren Abbildungen interessiert. Nach Satz 7.2.3 ist jede R -Basis der komplexen Erweiterung Z auch eine C -Basis. Also hat eine Fortsetzung einer reellen linearen Abbildung für endlich dimensionale Vektorräume dieselbe darstellende Matrix. Damit folgt sofort das nächste Resultat. Satz 7.2.4. Seien V; V 0 reelle Vektorräume mit den komplexen Erwei0 terungen Z; Z . Eine R -lineare Abbildung : V ! V 0 hat genau 0 eine C -lineare Fortsetzung b : Z ! Z deniert durch b(v + iw ) = (v ) + i(w). Insbesondere ist für endlich dimensionale reelle Vektorräume die darstellende reelle Matrix von bzgl. xierter reeller Basen 0 von V; V auch die darstellende Matrix von b bzgl. derselben Basen. Satz 7.2.5. Jedes auf einem reellen Vektorraum gegebene Skalarprodukt vw kann auf genau eine Weise zu einem komplexen Skalarprodukt der komplexen Erweiterung fortgesetzt werden, nämlich (v + iw )(v 0 + iw 0 ) = (vv 0 + ww 0 ) + i(wv 0 vw0): b einer Bilinearform von V auf Z ist b(v + iw; v 0 + iw0 ) = (v; v 0) + i (w; v 0) i (v; w0) + (w; w0): Beweis. Für eine Fortsetzung (7.1) Damit ist sowohl die Existenz, als auch die Eindeutigkeit von b gezeigt. b die denierenden Eigenschaften einer hermiteschen b ist positiv denit, weil symmetrisch und positiv denit Form, und Man bestätigt für ist, wegen b(v + iw; v + iw) Denition. = = (v; v ) i (v; w) + i (w; v ) + (w; w) (v; v ) + (w; w) 0: Die eindeutigen Fortsetzungen von linearen Abbildungen reeller Vektorräume bzw. von Skalarprodukten euklidischer Vektorräume auf die komplexen Erweiterungen heiÿen komplexe Fortsetzungen . Die komplexe Erweiterung eines euklidischen Vektorraumes wird mit der komplexen Fortsetzung des Skalarproduktes zu einem unitären Vektorraum. Mit den beiden Sätzen 7.2.4 und 7.2.5 können Sachverhalte für reelle bzw. euklidische Räume in Sachverhalte für komplexe oder unitäre Räume übersetzt und dort behandelt werden. Die Resultate schränkt man LINEARE ALGEBRA 89 dann ohne nochmaligen Aufwand auf die eingebetteten reellen bzw. euklidischen Vektorräume ein. Diese Methode ist deswegen so vorteilhaft, weil z.B. das charakteristische Polynom einer reellen Matrix i.A. nicht in (reelle) Linearfaktoren zerfällt, wohl aber als Polynom über den komplexen Zahlen. Natürlich lassen sich Endomorphismen mit einem charakteristischen Polynom, das in Linearfaktoren zerfällt viel angenehmer behandeln, denn es gibt Eigenwerte und Eigenvektoren. Betrag und Orthogonalität. In diesem Abschnitt ist V entweder ein euklidischer oder ein unitärer Vektorraum mit Skalarprodukt vw . Satz 7.3.1. (Schwarzsche Ungleichung) Sei V ein euklidischer oder unitärer Vektorraum. Für v; w 2 V gilt jvwj2 (vv)(ww); bzw. jvwj jvj jwj; mit Gleichheit, genau für v und w linear abhängig. 7.3. Beweis. Für w =0 gilt die Gleichheit. Sei also w 6= 0, d.h. ww > 0, a 2 C beliebig. Dann ist 0 (v aw )(v aw ) = (vv ) a(vw) a (vw ) + aa (ww ): Durch Einsetzen von a = (vw )=(ww ), d.h. a = (vw)=(ww ), und Multiplikation mit ww > 0 ergibt sich 0 (vv )(ww ) (vw )(vw) = (vv )(ww ) jvw j2 mit Gleichheit genau dann, wenn v und w linear abhängig sind. und sei Anwendung der Schwarzschen Ungleichung auf das Standardskalarprodukt führt sofort zum folgenden Korollar. Korollar 7.3.2. Für x1 ; : : : ; xn ; y1 ; : : : ; yn 2 R n X i=1 xi yi 2 n X i=1 x2i n X i=1 gilt: yi2 : Die Eigenschaften des Betrags von Vektoren werden in der folgenden Proposition zusammen gestellt. Proposition 7.3.3. Sei V ein euklidischer oder unitärer Vektorraum. Für v; w 2 V und Skalar a gelten: (1) jv j 0 mit Gleichheit genau für v = 0. (2) jav j = jajjv j, insbesondere jv j = j v j = jiv j. 90 LINEARE ALGEBRA jv + wj jvj + jwj (Dreiecksungleichung) mit Gleichheit genau für v = 0oder w = av mit 0 a 2 R . (4) jv j jwj j v wj. (3) Beweis. (1) gilt, weil Skalarprodukte positiv denit sind. p javj = (2) folgt wegen (av )(av ) = p p aa vv = jajjv j. v; w ist jv + wj2 = (v + w)(v + w) = jvj2 + jwj2 + vw + vw = jv j2 + jw j2 + 2 Re(vw ) jv j2 + jw j2 + 2jv jjw j = (jv j + jw j)2 ; wegen Re(vw ) jvw j jv jjw j, vgl. die Schwarzsche Ungleichung und (3) Für Vektoren Abschnitt 0.3. Für die Gleichheit müssen also wegen der Schwarzschen Ungleichung linear abhängig sein, d.h. entweder hinaus jvjjwj = jajjvj 2 Somit ist v =0 oder w = av , v; w und darüber = Re(vw) = Re v (av ) = Re a (vv ) = Re( a)jvj2 = Re(a)jvj2 : jajjvj 2 = Re(a)jv j2 , d.h. a2R und a 0. v w statt v in die Dreiecksungleichung ergibt: jv j jv wj + jwj, d.h. jvj jwj jv wj. Setzt man analog w v statt w ein, dann ergibt sich jw j jvj jv wj. (4) Einsetzen von Denition. Sei V Vektor vom Betrag Für zwei Vektoren ein euklidischer oder unitärer Vektorraum. Ein 1 heiÿt normiert . Für v; w 2 V 6= 0 ist jvj v normiert. v wird der Winkel durch den Cosinus deniert wie folgt: cos ' = cos(v; w ) = 1 ', den sie einschlieÿen, vw jvjjwj : Wegen der Schwarzschen Ungleichung ist der Winkel 1 Fall, wohldeniert, da vw jvjjwj 1. ', z.B. im reellen Mit den obigen Denitionen von Länge und Winkel von Vektoren lässt sich der Cosinussatz und der Satz des Pythagoras beweisen. Satz 7.3.4. (Cosinussatz, Pythagoras) Für die Vektoren euklidischen Vektorraum gilt jv wj 2 und für vw = 0 gilt = jv j2 + jw j2 jv wj 2 2jv jjw j cos(v; w ); = jv j2 + jw j2 : v; w in einem LINEARE ALGEBRA 91 Beweis. Nach obiger Denition des Winkels erhält man jv wj = (v 2 w)2 = jvj2 + jwj2 2vw = jv j2 + jwj2 2jv jjwj cos ': Denition. Sei V ein euklidischer oder unitärer Vektorraum. Die Vektoren v; w 2 V heiÿen orthogonal oder senkrecht , v ? w , wenn vw = 0. Eine nicht leere Menge M V heiÿt Orthogonalsystem , wenn 0 2 = M , und wenn je zwei Vektoren aus M orthogonal sind. Ein Orthogonalsystem aus lauter normierten Vektoren heiÿt Orthonormal- system . Sinngemäÿ spricht man von Orthogonalbasis und Orthonor- malbasis . Für ein Orthonormalsystem (v1 ; v2 ; : : : ) gilt vi vj dem Kroneckersymbol. Satz 7.3.5. = Æi;j mit Orthogonalsysteme sind linear unabhängig. 2 PnM ein Orthogonalsystem und v1 ; : : : ; vn M . Multiplikai=1 ai vi = 0 mit vj von rechts ergibt aj = 0, also schlieÿlich lineare Unabhängigkeit der vi . Beweis. Sei tion von die Proposition 7.3.6. Sei klidischen oder unitären und w= Pn j =1 bj vj (v1 ; : : : ; vn) eine Orthonormalbasis P eines eun Vektorraumes. Dann gilt für v = i=1 ai vi vw = und n X i=1 ai bi ; aj = vvj , für j = 1; : : : ; n, d.h. v = Pn i=1 (vvi )vi . Beweis. Man berechnet die Skalarprodukte direkt vw = ( n X i=1 n X ai vi )( und vvj = ( Bemerkung. n X i=1 j =1 bj vj ) = ai vi )vj = n X i;j =1 n X i=1 ai bj (vi vj ) = ai (vi vj ) = n X i=1 n X i;j =1 ai bi ; Länge, Winkel und Orthogonalität von Vektoren sind plexer Vektorraum mit einer beliebigen Basis vw = v= i=1 ai Æij = aj : nur relativ zu einem Skalarprodukt erklärt. Sei sofern ai bj Æij = n X Pn i=1 ai vi und w n X ai bi ; i=1 P = nj=1 bj vj , ist V ein reeller oder kom- (v1 ; : : : ; vn ). Durch ein Skalarprodukt auf V deniert. Bzgl. dieses Skalarproduktes ist die vorgegebene Basis eine 92 LINEARE ALGEBRA Orthonormalbasis. Also lässt sich jede Basis durch geeignete Deni- tion eines Skalarproduktes zu einer Orthonormalbasis machen. Die Umkehrung dieser Fragestellung heiÿt Orthogonalisierung und wird im nächsten Abschnitt behandelt. Orthogonalisierung. 7.4. Der folgende Satz beantwortet die Frage, wie man in einem euklidischen oder unitären Vektorraum, mit gegebenem Skalarprodukt vw, eine Or- thonormalbasis berechnet. Die Vektorräume in denen das möglich ist, müssen von höchstens abzählbarer Dimension sein. Der Algorithmus im Beweis des Folgenden Satzes wird Gram-Schmidtsches Orthonor- mierungsverfahren genannt. Satz 7.4.1. (Gram-Schmidt) Zu jedem höchstens abzählbaren System (v1 ; v2 ; : : : ) linear unabhängiger Vektoren eines euklidischen oder unitären Vektorraumes existiert genau ein Orthonormalsystem (e1 ; e2 ; : : : ) mit folgenden Eigenschaften: (1) hv ; : : : ; vk i = he ; : : : ; ek i für alle k 2 N . 1 1 (2) Die zugehörige Basistransformationsmatrix ist jeweils eine Drei- ecksmatrix mit reeller positiver Determinante. Mit e1 = jv1 j 1 v1 gilt rekursiv ek+1 = Pk i=1 (vk+1 ei )ei Pk i=1 (vk+1 ei )ei vk+1 jvk+1 j ; k2N: Insbesondere lässt sich bei höchstens abzählbarer Dimension jedes endliche Orthonormalsystem zu einer Orthonormalbasis fortsetzen, d.h. es gibt für euklidische oder unitäre Vektorräume höchstens abzählbar unendlicher Dimension immer eine Orthonormalbasis. Beweis. Es wird eine Induktion über he i, 1 da v1 6= 0, und jv j 1 1 k geführt. Für positiver Determinante. Die Behauptung gelte für sondere k = 1 ist hv1 i = ist die Basistransformationsmatrix mit Uk = hv1 ; : : : ; vk i = he1 ; : : : ; ek i. 1; : : : ; k, also insbe- k + 1, gilt vk+1 2= he1 ; : : : ; ek i, d.h. ; ek ; vk+1 ) ist linear unabhängig. Nach Annahme ist Uk+1 = he1; : : : ; ek+1i = hv1; : : : ; vk+1i, und die Basistransformationsmatrix Für den Induktionsschluss, also (e1 ; : : : LINEARE ALGEBRA von (v1 ; : : : ; vk ) nach (e1 ; : : : ver Determinante, d.h. mit e1 e2 = = . . . ek = = ek+1 wobei ak+1;k+1 = ; ek ) 93 ist eine Dreiecksmatrix mit positi- a1;1 ak;k > 0 ist a1;1 v1 a1;2 v1 + a2;2 v2 a1;k v1 + + ak;k vk a1;k+1 v1 + + ak;k+1vk + ak+1;k+1 vk+1 ; jvk Pk i=1 (vk+1 ei )ei +1 transformationsmatrix auch für j > 0. 1 Also ist die Basis- k + 1 eine Dreiecksmatrix mit positiver Determinante. Abschlieÿend erhält man aus ek+1 ej = vk+1 ej dass k X k X i=1 i=1 (vk+1 ei )(ei ej ) = vk+1 ej (vk+1 ei )Æij = 0; ek+1 senkrecht ist zu allen e1 ; : : : ; ek . Die Eindeutigkeit der e1 ; : : : ; ek+1 folgt aus Uk+1 = hek+1 i Uk und der positiven Determinante der Basistransformationsmatrix, denn dadurch ist die zweite Möglichkeit, nämlich ek+1 statt ek+1 , ausgeschlossen. Der Rest ist oensichtlich. Bemerkung. Jeder Vorzeichenfolge in Orthonormalbasis (v1 ; v2 ; v3 ; : : : ) (v1 ; v2 ; v3 ; : : : ) für eine entspricht eine Orientierung . Man vereinbart die sog. rechte Hand Regel oder Fingerregel . Wendet man das Gram-Schmidtsche Orthonormierungsverfahren auf eine Orthonormalbasis an, dann bleibt diese nach Satz 7.4.1 unverändert, d.h. die Orientierung wird nicht verändert, weil die zugehörigen Basistransformationsmatrizen alle positive Determinanten haben. Beispiel. In R 4 sei das Standardskalarprodukt vw = a1 b1 + + a4 b4 gegeben. Anwendung des Orthonormierungsverfahrens auf v1 = (4; 2; 2; 1); v2 = (2; 2; 4; 5); v3 = (0; 8; 2; 5) 94 LINEARE ALGEBRA ergibt: e1 =jv1 j 1 v1 = 5 e02 =v2 1 (4; 2; 2; 1); (v2 e1 )e1 = (2; 2; 4; 5) 25 1 (4; 2; 2; 1) = ( 2; 0; 2; 4); 5 5 e2 =je02 j 1 e02 = p1 e03 =v3 (v3 e2 )e2 25 1 5) (4; 2; 2; 1) 5 5 (v3 e1 )e1 =(0; 8; 2: 24 ( 2; 0; 2; 4); =( 2; 6; 2; 0); e3 =je03 j 1 e03 = p1 44 p24 p1 24 24 ( 2; 0; 2; 4) ( 2; 6; 2; 0): Denition. Sei V ein euklidischer oder unitärer Vektorraum. Die Teilmengen M; N V heiÿen orthogonal , M ?N , wenn vw = 0 für alle v 2 M und w 2 N . Es gilt ;?M und 0?M für alle Teilmengen M . Die ? Menge M = fv 2 V j v ?M g heiÿt orthogonales Komplement von M , vgl. Dualraum. Wegen der Bilinearität des Skalarprodukts eines eu- klidischen Vektorraumes, bzw. den ähnlichen Eigenschaften für einen unitären Vektorraum, ist das orthogonale Komplement einer Menge immer ein Unterraum. Für einen Unterraum ? aus v 2 U \ U folgt vv = 0, also v = 0. d.h. es Beweis. N ?, falls M ist U \ U? = 0, weil Das ist der Grund für die Be- zeichnung Komplement. Die Operation ? gilt M U ? ist ein dualer Operator , N , vgl. Korollar 3.6.7, mit gleichem Im folgenden Lemma werden einige Regeln für orthogonale Komplemente zusammen gestellt. Lemma 7.4.2. Seien M; N Teilmengen eines euklidischen oder unitä- ren Vektorraumes. Dann gelten: (1) (2) M ? = hM i? = hM ?i. M ?N () hM i?hN i. Insbesondere sind Unterräume genau dann zueinander orthogonal, wenn ihre Basen zueinander orthogonal sind. Beweis. (1): folgt M? Gleichheit. (2): Für v= M ? ist Unterraum, also M ? = hM ?i. Aus M hM i hM i?. Weiter ist M ??hM i, also ist M ? hM i?, mit P ai vi vi 2MP M ?N , sofort vw = lich. 2 hM i und w = Pwj 2N bj wj 2 hN i folgt aus i;j ai bj (vi wj ) = 0. Die Umkehrung ist oensicht- LINEARE ALGEBRA 95 Der folgende Satz gilt allgemein nur für Unterräume endlich dimensionaler euklidischer oder unitärer Vektorräume. Satz 7.4.3. Für einen Unterraum U eines endlich dimensionalen eu- klidischen oder unitären Vektorraumes (1) (2) V gelten: V = U U ?. U ?? = fv 2 V j uv = 0 für alle u 2 U ? g = U . Insbesondere ist dim V = dim U + dim U ? . Beweis. (1): Eine Orthonormalbasis (v1 ; : : : ; vr ) von U lässt sich nach dem Basisergänzungssatz und dem Gram-Schmidtschen Orthonormie- v ; : : : ; vr ; vr+1 ; : : : ; vn) von rungsverfahren zu einer Orthonormalbasis ( 1 V fortsetzen. W = hvr+1 ; : : : ; vn i gilt somit V = U W V = U W U U ? V mit Gleichheit. Für (2): Nach (1) ist U ?? U ? U U = U ??. Denition. V = V, = Sei V U ? U ?? und, da mit Gleichheit. U und W U ?, also U ??, folgt V Also = U? dim U ?? = dim U , d.h. ein euklidischer oder unitärer Vektorraum endli- U und v 2 V . Ein Vektor vU 2 U heiÿt v auf U , wenn v = vU + w für ein w 2 U ?. Für v 2 U ist natürlich vU = v . Die orthogonale Projektion ist eindeu0 0 tig, da aus vU + w = vU + w , wegen vU vU0 = w0 w 2 U \ U ? = 0, 0 sofort vU = vU folgt. Es handelt sich hierbei um die Parallelogrammcher Dimension mit Unterraum orthogonale Projektion von zerlegung von Vektoren. Die Existenz einer orthogonalen Projektion lässt sich für unendlich dimensionale Unterräume nicht allgemein beweisen. Satz 7.4.4. Sei U ein endlich dimensionaler Unterraum des euklidi- V. schen oder unitären Vektorraumes V die (eindeutige) orthogonale Projektion eine Orthonormalbasis von U, Satz 7.4.1, (7.2) vU = vU dann ist, vgl. n X i=1 v 2 (e1 ; : : : ; en ) Dann existiert zu jedem (vei )ei : auf U. Ist Proposition 7.3.6 und 96 LINEARE ALGEBRA Beweis. Es genügt zu zeigen, dass (v vU )vU vvU = vU vU n X vU )vU =0 ist. n X n X i=1 i=1 n X (vei )(vej )(ei ej ) i;j =1 j =1 =v n X (v (vei )ei (vei )ei (vej )ej (vei )(vei ) i=1 n n X X = jvei j2 (vei )(vej )Æij = 0: i=1 i;j =1 = Beispiel. Die Endlichkeit der Dimensionen in den Voraussetzungen der Sätze 7.4.3 und 7.4.4 ist notwendig. Sei nämlich V ein euklidischer Vektorraum abzählbar unendlicher Dimension mit einer Orthonormal- (e1 ; e2 ; e3 ; : : : ). Für den unendlich dimensionalen echten Unterraum U = he2 e1 ; e3 e2 ; e4 e3 ; : : : i gilt natürlich V = R e1 U . ? Aber U = 0, und keine der beiden Aussagen in Satz 7.4.3, gilt für U . basis e1 2= U keinePorthogonale Projektion auf U . U ? = 0 zu zeigen, setzt man v = ni=1 ai ei 2 U ? an.PWegen z.B. v (e2 e1 ) = 0 erhält man a1 = a2 usw., also ist v = a ni=1 ei , und v (en+1 en ) = 0 führt zu a = 0, d.h. v = 0. Proposition 7.4.5. Sei U ein Unterraum eines euklidischen oder unitären Vektorraumes V und sei v 2 V . Der Vektor vU 2 U ist genau dann die orthogonale Projektion von v in U , wenn jv vU j jv uj für alle u 2 U . Darüber hinaus hat z.B. Um Beweis. Für jedes jv uj 2 = = = u2U ist vU )?(vU (v j(v vU ) + (vU u)j jv vU j + jvU uj + (v vU )(vU u) + (vU u)(v vU ) jv vU j + jvU uj jv vU j ; 2 2 2 2 2 mit Gleichheit genau dann, wenn also genau für 7.5. u), also u = vU 2 u = vU . Das Minimum nimmt an. jv uj Adjungierte Abbildungen und normale Endomorphismen. Denition. Seien V; W entweder zwei euklidische oder zwei unitäre Vektorräume mit linearer Abbildung :V ! W. Eine lineare Ab- ! V heiÿt zu adjungiert , wenn (v)w = v(w) für alle v 2 V und w 2 W . Dabei werden die jeweiligen Skalarprodukte bildung : W V W in bzw. ist auch genommen. Wegen der Symmetrien der Skalarprodukte zu adjungiert, d.h. = . LINEARE ALGEBRA Ein Endomorphismus 97 eines euklidischen oder unitären Vektorrau- = . mes heiÿt selbstadjungiert , wenn ein adjungierter Endomorphismus = ; bzw. existiert und wenn Lemma 7.5.1. antiselbstadjungiert , wenn Wenn eine adjungierte Abbildung existiert, dann ist sie eindeutig. Seien V; W entweder zwei euklidische oder zwei unitäre Vektorräume mit linearer Abbildung ! W. V : Dann existiert die adjungierte Abbildung thonormalbasis von V Sei . Ist V , dann gilt für alle w 2 W : endlich dimensional. (e1 ; : : : ; en ) eine Or- n X w = w( ei ) ei : i=1 0 Beweis. Seien ; beide adjungiert zu , d.h. v ( w 0 w) = v (w) v (0 w) = (v )w (v )w = 0; für alle v 2 V und w 2 W . Dann ist w 0 w 2 V \ V ? = 0, für alle 0 w 2 W , also ist w = w, für alle w 2 W , d.h. = 0 . Von der angegebenen Abbildung wird gezeigt, dass sie zu adjun giert ist. Oensichtlich ist : W ! V linear, weil Skalarprodukte in der linken Komponente linear sind. Nach Proposition 7.3.6 ist (v )w = = n X i=1 n X i=1 (vei )ei (vei ) w= Lemma 7.5.2. Seien V; W =v (1) (2) (3) (4) (5) Ist i=1 w(ei) ei . Adjungierte von entweder zwei euklidische oder zwei uni- täre Vektorräume mit linearen Abbildungen adjungierten (vei ) (ei )w i=1 n X w(ei) = v ( w ); für alle v 2 V; w 2 W , und ist die n X Abbildungen ; ; : V ! W . Wenn die existieren, dann gelten: ( ) = . ( + ) = + . (c) = c . () = . ker = (V )? und ker = ( W )? . surjektiv, dann ist jektiv. Sind V; W kehrungen, und injektiv. Ist surjektiv, dann ist in- endlich dimensional, dann gelten die jeweiligen Um- rang = rang . invertierbar, wenn invertierbar ist. Insbesondere ist genau dann 98 LINEARE ALGEBRA Beweis. (1) gilt laut Denition. v 2 V; w 2 W ist v ( + ) w = ( + )v w = (v )w + (v )w = v ( w ) + v ( w ) = v ( + )w : Also ( + ) w = ( + )w für alle w 2 W , d.h. ( + ) = + . (2): Für alle (3) und (4) bestätigt man genauso. w 2 ker ist, wegen (v )w = v ( w) = 0, äquivalent zu v ?w, ? für alle v 2 V . Also ker = (V ) . Deshalb, und wegen = ? folgt ker = ker = ( W ) . ? Sei surjektiv, d.h. V = W , dann ist ker = (V ) = 0, nach (5). Also ist injektiv. Analog zeigt man die dazu symmetrische Aussage. ?? = (ker )? = W Hat W endliche Dimension, dann ist V = (V ) nach Satz 7.4.3 und (5), falls injektiv ist. Somit ist surjektiv. Die dazu symmetrische Aussage folgt, wenn V endliche Dimension hat. Um zu zeigen, dass und gleichen Rang haben, verwendet man den (5): Dimensionssatz für Abbildungen, die Teilaussage (5) und Satz 7.4.3: rang = dim W dim(ker ) = dim W = dim V = rang : Satz 7.5.3. Seien V; W dim(V )? zwei endlich dimensionale euklidische bzw. A bzw. B . Sei : V ! W Matrix M (A; B ). Dann ist unitäre Vektorräume mit Orthonormalbasen eine lineare Abbildung mit darstellender die darstellende Matrix von bzgl. derselben Basen die adjungierte Matrix, d.h. M (B; A) = M (A; B ) : Insbesondere ist det = det . Für eine darstellende Matrix A, bzgl. einer Orthonormalbasis, eines selbstadjungierten bzw. antiselbstadjungierten Endomorphismus gilt trisch oder antisymmetrisch. A = A . Im reellen Fall ist A symme- M (A; B ) = (cij ) und M (B; A) = (dij ) bezüglich der Orthonormalbasen A = (e1 ; : : : ; en ) bzw. B = (f1 ; : : : ; fm ) von V bzw. W . Also ist für i = 1; : : : ; n bzw. j = 1; : : : ; m Beweis. Sei ei = m X l=1 cli fl und es folgt wie behauptet n und X fj = dkj ek ; k=1 dij = ( fj )ei = ei ( fj ) = (ei )fj = cji : Die Zusätze sind oensichtlich. LINEARE ALGEBRA Denition. 99 eines euklidischen oder unitären Vektorraumes heiÿt normal , wenn der adjungierte Endomorphismus existiert und mit vertauschbar ist, d.h. wenn = . Eine qua dratische Matrix A heiÿt normal , wenn AA = A A. Insbesondere sind Ein Endomorphismus selbstadjungierte und antiselbstadjungierte Endomorphismen normal. Lemma 7.5.4. Ein Endomorphismus eines euklidischen oder unitä- ren Vektorraumes ist genau dann normal, wenn der adjungierte Endo- v; w 2 V (v )(w ) = ( v )( w ): Insbesondere ist dann ker = ker . morphismus existiert, und wenn für alle gilt: normal, d.h. = . Dann ist für alle v; w 2 V (v )(w) = v (w) = v (w) = (v ) (w): Beweis. Sei (v ) w = (v )(w )= (v ) (w) = (v ) w, für alle v; w 2 V . Also ( )(v ) w = 0, für alle v; w 2 V , d.h. (v ) = (v ), für alle v 2 V . Folglich 2 ist = und ist normal. Nach obiger Gleichung gilt: jv j = 2 j vj , und damit ker = ker . Umgekehrt gelte die obige Gleichung, d.h. Bemerkung. Die komplexen Nullstellen eines reellen Polynoms treten p(x) 2 R [x] c 2 C gilt: p(c) = an cn + + a0 = an cn + + a0 = p(c) = 0: Satz 7.5.5. Sei ein normaler Endomorphismus eines euklidischen oder unitären Vektorraumes. Dann haben und gleiche Eigenvektoren. Ist v ein Eigenvektor von zum Eigenwert a, dann ist v ein Eigenvektor von zum Eigenwert a . Eigenvektoren von zu verschie- immer als Paare konjugiert komplexer Zahlen auf, weil für mit Nullstelle denen Eigenwerten sind orthogonal. Insbesondere sind die Eigenwerte eines selbstadjungierten Endomorphismus alle reell und die Eigenwerte eines antiselbstadjungierten Endomorphismus alle rein imaginär. Im Falle endlicher Dimension zerfällt das charakteristische Polynom eines selbstadjungierten Endomorphismus in reelle Linearfaktoren. Beweis. Nach Lemma 7.5.4 ist (v av )(v av ) = (v )2 = ( v )2 = ( v a v (v ) a (v )v + aav 2 a ( v )v a v ( v ) + aav 2 av )(v av ): 100 LINEARE ALGEBRA v von zum Eigenwert a auch ein Eigenvektor von aber zum Eigenwert a . Für Eigenvektoren v; w zu den verschiedenen Eigenwerten a; b ist a(vw) = (v )w = v ( w) = v (bw) = b(vw); also vw = 0, da a 6= b, und die Eigenvektoren zu verschiedenen EigenAlso ist ein Eigenvektor , werten sind orthogonal. Die Konsequenzen für selbstadjungierte bzw. antiselbstadjungierte En- = . Hat z.B. der selbstadjun gierte Endomorphismus = den komplexen Eigenwert c zum Eigen vektor v , dann hat den komplexen Eigenwert c zum Eigenvektor v , domorphismen folgen sofort aus also c = c und c ist reell. Denition. Sei ein Endomorphismus eines K -Vektorraumes. Ein Unterraum U V heiÿt -invariant , wenn (U ) U . Eigenräume von sind z.B. -invariant. Auch der 1-dimensionale Unterraum Kv ist -invariant, wenn v ein Eigenvektor von ist. Summen und Durchschnitte -invarianter Unterräume sind wieder -invariant. Die Einschränkung jU des Endomorphismus auf den -invarianten Unterraum U ist ein Endomorphismus von U , und induziert in natürlicher Weise einen Endomorphismus des Faktorraumes V=U durch (v + U ) = (v ) + U . Für u 2 U und u 2= U wäre nicht wohldeniert, denn 0 = (u + U ) = u + U 6= 0 2 V=U . Beginnt eine Basis von V mit einer Basis des invarianten Unterraumes U , so hat diesbezüglich eine obere Blockdreiecksmatrix als darstellende Matrix. Gilt sogar V = U W mit -invarianten Unterräumen U; W , dann hat bzgl. einer Basis, die dieser Zerlegung folgt, eine Blockdiagonalmatrix als darstellende Matrix. Es gelten auch die jeweiligen Umkehrungen. Lemma 7.5.6. Sei ein normaler Endomorphismus des endlich di- V . Wenn U -invarianter Unterraum ist, dann ist U ? -invariant. Sind U ? beide -invariant, dann sind beide auch -invariant, und und U (jU ) = jU . Insbesondere ist die Restriktion jU von auf U normensionalen euklidischen oder unitären Vektorraumes ein mal. Beweis. Für w 2 U ? ist u(w) = (u)w = 0, für alle u 2 U , d.h. U ? ist -invariant. Wenn also U und U ? beide -invariant sind, dann sind beide auch -invariant, weil für endlich dimensionale euklidische ?? = U . Für alle oder unitäre Vektorräume nach Satz 7.4.3 gilt: U 0 0 0 0 u; u 2 U gilt: jU (u) u = (u)u = u( u ) = u jU (u0) . Also ist (jU ) = jU und jU ist normal. LINEARE ALGEBRA Lemma 7.5.7. Sei 101 ein normaler Endomorphismus des endlich di- V mit Eigenvekv . Dann ist das orthogonale Komplement U = v ? = fu 2 V j u?v g ein -invarianter Unterraum, und die Einschränkung jU des Endomorphismus auf U ist ein normaler Endomorphismus von U . mensionalen euklidischen oder unitären Vektorraumes tor v = av . Nach Satz 7.5.5 gilt dann für u?v (u)v = u( v ) = u( av ) = a(uv ) = 0; ? d.h. U = v ist -invariant. Mit Lemma 7.5.6 ist jU normal. Beweis. Sei Der folgende Satz charakterisiert normale Endomorphismen unitärer Vektorräume und spezielle normale Endomorphismen euklidischer Vektorräume im Falle endlicher Dimension. Satz 7.5.8. Sei ein Endomorphismus entweder eines endlich dimen- sionalen unitären Vektorraumes, oder eines endlich dimensionalen euklidischen Vektorraumes, dessen komplexe Fortsetzung nur reelle Ei- ist genau dann normal, wenn V eine Orthonormalbasis aus Eigenvektoren von hat. Insbesondere ist genwerte hat. Der Endomorphismus dann diagonalisierbar. Speziell gibt es genau für die normalen Endomorphismen unitärer Vektorräume Orthonormalbasen aus Eigenvektoren. Beweis. Sei zunächst Eigenvektor v normal. Laut Voraussetzung hat zu einem Eigenwert Sei v immer einen o.B.d.A. normiert. Eine gege- n beginnt für n = 1 mit der oensichtlichen Orthonormalbasis fv g. Die Behauptung wird für n gezeigt, unter der Annahme, dass sie für n 1 gilt. ? hat nach Induktionsannahme Das orthogonale Komplement U = v und Lemma 7.5.7 eine Orthonormalbasis (v2 ; : : : ; vn ) aus Eigenvektoren von . Also ist (v; v2 : : : ; vn ) eine Orthonormalbasis von V aus Induktion über dim V = a. Eigenvektoren. Sei umgekehrt eine Orthonormalbasis aus Eigenvektoren von vi = ai vi , für i = 1; : : : ; n. Sei gegeben durch vi = ai vi , = falls V euklidisch ist. Dann ist für alle i; j (vi )vj = (ai vi )vj = ai Æij = aj Æij = vi ( aj vj ) = vi (vj ); also ist = . Weiter sind und vertauschbar, da beide bezüglich derselben Basis durch Diagonalmatrizen dargestellt sind, d.h. ist ben, also bzw. normal. Die Zusätze folgen sofort. 102 LINEARE ALGEBRA Bemerkung. Ein normaler Endomorphismus, wie in Satz 7.5.8, ist diagonalisierbar, aber die Umkehrung gilt nicht, z.B. ist mit den beiden verschiedenen Eigenwerten bar nach Satz 6.2.1, jedoch nicht normal, da 2 und AAT 1, A= 0 1 2 1 , diagonalisier- 6= AT A. Denn die Eigenvektoren bilden zwar eine Basis, aber keine Orthogonalbasis. Weiterhin werden alle normalen Endomorphismen endlich dimensionaler euklidischer Vektorräume charakterisiert. Lemma 7.5.9. Die komplexe Fortsetzung b eines normalen Endomorc . Sei ein normaler phismus ist normal, und es gilt ( b) = Endomorphismus des euklidischen Vektorraumes V . Sei v = v1 + iv2 ein Eigenvektor der komplexen Fortsetzung b von zum nicht reellen Eigenwert a. Dann ist v = v1 iv2 ebenfalls ein Eigenvektor der komplexen Fortsetzung b und zwar zum Eigenwert a . Insbesondere sind v; v orthogonal, und mit v ist auch v normiert. b von ist b(v1 + iv2 ) (w1 + iw2 ) = (v1 )w1 + (v2 )w2 + i (v2 )w1 (v1 )w2 = v1 ( w1 ) + v2 ( w2 ) + i v2 ( w1 ) v1 ( w2 ) = (v1 + iv2 )( w1 + i w2 ) c (w1 + iw2 ): = (v1 + iv2 ) c , und c als adjungierter Abbildung. Also ist ( b) = b ist normal mit Für den Eigenvektor v = v1 + iv2 von b zum nicht reellen Eigenwert a = a1 + ia2 ist v2 = v12 + v22 + i(v1 v2 v2 v1 ) = v 2 ; wegen der Symmetrie des reellen Skalarprodukts. Also ist v genau dann normiert, wenn v normiert ist. Wegen Beweis. Für die komplexe Fortsetzung v1 + iv2 = v ^ = (a1 + ia2 )(v1 + iv2 ) = a1 v1 a2 v2 + i(a2 v1 + a1 v2 ); folgt aus einem Vergleich der Real- und Imaginärteile v1 = a1 v1 Damit bestätigt man a2 v2 und v2 = a2 v1 + a1 v2 : v als Eigenvektor von b zum Eigenwert a, denn ^ v = v1 iv2 = a1 v1 a2 v2 i(a2 v1 + a1 v2 ) = (a1 ia2 )(v1 iv2 ) = av: Nach Satz 7.5.5 sind die Eigenvektoren Eigenwerten a; a orthogonal. v; v von b zu den verschiedenen Ein normaler Endomorphismus eines endlich dimensionalen unitären Vektorraumes ist diagonalisierbar über C , und das gilt auch für die dar- stellenden Matrizen. Nicht so einfach ist der Sachverhalt für normale LINEARE ALGEBRA 103 Endomorphismen eines endlich dimensionalen euklidischen Vektorraumes, wenn man reelle darstellende Matrizen verwendet. Man spricht hier von einer reellen Normalform reeller normaler Matrizen. Satz 7.5.10. Ein Endomorphismus klidischen Vektorraumes V eines endlich dimensionalen euV eine Or- ist genau dann normal, wenn eine darstellende Matrix der Form A = diag (c1 ; : : : ; ck ; K1 ; : : : ; Kh ) a b j j hat, mit reellen Eigenwerten ci und reellen Matrizen Kj = bj aj . Jeder Matrix Kj entspricht ein Paar konjugiert komplexer Nullstellen aj ibj des charakteristischen Polynoms von . Ist insbesondere selbstadjungiert, dann ist A eine reelle Diagonalmatrix. Ist antiselbstadjungiert, dann ist A schief symmetrisch, d.h. u.A. alle Diagothonormalbasis besitzt, bzgl. derer naleinträge sind 0. Beweis. Eine Induktion über dim V = beginnt für n = 1 mit dem n gezeigt, < n gilt. ? Wenn einen reellen Eigenwert hat, dann gilt V = hv i v und mit Lemma 7.5.7 folgt die Behauptung für V . Sei nunmehr kein Eigenwert von reell. Nach Lemma 7.5.9 hat dann die komplexe Fortsetzung b von die Eigenwerte a = a1 + ia2 und a = a1 ia2 zu normierten orthogonalen Eigenvektoren v = v1 + iv2 und v = v1 iv2 . Für die reellen Vektoren Skalar und es ist nichts zu zeigen. n Die Behauptung wird für unter der Annahme, dass sie für alle Zahlen w1 = p1 (v + v) = p 2 2v1 und w2 = p1 (v v) = i 2 p 2v2 gilt: 1 2 1 (v + v2 ) = 1 und w1 w2 = (v 2 v2 ) = 0: 2 2i Somit sind (v; v ) und (w1 ; w2 ) zwei verschiedene Orthonormalbasen von hv; vi = hw1; w2i in der komplexen Erweiterung Z von V . Die darstellende Matrix K von bjhw1 ;w2 i ist gegeben durch 1 w1 = p (bv + bv) = a1 w1 a2 w2 und w2 = a2 w1 + a1 w2 ; 2 w12 = w22 = also K= a1 a2 a2 a1 . Das komplexe Erzeugnis und das reelle Erzeugnis da hw ; w iZ ist b-invariant 1 2 hw ; w iV ist -invariant und sogar -invariant, 1 2 w1 = a1 w1 + a2 w2 und w2 = a2 w1 + a1 w2 . Nach Lemma 7.5.6 104 LINEARE ALGEBRA hw ; w i?V invariant ist dann auch das reelle orthogonale Komplement unter , d.h. V = hw1 ; w2 i hw1 ; w2 i? Nach Lemma 7.5.6 ist dann jhw1 ;w2i? ist eine 1 2 -invariante Zerlegung. normal und die Induktionsan- nahme führt zum gewünschten Ergebnis. bezüglich einer Orthonormalba mit A = AT als T T darstellender Matrix, vgl. Satz 7.5.3. Wegen AA = A A ist dann Sei umgekehrt der Endomorphismus sis durch die Matrix A dargestellt. Dann existiert normal. Die Ergebnisse für einen selbstadjungierten bzw. antiselbstadjungierten Endomorphismus 7.6. ergeben sich sofort. Orthogonale und unitäre Abbildungen. Die wichtigsten linearen Abbildungen zwischen euklidischen bzw. unitären Vektorräumen sind diejenigen, die das skalare Produkt invariant lassen, wie z.B. Drehungen und Spiegelungen. Denition. räume. Seien V; W zwei euklidische bzw. zwei unitäre Vektor- Eine lineare Abbildung unitär genannt, wenn für je zwei : V ! W wird orthogonal bzw. v; v 0 2 V gilt: (v )(v 0) = vv 0. Sol- che Abbildungen sind längentreu und winkeltreu . orthogonale bzw. unitäre Abbildungen Insbesondere sind injektiv, da jvj = jvj, und sie haben im Falle endlicher Dimension orthogonale bzw. unitäre Inverse. Hierfür substituiert man oben v = 1w und v 0 = 1 w0 . Zudem sind Eigenwerte orthogonaler bzw. unitärer Endomorphismen vom Be- 1, da für einen jvj = javj = jajjvj. trag Eigenvektor v 6= 0 von mit Eigenwert a gilt Orthogonale bzw. unitäre Abbildungen lassen sich auch anders charakterisieren. Satz 7.6.1. Seien V; W zwei euklidische bzw. zwei unitäre Vektorräu- !W sind die folgenden Aus- (4) Bilder von Orthonormalsystemen unter sind wieder Orthonor- me. Für eine lineare Abbildung :V sagen äquivalent. (1) ist orthogonal bzw. unitär. jvj = 1 folgt stets jvj = 1. Für alle v 2 V gilt jv j = jv j. (2) Aus (3) malsysteme. Die komplexe Fortsetzung einer orthogonalen Abbildung ist unitär. Beweis. (1) impliziert (2) weil insbesondere längentreu ist. (2) impliziert (3) nach (1) und Proposition 7.3.3 (2), denn für ist jvj = j(jvj jvvj )j = jvj( jvvj ) = jvjj jvvj j = jvj. 0 6= v 2V LINEARE ALGEBRA (3) ) (1): 105 v; v 0 ist nach (3) 2 Re (v )(v 0 ) = j(v + v 0 )j2 jv j2 jv 0 j2 = jv + v 0 j2 jv j2 jv 0 j2 = 2 Re(vv 0 ); 0 0 0 und genauso Im (v )(v ) = Im(vv ), bei Verwendung von v + iv 0 0 0 statt v + v . Also ist (v )(v ) = vv und ist unitär. Für Oensichtlich folgen (4) aus (1), und (3) aus (4). Die komplexe Fortsetzung b von ist unitär, wegen Denition. A 1 = AT . A 1 = A . E ^ (v + iw)^ (v0 + iw0 ) = (v)(v0 ) + (w)(w0 ) + i (w)(v0 ) = vv 0 + ww0 + i(wv 0 vw0 ) = (v + iw)(v 0 + iw0 ): (v )(w0 ) Eine reelle invertierbare Matrix heiÿt orthogonal , wenn Eine komplexe invertierbare Matrix heiÿt unitär , wenn Aus AAT = bzw. AA = E ergibt sich sofort, dass die Zeilen und die Spalten einer orthogonalen bzw. unitären Matrix jeweils ein Orthonormalsystem bilden und umgekehrt. Darüberhinaus folgt aus (A ) 1 = (A 1 ) , dass die Inversen orthogonaler bzw. unitärer Matrizen wieder orthogonal bzw. unitär sind. Insbesondere sind Permutationsmatrizen orthogonal. Die Determinante einer orthogonalen bzw. unitären Matrix hat den Betrag Beispiel. A= Die Matrizen cos ' sin ' Die Matrix Winkel ' sin ' cos ' A 1, also 1 im reellen Fall. A; B sind orthogonal und C ; B 0 2 1 1@ 2 2 = 3 1 2 1 2 1A ; 2 C ist unitär. 1 =p 2 1 i i : 1 ist übrigens die Drehung in der reellen Ebene um den gegen den Uhrzeigersinn, d.h. eine mathematisch positive Drehung . Satz 7.6.2. Ein Automorphismus eines euklidischen bzw. unitären Vektorraumes ist genau dann orthogonal, bzw. unitär, wenn und = 1 existiert . Insbesondere sind orthogonale bzw. unitäre Endomor- phismen normal. orthogonal bzw. unitär. Dann ist (v )w = (v )( 1 w ) = v ( 1 w ); 1 1 für alle u; w 2 V . Also = . Sei umgekehrt = , dann ist (v )(w ) = v ( w ) = vw , und ist orthogonal bzw. unitär. Insbesondere ist normal. Beweis. Sei 106 LINEARE ALGEBRA Satz 7.6.3. Die darstellenden Matrizen von orthogonalen bzw. unitä- ren Endomorphismen endlich dimensionaler euklidischer bzw. unitärer Vektorräume sind, bzgl. Orthonormalbasen, orthogonal bzw. unitär, und umgekehrt. Basistransformationsmatrizen zwischen Orthonormalbasen sind orthogonal, bzw. unitär. Beweis. Nach den Sätzen 7.5.3 und 7.6.2 ist A 1 = A 1 = äquivalent zu für die darstellenden Matrizen bzgl. Orthonormalbasen. Ei- ne Basistransformationsmatrix ist insbesondere die darstellende Matrix der Identität, hier bzgl. zweier Orthonormalbasen, und die Spalten einer solchen darstellenden Matrix sind die Basisbilder, hier also eine Orthonormalbasis, d.h. diese Matrix ist orthogonal bzw. unitär. Satz 7.6.4. Die Mengen O(n; R ) bzw. U(n; C ) aller orthogonalen bzw. unitären n-reihigen Matrizen sind jeweils Untergruppen der allgemeinen linearen Gruppen GL(n; R ) bzw. GL(n; C ), die sog. orthogonale Gruppe bzw. unitäre Gruppe. Beweis. Nach Satz 7.6.2 sind Produkte und Inverse orthogonaler bzw. unitärer Automorphismen wieder orthogonal bzw. unitär. Also sind die nicht-leeren Mengen O(n; R ) bzw. U (n; C ) abgeschlossen bzgl. Multi- plikation und Inversion, somit Gruppen. Denition. Ein orthogonaler Automorphismus eines endlich dimen- sionalen euklidischen Vektorraumes heiÿt eigentlich orthogonal oder eine Drehung , wenn seine Determinante 1 gonal , wenn seine Determinante Automorphismus 1 ist und uneigentlich ortho- ist. Ein uneigentlich orthogonaler heiÿt Spiegelung , wenn = 1 1 und wenn ein einfacher Eigenwert ist. Satz 7.6.5. Ein Automorphismus klidischen Vektorraumes V eines endlich dimensionalen eu- ist genau dann orthogonal, wenn Orthonormalbasis besitzt, bzgl. derer K ('j ) hat, mit Matrizen 1; : : : cos 'j sin 'j = entspricht ein Drehung um den wobei < 'j für alle j. ; eine eine darstellende Matrix der Form A = diag 1; : : : ; 1; V 1; K ('1 ); : : : ; K ('h) sin 'j . Jeder cos 'j Winkel 'j gegen den Matrix K ('j ) Uhrzeigersinn, Der orthogonale Automorphismus ist genau dann eine Drehung, wenn der Eigenwert 1 in gerader Vielfachheit auftritt. Eine orthogonale Matrix ist orthogonal ähnlich zu einer solchen Matrix A. LINEARE ALGEBRA Beweis. Ein orthogonaler Automorphismus 107 ist normal, also erhält man die reelle Normalform normaler Matrizen gemäÿ Satz 7.5.10. Alle 1, d.h. cos ' i sin ', Eigenwerte orthogonaler Endomorphismen haben den Betrag sie sind entweder reell, 1, oder konjugiert komplex, und es ergibt sich eine Normalform A wie angegeben. Umgekehrt sind A oensichtlich orthogonal. Die 2 2 Kästchen K ('j ) sind Drehungen in mathematisch positivem Sinn um den Winkel 'j . Eine Drehung liegt laut Denition genau dann vor, wenn die Determinante von A gleich 1 ist, wenn also die Anzahl Matrizen der Form wie 1 der Einträge auf der Diagonalen gerade ist. Da nur Orthonormalbasen zugrunde gelegt sind, wird die Ähnlichkeit durch orthogonale Matrizen vermittelt. Korollar 7.6.6. cos ' sin ' Die Drehungen sin ' cos ' eines 2-dimensionalen euklidischen Vektorraumes bilden eine abelsche Gruppe. 22 Uneigentliche orthogonale Geraden. Jede Drehung eines Matrizen sind Spiegelungen an einer 3-dimensionalen euklidischen 1, die sog. Drehachse, Eigenvektor zum Eigenwert Raumes hat einen eine sog. Drehebe- ne, und bzgl. einer dazu passenden Orthonormalbasis eine darstellende Matrix der Form 0 1 1 0 @0 cos ' 0 sin ' 0 sin 'A : cos ' Für jede darstellende Matrix einer Drehung bzgl. einer Orthonormalbasis ist durch cos ' = Drehwinkel gegeben. 1 2 Uneigentliche orthogonale tr(A) 33 1 bis auf das Vorzeichen der sog. Matrizen sind sog. Drehspiegelungen, d.h. eine Drehung in einer Ebene und eine Spiegelung an dieser Drehebene. Beweis. Die 2-dimensionalen Drehungen bilden die Gruppe O(2; R ). Diese Gruppe ist oensichtlich abelsch, vgl. auch das nachfolgende Beispiel. Eine uneigentliche orthogonale ist also eine Spiegelung. 22 Matrix hat die Eigenwerte 1 und Die Normalform einer Drehung im 1, 3-dimensionalen euklidischen Raum entnimmt man Satz 7.6.5. Da ähnliche Matrizen gleiche Spur haben, genügt es die Spur dieser Normalform zu berechnen, um den Cosinus 108 LINEARE ALGEBRA des Drehwinkels zu erhalten und damit den Drehwinkel bis auf das Vorzeichen. Eine uneigentliche orthogonale reelle Normalform diag ( 1; K ) 33 Matrix hat nach Satz 7.6.5 die mit einer eine Drehspiegelung. Beispiel. cos ' sin ' sin ' cos ' Bemerkung. cos sin sin cos = Die Normalform einer 22 Drehmatrix cos(' + ) sin(' + ) K , ist also sin(' + ) cos(' + ) 3-dimensionalen : Drehung wie in Korollar 7.6.6 erhält man auch direkt durch überwiegend geometrische Überlegungen. Das charakteristische Polynom einer orthogonalen 33 A ist ein reelles Polynom des Grades 3, und hat somit eine reelle 1, da A orthogonal ist. Es liegt eine Drehung vor, also ist dieser Eigenwert zum Eigenvektor v nicht 1, sondern 1. Das ist die Drehachse R v und ein A-invarianter Unterraum. Nach Lemma 7.5.7 ? oder auch einfach, weil A orthogonal ist, erhält man, dass v auch AMatrix Nullstelle, hier invariant ist, also eine 2-dimensionale Drehung mit der angegebenen darstellenden Matrix. Hauptachsentransformation. Denition. Zwei reelle oder komplexe, quadratische Matrizen A; B 7.7. heiÿen orthogonal ähnlich bzw. unitär ähnlich , wenn es gonale bzw. unitäre Matrix D gibt mit B = DAD . eine ortho- In diesem Sinne spricht man auch von orthogonal diagonalisierbar und von unitär dia- gonalisierbar . Das Verfahren im folgenden Satz wird oft als Hauptachsentransformation bezeichnet, und die Matrixtransformation, die er beinhaltet, als Hauptachsentransformation . Man verwendet u.A. diese Transformation, eine Drehung, um Kegelschnitte in Hauptachsenform zu bringen, z.B. eine Ellipse , die schräg in der reellen Ebene dass ihre Hauptachsen system liegen, d.h. a; b2 parallel x2 + y = 1. a2 b2 R 2 liegt, so zu drehen, zum rechtwinkligen Koordinaten- Meist spricht man nur bei reellen symmetrischen Matrizen von Hauptachsentransformation. Satz 7.7.1. (Hauptachsentransformation) Reelle symmetrische Matri- zen sind orthogonal diagonalisierbar, sogar eigentlich orthogonal diagonalisierbar. Hermitesche Matrizen sind unitär diagonalisierbar, d.h. unitär ähnlich zu einer reellen Diagonalmatrix. LINEARE ALGEBRA 109 Beweis. Für reelle symmetrische Matrizen folgt die Aussage aus dem Satz 7.5.10 über die reellen Normalformen symmetrischer Matrizen und Satz 7.6.3. Genauer gilt für eine uneigentlich orthogonale Matrix d.h. det U = ist und U T AU 1, dass X = diag ( 1; 1; : : : ; 1)U = X T AX . U, eigentlich orthogonal Für hermitesche Matrizen nutzt man die Sätze 7.5.5 und 7.6.3. Bemerkung. Zur expliziten Hauptachsentransformation der reellen A muss man die orthogonale Matrix D bestimDADT eine (reelle) Diagonalmatrix ist. Tatsächlich bilden die Zeilen der orthogonalen Matrix D nichts anderes als eine Orthonormalbasis aus Eigenvektoren von A, und man sieht sofort, dass die Diagonaleinträge von B genau die (reellen) Eigenwerte von A sind. Damit hat man ein Verfahren, um D zu berechnen. Man bestimmt das charakteristische Polynom von A, zerfällt es in Linearfaktoren, besymmetrischen Matrix men für die B = stimmt Basen aller Eigenräume und orthogonalisiert diese Basen. Die Vereinigung aller dieser Orthonormalbasen ist eine Orthonormalbasis aus Eigenvektoren nach Satz 7.5.5. Die gewünschte orthogonale Matrix D erhält man dann indem man die Eigenvektoren zeilenweise un- tereinander schreibt. Denition. Eine symmetrische oder hermitesche Matrix positiv denit , wenn für jeden (passenden) Spaltenvektor elle Zahl v Av v Av A heiÿt v 6= 0 die re- positiv ist. Man spricht von positiv semi-denit , wenn 0 für alle v. Analog gibt es die Begrie negativ denit , ne- gativ semi-denit und indenit . Skalarprodukte haben positiv denite symmetrische bzw. positiv denite hermitesche darstellende Matrizen. C = (ci;j ) als v = (a1 ; : : : ; an) D.h., gemäÿ Satz 7.1.1 bzw. Satz 7.2.1 ist mit einer Matrix darstellender Matrix für reelle oder komplexe Tupel und w = (b1 ; : : : ; bn ) durch X vw = i;j n ai ci;jbj = vCw 1 genau dann ein Skalarprodukt gegeben, wenn C eine reelle positiv de- nite symmetrische bzw. eine positiv denite hermitesche Matrix ist, vgl. Lemma 7.1.3. Für positiv denite Matrizen werden im folgenden Satz zwei Charakterisierungen gegeben, mit der zweiten, hier ohne Beweis, hat man ein vorteilhaftes Verfahren ohne Berechnung der Eigenwerte. Satz 7.7.2. Eine reelle symmetrische oder hermitesche Matrix ist ge- nau dann positiv denit, wenn alle Eigenwerte positiv sind. 110 LINEARE ALGEBRA A = (ai;j ) 2 M(n; R ) ist genau dann Hauptuntermatrizen (ai;j )i;j k für alle k = Eine reelle symmetrische Matrix positiv denit, wenn alle 1; : : : ; n positive Determinanten haben. A eine reelle symmetrische bzw. hermitesche Matrix. Sei A b zum normierten Eigenvektor v 6= 0, d.h. Av = bv . Dann ist 0 < v Av = bjv j2 , d.h. b > 0. Seien umgekehrt alle Eigenwerte (b1 ; : : : ; bn ) positiv, und sei (v1 ; : : : ; vn ) ein Orthonormalsystem von Eigenvektoren von A, als Spaltenvektoren geschrieben, zu den jeweiligen Eigenwerten bi Dann erhält man für einen Pn allgemeinen Vektor v = i=1 ai vi 6= 0 Beweis. Sei positiv denit mit (reellem) Eigenwert n n i=1 n X j =1 n n i=1 j =1 X X X X v Av = ( ai vi )A( aj vj ) = ( ai vi )( bj aj vj ) = = und i;j =1 n X i=1 ai bj aj (vi vj ) = n X i;j =1 ai bj aj Æij jaij bi > 0; 2 A ist positiv denit. Beispiel. Die reelle symmetrische Matrix A = ab bc ist genau dann positiv denit, wenn a > 0 und det A = ac b2 > 0. T Für eine beliebige reelle oder komplexe Matrix A ist AA bzw. AA symmetrisch bzw. hermitesch, positiv semi-denit vom Rang gleich rang A. Denn 0 jAv j2 = vAA v , und AA ist mit Hauptachsentrans- formation unitär diagonalisierbar, d.h. es gibt eine unitäre Matrix dass (SAS )(SA S ) = SAA S = D Diagonalmatrix D. S , so mit einer positiv semi-deniten Also bilden z.B. die Zeilen der Matrix SAS ein Orthogonalsystem, evtl. zuzüglich einiger Nullzeilen. Damit sind genau rang A Diagonaleinträge von D rang A. Für eine invertierbare denit. Übrigens ist dann AAT ungleich 0 d.h. rang AA = rang D = A ist AAT bzw. AA positiv bzw. AA eine darstellende Matrix des Matrix Standardskalarprodukts bzgl. einer alternativen Orthonormalbasis. Denition. Die Anzahl t(A) der positiven Eigenwerte einer reellen A heiÿt Trägheitsindex . symmetrischen oder einer hermiteschen Matrix Für symmetrische bzw. hermitesche Matrizen wird durch den Träg- heitssatz von Sylvester eine Normalform bzgl. Kongruenz bestimmt. LINEARE ALGEBRA Satz 7.7.3. 111 A eine quadratische, reelle symmetrische bzw. (komplexe) hermitesche Matrix vom Rang r und Trägheitsindex t. Alle Matrizen in der Kongruenzklasse von A sind (Trägheitssatz von Sylvester) Sei symmetrisch bzw. hermitesch. Der Rang und der Trägheitsindex sind die vollständigen Invarianten der Kongruenzklasse und zu D = diag (1| ; :{z : : ; 1}; | 1; :{z :: ; r t t Einträge sind 1. r t 1; 0 : : : ; 0), } t Einträge sind 1 und Insbesondere gibt es eine reelle invertierbare bzw. komplexe invertierbare Matrix Zwei quadratische d.h. A ist kongruent S mit D = S T AS bzw. D = S AS . n-reihige reelle symmetrische bzw. hermitesche Ma- trizen sind genau dann kongruent, wenn sie gleichen Rang und gleichen Trägheitsindex besitzen. Beweis. Es wird nur der komplexe Fall bewiesen. A unitär ähnlich zu einer reellen Diagonalmatrix mit positiven Eigenwerten b1 ; : : : ; bt > 0 und negativen Eigenwerten bt+1 ; : : : ; br < 0. Also Nach der Hauptachsentransformation, Satz 7.7.1, ist B = diag (b1 ; : : : ; bt ; bt+1 ; : : : ; br ; 0; 0; : : : ) = CAC : Mit S = diag ( p1b1 ; : : : ; p1bt ; p 1b ; : : : ; p 1 br ; 1; 1; : : : ) gilt: t+1 D = (SC )A(SC ) = diag (Et ; Er t ; 0): t ist noch zu zeigen. Sei (v1 ; : : : ; vt ; vt+1 ; : : : ; vn ) eine = A die darstellende Matrix D = 0 diag (Et ; Er t ; 0) hat. Sei (v1 ; : : : ; vt00 ; vt00 +1 ; : : : ; vn0 ) eine neue Basis, 0 bezüglich derer die darstellende Matrix D = diag (Et0 ; Er t0 ; 0) hat. 0 0 Sei U = hv1 ; : : : ; vt i und sei W = hvt0 +1 ; : : : ; vn i. Dann ist U \ W = 0, Pt Pn weil für z 2 U \ W gilt: z = bj v 0 . Gemäÿ der i=1 ai vi = j =t0 +1 Pt j 2 verschiedenen Darstellungen von z ist (z; z ) = i=1 jai j 0 und Pn 2 (z; z ) = j b j 0 , d.h. z = 0 . Nach dem Dimensionssatz i=t0 +1 i 0 für Unterräume gilt: t + (n t ) = dim U + dim W n und somit t t0 . Aus Symmetriegründen folgt dann t = t0 . Die Invarianz von Basis von C n, bezüglich derer Der Trägheitsindex einer invertierbaren reellen symmetrischen bzw. hermiteschen Matrix kann vorteilhaft, ohne die Bestimmung der Eigenwerte, mit der Descarteschen Zeichenregel bestimmt werden. Die charakteristischen Polynome solcher Matrizen erfüllen die Voraussetzungen der folgenden Spezialisierung der Descarteschen Zeichenregel, vgl. [3, Sturm's Theorem], die ohne Beweis angegeben wird. 112 LINEARE ALGEBRA Satz 7.7.4. (Descartesche Zeichenregel) Das reelle Polynom f (x) = an xn + an 1 xn 1 + + a1 x + a0 mit a0 6= 0 zerfalle in reelle Linearfaktoren. Dann ist die Anzahl der positiven Nullstellen von f (x), gezählt mit Vielfachheiten, gleich der Anzahl der Vorzeichenwechsel in der Folge der Koezienten (a0 ; : : : ; an ), wobei die Koezienten ai = 0 weggelassen sind. Beispiel. f (x) = x3 3x 1 hat drei verschiedene 1) > 0 und f (0) < 0. Genau eine der Das reelle Polynom reelle Nullstellen, weil f( Nullstellen ist positiv, weil es genau einen Vorzeichenwechsel bei den Koezienten gibt. Die allgemeine lineare Gruppe GL(n; R ) wird erzeugt von der Menge der positiv deniten symmetrischen Matrizen und der Gruppe der orthogonalen Matrizen. Die allgemeine lineare Gruppe GL(n; C ) wird erzeugt von der Menge der positiv deniten hermiteschen Matrizen und der Gruppe der unitären Matrizen. Die Menge der invertierba- ren, symmetrischen bzw. der invertierbaren, hermiteschen Matrizen ist nicht multiplikativ abgeschlossen also keine Gruppe. Auch wenn man invertierbar zu positiv denit verschärft, erhält man keine Gruppen. Genauer wird das im folgenden Satz durch die sog. Polarzerlegung von Matrizen formuliert. Satz 7.7.5. (Polarzerlegung) Jeder Automorphismus eines endlich dimensionalen euklidischen bzw. unitären Vektorraumes lässt sich auf genau eine Weise als Produkt Automorphismus ', =' eines orthogonalen bzw. unitären und eines selbstadjungierten Automorphismus mit lauter positiven Eigenwerten darstellen. Jede invertierbare reelle Matrix dukt A = BS A kann auf genau eine Weise als ProB und einer positiv de- mit einer orthogonalen Matrix niten symmetrischen Matrix S dargestellt werden. Jede invertierbare komplexe Matrix Produkt A = BS kann auf genau eine Weise als mit einer unitären Matrix ten hermiteschen Matrix Beweis. Mit A S B und einer positiv deni- dargestellt werden. ist auch ein Automorphismus und = ist selbst- adjungiert und positiv denit, d.h. es existiert eine Orthonormalbasis (v1 ; : : : ; vn) von Eigenvektoren von mit lauter positiven (reellen) Eip genwerten ai . Sei 2 Aut V deniert durch vi = aivi , d.h.p 2 = ai 2 R . und ist selbstadungiert, positiv denit mit Eigenwerten 0 < 1 Sei ' = 2 Aut V . 2 1 2 Aus = = folgt ' 1 = 1 = 1 = 1 = ( 1 ) = ' . D.h. ' ist orthogonal bzw. unitär und = ' . LINEARE ALGEBRA 113 Um die Eindeutigkeit der Zerlegung zu zeigen, nimmt man '0 0 = an. Also folgt wegen sind, (7.3) 2 = 0 und, da '; ' 0 die positiven Eigenwerte und ai 02 bzw. ) = 0 0 = 0 2 : haben dieselben Eigenvektoren, und a2i . Also haben und 0 nach (7.3) vi = ' = '0 . gleiche positive Eigenwerte und gleiche Eigenvektoren, genauer ai vi = 0 vi für alle i. Somit ist = orthogonal bzw. unitär = ( ')(' ) = = ( '0 )('0 Die Endomorphismen =' = 0, und folglich ist auch Die Übersetzung auf Matrizen erfolgt wie üblich. 114 LINEARE ALGEBRA 8. Normalformen von Matrizen Normalformen von Matrizen sind spezielle Repräsentanten aus Ähnlichkeitsklassen von Matrizen. Die darstellenden Matrizen eines En- domorphismus eines endlich dimensionalen Vektorraumes bilden bekanntlich eine komplette Ähnlichkeitsklasse. Gesucht wird eine dar- stellende Matrix, die Normalform dieser Ähnlichkeitsklasse, welche die wesentlichen Eigenschaften des dargestellten Endomorphismus abzulesen gestattet. Im Abschnitt 6.2, Diagonalisierbarkeit liegen bereits Normalformen vor. An Diagonalmatrizen kann man z.B. den Rang der Matrix, ihre Eigenwerte und Eigenvektoren ablesen. Die Herleitung von Normalformen im allgemeinen Fall erfordert u.A. die Kenntnis des charakteristischen und des Minimalpolynoms. Polynomringe über Körpern. Der Polynomring K [x] aller Polynome über dem Körper K ist auch ein unendlich dimensionaler K -Vektorraum mit der Menge aller Monome f1; x; x2; : : : g als Basis. Denition. Gilt die Gleichung (8.1) pq = r für p; q; r 2 K [x]; dann heiÿen p; q Teiler von r , man schreibt z.B. pjr . Ein nicht konstantes Polynom r heiÿt irreduzibel oder unzerlegbar , wenn eine Zerlegung der Form (8.1) trivial ist, d.h. p oder q ist konstant, ansonsten heiÿt ein 8.1. Polynom zerlegbar oder reduzibel . Oensichtlich ist ein lineares Poly- nom , d.h. vom Grad 1, unzerlegbar. Wenn die Polynome sogar normiert sind, dann ist auch r normiert. p; q in (8.1) Für Polynome über nullteilerfreien Ringen, also insbesondere über Körpern, gilt der Gradsatz . p; q 2 K [x] ist grad(pq ) = grad(p) + grad(q ): grad(p + q ) max grad(p); grad(q ) mit Satz 8.1.1. Weiter gilt für p; q (Gradsatz) Für Gleichheit u.A. von verschiedenem Grad. Insbesondere ist der Ring K [x] nullteilerfrei und es gilt die Kürzungs- regel. an xn + und q = bm xm + Polynome mit n+m + mit Leitkoezienten an ; bm 2 K n 0. Dann ist pq = an bm x Leitkoezient an bm 6= 0, da K ein Körper ist. Der Zusatz ist oenBeweis. Seien sichtlich. p = LINEARE ALGEBRA 115 Beispiel. Seien die Polynome p = x2 + 1, q = x2 + x + 1 und r = x2 gegeben. Die Polynome sind irreduzibel über über C. Das Polynom Das Polynom q r p; q ist irreduzibel über Q R und reduzibel und reduzibel über ist das einzige irreduzible Polynom des Grades dem Körper mit 2 2 2 R. über Elementen. Schon für ganze Zahlen haben wir eine Division mit Rest und damit schlieÿlich eine Primfaktorzerlegung erhalten, vgl. Satz 0.3.3. Auf prinzipiell gleiche Weise erhält man auch für einen Polynomring K [x] über einem Körper eine Division mit Rest mit geeigneter Denition eines Restes und damit eine Primfaktorzerlegung. p; q 2 K [x], mit q 6= 0, über dem Körper K , gibt es eindeutig bestimmte Polynome t; r 2 K [x] Satz 8.1.2. (Division mit Rest) Für Polynome mit p = tq + r; r = 0 Das Polynom r heiÿt Rest. oder grad(r ) < grad(q ): qt = p, also ist der r = 0 und t ist eindeutig bestimmt. Sei nunmehr q - p. Dann ist das Nullpolynom nicht in der Menge fp tq jt 2 K [x]g. Also existiert in dieser Menge ein Polynom r = p tq von minimalem Grad m. Seien q = ak xk + vom Grad k und r = bm xm + mit Leitkoezienten ak ; bm ungleich 0. Es genügt zu zeigen, dass m < grad q = k. Sei m k angenommen, dann existiert ein weiteres Polynom aus der obigen Beweis. Für den Nachweis der Existenz sei zuerst Rest Menge der Form bm m x ak bm m k x q ak bm m k x (ak xk + ) = (bm xm + ) ak bm = (bm 1 ak 1 )xm 1 + ak des Grades < m im Widerspruch zur Minimalität von r . 0 0 Zum Beweis der Eindeutigkeit setzt man p = tq + r = t q + r mit 0 0 0 0 0 Resten r; r . Also (t t )q = r r, folglich ist t = t und r = r nach p [t + k ]q = p tq Gradsatz. Bemerkung. Dividiert man ganzzahlige Polynome p; q 2 Z[x] mit Rest, also p = tq + r , so erhält man i.A. Polynome t; r 2 Q [x] mit rationalen Koezienten. Die beiden Polynome t; r sind genau dann ganzzahlig, wenn der Leitkoezient des Nennerpolynoms q gleich 1 ist. Das ergibt sich aus einer genaueren Betrachtung in Satz 8.1.2. 116 LINEARE ALGEBRA Irreduzible Polynome über Körpern haben die folgende zusätzliche Eigenschaft, die man auch für Primzahlen kennt, vgl. Lemma 0.3.2. Lemma 8.1.3. Ein Polynom p 2 K [x] n K ist genau dann irreduzibel, wenn p ein Produkt qs, für q; s 2 K [x], nur dann teilt, wenn p einen der beiden Faktoren teilt. p 2 K [x] entweap, und wenn p eine Potenz q n Insbesondere sind Teiler eines irreduziblen Polynoms der Skalare für a2K oder von der Form q 2 K [x] teilt, so teilt es q . p irreduzibel und Teiler von qs. Weiter sei angenommen, dass p weder Teiler von q noch von s ist, und dass grad qs diesbezüglich minimal ist. Also q = hp + r mit Rest 0 6= r 2 K [x] und grad r < grad p. Somit ist rs = qs hps durch p teilbar und von kleinerem Grad als qs. Folglich ist p ein Teiler von s, ein Widerspruch. Sei umgekehrt die angegebene Eigenschaft von p angenommen, dann führt der Ansatz p = qs mit p; s 2 K [x] n K sofort zum Widerspruch aus Gradgründen, d.h. p ist irreduzibel. Induktiv zeigt man die letzte Beweis. Sei Aussage. Im Polynomring über einem Körper gibt es, wie für ganze Zahlen, eine Primfaktorzerlegung . Satz 8.1.4. Jedes normierte Polynom aus K [x] kann bis auf die Rei- henfolge eindeutig als Produkt endlich vieler normierter irreduzibler Polynome dargestellt werden. Beweis. Die Existenz einer solchen Zerlegung folgt aus dem Gradsatz, und die Eindeutigkeit folgt aus Lemma 8.1.3, da für zwei irreduzi- ble Zerlegungen , p1 pk o.B.d.A. sukzessive folgt: k = h. Denition. q1 qh , d.h. alle pi ; qi p1 = q1 , p2 = q2 , usw., = sind irreduzibel, insbesondere ist Auf Grund der Primfaktorzerlegung für Polynome über p; q; r 2 K [x]. Das Polynom p heiÿt gröÿter gemeinsamer Teiler von q und r , geschrieben p = ggT(q; r ), wenn p ein gemeinsamer Teiler von q und r ist und p diesbezüglich von maximalem Grad ist, o.B.d.A. sogar normiert. Das Polynom p heiÿt kleinstes gemeinsames Vielfaches von q und r , geschrieben p = kgV(q; r ), wenn q und r Teiler von p sind und p diesbezüglich von minimalem Grad ist, o.B.d.A. sogar normiert. Für Polynome p; q 2 K [x], deren gröÿter gemeinsamer Teiler ein Skalar ist, d.h. sog. teilerfremde Polynome , schreibt man ggT(p; q ) = 1. Körpern sind die folgenden Denitionen sinnvoll für LINEARE ALGEBRA 117 Normierte gröÿte gemeinsame Teiler und normierte kleinste gemeinsame Vielfache sind wegen der eindeutigen Primfaktorzerlegung eindeutig ; pk ) bzw. kgV(p1 ; : : : ; pk ). Wie für ganze Zahlen zeigt man für p; q 2 K [x] q p (8.2) ; ) = 1: pq = ggT(p; q ) kgV(p; q ) und ggT( ggT(p; q ) ggT(p; q ) bestimmt. Für mehr als zwei Polynome schreibt man ggT(p1 ; : : : Wie für ganze Zahlen gilt der Satz von Bézout. Satz 8.1.5. (Bézout) Für p; q 2 K [x] gibt es r; s 2 K [x] mit rp + sq = ggT(p; q ): Insbesondere lassen sich teilerfremde Polynome d.h. es existieren r; s 2 K [x] mit rp + sq = 1. p; q zu 1 kombinieren, I = frp + sq j r; s 2 K [x]g ist eine additive UnterK [x], und für beliebige t 2 K [x] gilt I tI = fth j h 2 I g. Teilmengen I eines Ringes, hier K [x], heiÿen Ideale . Sei 0 6= Beweis. Die Menge gruppe von Solche m 2 I (normiert) von minimalem Grad. Dann gilt für ein beliebiges h 2 I , dass h = tm + r mit Restpolynom r, also r = h tm 2 I . Somit ist r = 0, da m von minimalem Grad war, und I = K [x]m. Damit teilt m beide Polynome p; q 2 I , d.h. mjg = ggT(p; q ) (normiert). Umgekehrt ist jedes Polynom in I ein Vielfaches von g , auch m, und es folgt m = g . Man erhält I = K [x]g und rp + sq = g für geeignete r; s 2 K [x], wie gewünscht. Division mit Rest kann man iterieren und erhält den sog. Euklidischen Algorithmus, mit dem man insbesondere den gröÿten gemeinsamen Teiler sowohl von ganzen Zahlen, als auch von Polynomen über Körpern berechnen kann. Satz 8.1.6. (Euklidischer Algorithmus) Seien p; q 2 K [x] mit q 6= 0 und q - p. Der letzte Rest rm ungleich 0 des Euklidischen Algorithmus für p; q ist der gröÿte gemeinsame Teiler ggT(p; q ) von p und q . Rekursives Zurückrechnen im Euklidischen Algorithmus liefert eine Darstellung des gröÿten gemeinsamen Teilers von p und q , d.h. ggT(p; q ) = rm = rp + sq mit geeigneten r; s 2 K [x]. 118 LINEARE ALGEBRA Euklidischer Algorithmus: p q r1 = = = s1 q + r1 ; s2 r1 + r2 ; s3 r2 + r3 ; .. . rm rm rm sm 1 rm 2 + rm 1 ; sm rm 1 + rm ; 2 sm+1 rm ; 1 wobei entweder q jp und r1 = 0, oder ri 6= 0 für alle i = 1; : : : ; m und grad q > grad r1 > > grad rm 0: 3 = = = q - p nach endlich vielen Schritten mit rm wegen der strikten Abnahme der Grade der ri . DurchBeweis. Der Euklidische Algorithmus endet für läuft man den Algorithmus von oben nach unten, dann teilt der gröÿte p und q auch r1 und schlieÿlich alle r2 ; : : : ; rm . Durchläuft man den Algorithmus von unten nach oben, dann teilt rm erst rm 1 und schlieÿlich alle rm 2 ; : : : ; r1 ; q; p. Folglich ist rm der gröÿte gemeinsame Teiler von p; q . Weiter ist rm erst eine Kombination von rm 1 und rm 2 . Setzt man den darüber liegenden Ausdruck für rm 1 ein, dann ist rm eine Kombination von rm 2 und rm 3 , schlieÿlich ist rm eine Kombination von p und q . gemeinsame Teiler von Polynome von Endomorphismen und Minimalpolynom. Setzt man einen Endomorphismus eines K -Vektorraumes V in ein Polynom p 2 K [x] ein, dann ist p() wieder ein Endomorphismus von V , 8.2. ein sog. Polynomendomorphismus . Schon mit dem charakteristischen Polynom eines Endomorphismus hat sich abgezeichnet, dass wesentliche Eigenschaften von Endomorphismen mit Polynomen formuliert werden. Deshalb wird der Umgang mit Polynomen von Endomorphismen präzisiert. Lemma 8.2.1. Sei ein Endomorphismus des K -Vektorraumes V und seien p; q 2 K [x]. Dann gelten für die Polynomendomorphismen: (1) p()q () = pq (), insbesondere sind p(); q () vertauschbar. (2) Ein -invarianter Unterraum ist auch p()-invariant. (3) Im p() und ker p() sind -invariant. (4) Für eine direkte Zerlegung V = U1 Uk von V in invariante Unterräume Ui ist ker p() = U1 \ ker p() Uk \ ker p() : LINEARE ALGEBRA (5) (6) ker p() ker q (), falls p ein Teiler von q ist. ker p() \ ker q () = ker ggT(p; q )(). Insbesondere p() = q () = 0, dass ggT(p; q )() = 0. 119 folgt aus Beweis. (1) gilt laut Produktregel für Polynome. (2): Aus U U folgt ak U U und somit p()U U . p() = p() gilt z.B. p()(v ) = p()(v ) = 0 für v 2 ker p(). Also v 2 ker p() und ker p() ist -invariant. Analog beweist man die -Invarianz von Im p(). (3): Wegen p() = und V = U1 U2 zu zeigen. Denn aus erhält man alle Polynome in und per Induktion erhält man die Aussage für k > 2. Sowieso gilt ker (U1 \ ker ) (U2 \ ker ). Umgekehrt gilt für v = u1 + u2 2 ker mit u1 2 U1 und v2 2 U2 , dass 0 = v = u1 + u2 , wobei u1 2 U1 und v2 2 U2 . Die Darstellung v = u1 + u2 ist eindeutig weil die Summe der Ui direkt ist, also u1 = 0 und u2 = 0, d.h. u1 2 U1 \ ker und u2 2 U2 \ ker . Damit (4): Es genügt die Aussage für folgt die behauptete Gleichung. rp = q , folgt aus p()(v ) = 0 sofort q ()(v ) = 0. (6): Nach (5) gilt die Inklusion ker p() \ ker q () ker g (), falls g = ggT(p; q ) der gröÿte gemeinsame Teiler von p und q ist. Nach Bézout existieren r; s 2 K [x] mit g = rp + sq . Also folgt umgekehrt aus p()v = 0 und q ()v = 0 auch g ()v = 0. (5): Wegen Für jeden Endomorphismus eines endlich dimensionalen Vektorraumes gibt es annullierende Polynome, vgl. Satz 6.1.4. Satz 8.2.2. Sei ein Endomorphismus eines endlich dimensionalen K -Vektorraumes V . Für jeden Unterraum U V existiert genau ein normiertes, annullierendes Polynom m = m;U 2 K [x] minimalen Grades, d.h. m()(U ) = 0, und m teilt jedes andere solche annullierende Polynom. Ist (u1 ; : : : ; uk ) ein Erzeugendensystem von U , dann ist m = m;U = kgV(m;ui j i). Beweis. Nach Satz 6.1.4 existiert ein solches annullierendes Polynom minimalen Grades. Für ein weiteres annullierendes Polynom p p = qm + r mit r = 0 oder grad r < grad m, nach Division mit r()(U ) = (p qm)()(U ) = p()(U ) + qm()(U ) = 0, r = 0, und m teilt p. Zwei normierte, annullierende Polynome dann Rest. Wegen ist m gilt minimalen Grades teilen sich gegenseitig und sind deshalb gleich. 120 LINEARE ALGEBRA Das kleinste gemeinsame Vielfache von m;u1 und m;u2 annulliert hu ; u i und ist diesbezüglich von minimalem Grad. Also folgt induktiv 1 2 die Behauptung. Denition. Für U = hv i -Annullator von U . sagt man -Annullator von v . Ist U = V der ganze Vektorraum, dann heiÿt m = m das Minimalpolynom von . Insbesondere ist für V = U + W , dargestellt als Summe von Unterräumen, das Minimalpolynom von gleich dem kleinsten gemeinsamen Vielfachen der -Annullatoren der Summanden U und W . Man betrachtet Das Polynom m = m;U heiÿt quadratische Matrizen als Endomorphismen des arithmetischen Vektorraumes und spricht deshalb gleichfalls von annullierenden Polynomen . mA einer Matrix A 2 M(n; K ) als kleinstes gemeinsames Vielfaches z.B. der -Annullatoren der Einheitsvektoren e1 ; : : : ; en . Transponierte quadratische Matrizen T T haben gleiche Minimalpolynome, da m(A ) = m(A) = 0. Ähnliche Matrizen haben gleiche Minimalpolynome. Denn aus p(A)(v ) = 0, 1 für alle v , folgt p(SAS )(Sv ) = Sp(A)S 1 (Sv ) = Sp(A)(v ) = 0, und Sv durchläuft mit v den gesamten Vektorraum, da S invertierbar Laut Satz 8.2.2 erhält man das Minimalpolynom ist. Satz 8.2.3. ein Endomorphismus des endlich dimensionalen K mit Minimalpolynom m 2 K [x]. Für einen echten d.h. 0 < grad p < grad m, ist U = (m=p)()V ein Unterraum mit 0 6= U ( V , und das Minimalpolynom Sei V m, Vektorraumes p von -invarianter von jU ist p. Teiler pr = m. Nach Lemma 8.2.1 ist U = r()V ein -invarianp()U = m()V = 0, und p ist das Minimalpolynom von jU . Es gilt 0 6= U ( V , weil p ein echter Teiler ist. Beweis. Sei ter Unterraum mit A gibt es Beziehungen zwischen den Minimalpolynomen A; AT , bzw. der inversen, A; A 1 . Proposition 8.2.4. Die quadratischen Matrizen A; AT haben dasselbe Minimalpolynom. Hat die invertierbare Matrix A das Minimalpolynom m(x) = xn + an 1 xn 1 + + a0 , dann ist a0 6= 0 und die Inverse A 1 Für Matrizen der transponierten, hat das Minimalpolynom m e (x) = xn + Insbesondere ist (8.3) A 1 = a1 n x a0 1 a0 An 1 1 ++ an 1 1 x+ a0 a0 an 1 n A a0 2 = xn 1 a0 m(x aa A aa E: 2 1 0 0 1 ): LINEARE ALGEBRA 121 m(AT ) = 0, und wegen m(A) sind die Minimalpolynome von A und AT gleich. Ist A invertierbar, dann erhält man durch Multiplikation von m(A) = 0 1 n 1+a n 2 + + a E = a A 1 , also mit A die Gleichung A n 1A 1 0 ist a0 6= 0, sonst wäre m nicht das Minimalpolynom von A. Darüber m(A) Beweis. Transposition von m(AT ) T = = 0 ergibt hinaus ist auch die Gleichung für die Inverse bewiesen. m e ergibt mit obiger Polynomidentität m e (A 1 ) = 0, und weil die zweimalige Anwendung der Operation m 7! m e wieder m 1 ergibt, ist m e das Minimalpolynom von A . Einsetzen von Bemerkung. A 1 in Auch mit dem charakteristischen Polynom, statt dem Minimalpolynom, erhält man für eine invertierbare Matrix die Darstellung (8.3) für die Inverse, mit gleichem Argument. 8.3. Zyklische Unterräume. Um Normalformen von Matrizen zu erhalten, sucht man für einen En- des endlichLdimensionalen Vektorraumes V eine feinste direkte Zerlegung V = Ui in -invariante Unterräume Ui . Eine darstellende Matrix von bzgl. einer Basis, die dieser Zerlegung folgt, domorphismus hat dann Blockdiagonalform, vgl. die Denition invarianter Unterräume. Eine typische Normalform einer Matrix ist die sog. Frobeniusmatrix . Denition. usmatrix oder Begleitmatrix zu wenn 0 0 0 B1 0 B Fp = B B0 B. @ .. 0 Die Frobeniusmatrix det(Ex 2 Fp M(n; K ) n p(x) = x + an 1 xn 1 + Eine quadratische Matrix Fp ) = p(x). Fp 1 .. . .. . ::: 0 0 + a 2 K [x], . .. 0 1 an an 0 1 a0 a1 . .. heiÿt Frobeni- 2 C C C C: C A 1 hat das charakteristische Polynom Fp (x) = Der nächste Satz gewährt einen Überblick über die kleinsten invarianten Unterräume, die einen vorgegebenen Vektor enthalten. Satz 8.3.1. Für einen Endomorphismus des endlich dimensionalen V , und v 2 V , ist U = hv; v; 2v; : : : i = fq ()(v ) j q 2 K [x]g Vektorraumes 122 LINEARE ALGEBRA der eindeutig bestimmte kleinste -invariante Unterraum, der v ent- -Annullator von v und das Minimalpolynom von jU sind p = xn + an 1 xn 1 + + a0 dieses Minimalpolynom, dann n 1 v ). Die hat U die Dimension n = grad p und die Basis (v; v; : : : ; darstellende Matrix von jU , bzgl. dieser Basis ist die Frobeniusmatrix Fp . Insbesondere sind für eine Frobeniusmatrix zum Polynom p das charakteristische und das Minimalpolynom gleich p. hält. Der gleich. Ist U der kleinste -invariante Unterraum von V , der v enthält. Die Elemente von U haben als Linearkombinationen von v; v; 2v; : : : die Form q ()(v ) mit q 2 K [x]. Sei n 2 N minimal Beweis. Oensichtlich ist bezüglich n v 2 v; v; 2v; : : : ; n 1 v ; mit der Darstellung n v = a0 v (8.4) a1 v an n v: 1 1 ; n 1 v ) ein Erzeugendensystem von U , und sogar linear unabhängig, d.h. eine Basis, da n minimal ist. n Aus der Darstellung (8.4) ergibt sich sofort das Polynom p(x) = x + n 1 an 1 x + + a0 als der -Annullator von v und als das Minimalpoi i lynom von jU , da p()( v ) = p()(v ) = 0. Die darstellende Matrix von jU bezüglich der gegebenen Basis gewinnt Also ist (v; v; 2 v; : : : man spaltenweise durch die Koezientenvektoren der Basisbilder, al- e2 ; : : : ; en , und die letzte Spalte liest man an (8.4) ab und erhält die Frobeniusmatrix Fp . Insbesondere sind dann das Minimalpolynom von Fp und das charakteristische Polynom gleich p. so der Reihe nach erst einmal die Einheitsvektoren Denition. Vektor v 2 V U Für einen Vektorraum V mit Endomorphismus und heiÿt der Unterraum = hv i = hv; v; 2v; : : : i = fq ()(v ) j q 2 K [x]g v erzeugte -zyklische Unterraum , und v heiÿt ein erzeugendes Element des -zyklischen Unterraumes U . Mit dem -Annullator p von U gilt dim U = grad p, nach Satz 8.3.1. Ist V = hv i , dann heiÿt V ein -zyklischer Vektorraum. der von Die Existenz zyklischer Unterräume ist nach Satz 8.3.1 gesichert. Von Interesse sind die -invarianten Unterräume -zyklischer Vektorräume und ihre Dimensionen. LINEARE ALGEBRA 123 Satz 8.3.2. Die -invarianten Unterräume -zyklischer Vektorräume sind -zyklisch. Ein -zyklischer Vektorraum V = hv i mit m als Minimalpolynom von hat als -invariante Unterräume genau die paarweise verschiedenen (-zyklischen) Unterräume ker h() = h(m=h)()(v )i für alle Teiler h von m. Es gilt dim ker h() = grad h. Beweis. Sei U ein kleinsten Grades -invarianter Unterraum von V , sei p das Polynom mit p()(v ) 2 U und sei q ()(v ) 2 U ein weiteres U . Dann gibt es, wegen Division mit Rest, vgl. Satz 8.1.2, Polynome s; r mit q = sp + r , wobei entweder r = 0 oder grad r < grad p. Also q ()(v ) s()p() (v ) = r()(v ) 2 U , und r = 0, nach Wahl von p. Somit ist U = fs() p()(v ) j s 2 K [x]g = hp()(v )i ein -zyklischer Unterraum. Der -Annullator h des Unterraumes U = hp()(v )i teilt m, und m U ker h() = h ()(v )i: h Wegen (hp)()(v ) = 0, teilt m das Produkt hp, also ist m=h ein Teiler von p, d.h. es gibt ein Polynom r mit p = (m=h)r derart, dass r und h teilerfremd sind, nach Denition von h. Nach dem Satz von Bézout, Satz 8.1.5, gibt es dann Polynome s; t mit sr + th = 1. Somit ist m m m ()(v ) = ()(v ) (tm)()(v ) = sr ()(v ) = (sp)()(v ) 2 U; h h h und folglich U = ker h(). Damit sind alle -invarianten Unterräume von V durch die Teiler h des Minimalpolynoms m von in der Form ker h() gegeben. Weiter sind diese Kerne wegen Lemma 8.2.1 (6) paarweise verschieden und dimh(m=h)()(v )i = grad h. Element in Unzerlegbare Unterräume und Frobenius Normalform. Denition. Ein Vektorraum V mit Endomorphismus heiÿt unzerlegbar , wenn er keine direkte Summe -invarianter Unterräume ist. In diesem Sinne spricht man auch von einem -unzerlegbaren, 8.4. invarianten Unterraum. V , mit einem in -unzerleg- Oensichtlich hat jeder endlich dimensionale Vektorraum Endomorphismus , direkte Zerlegungen bare Unterräume, es sei denn gezeigt, dass lynom von V V V Ln = i=1 Ui ist unzerlegbar. Im nächsten Satz wird eine echte solche Zerlegung hat, wenn das Minimalpo- keine Primpotenz ist. Die Umkehrung gilt nicht. 124 LINEARE ALGEBRA Satz 8.4.1. Ist m = pq eine teilerfremde Zerlegung des Minimalpoly- noms des Endomorphismus V , dann gelten: (1) U = ker p() = eines endlich dimensionalen Vektorrau- mes Im q () und W = ker q () = Im p() sind - invariante Unterräume. V = U W. (3) p ist das Minimalpolynom von jU und q ist das Minimalpolynom von jW . k k Ist insbesondere m = p11 pt t eine Primfaktorzerlegung des Minimal(2) polynoms, dann ist V = ker pk11 () ker pkt t () eine direkte Zerlegung von Die Einschränkung von ki . Minimalpolynom pi V auf W = Im p() sind nach Lemma 8.2.1 -invariant und oensichtlich ist U ker p() und W ker q (). Wieder nach Lemma 8.2.1 ist U \ W ker p() \ ker q () ker ggT(p; q )() = ker id = 0; weil p und q teilerfremd sind, d.h. V ker p() ker q () U W . Beweis. Die Unterräume U -invarianten Unterräume ker pki i (). ker pki i () ist ein Endomorphismus mit in die = Im q () und Es genügt also (2) zu beweisen, auch für (1). Nach Bézout, Satz 8.1.5, r; s 2 K [x] mit 1 = rp + sq , also v = id v = r() p()(v ) + s() q ()(v ) 2 W U; also V = U W . (3): Das Minimalpolynom von jU teilt p und das Minimalpolynom von jW teilt q . Also teilt das Minimalpolynom von U W das kleinste gemeinsame Vielfache pq von p und q . Wegen V = U W sind deshalb die Minimalpolynome von jU und jW gleich p bzw. q . Der Zusatz existieren folgt induktiv. Nach Satz 8.4.1 muss das Minimalpolynom von eines -unzerlegbaren Vektorraumes eine Primpotenz sein. Mit der Umkehrung dieser Frage beschäftigt sich der nächste Satz. Satz 8.4.2. Sei ein Endomorphismus des endlich dimensionalen Vekk torraumes V mit einer Primpotenz p als Minimalpolynom. Dann exik stiert ein -zyklischer Unterraum U der Dimension dim U = grad p , k und das Minimalpolynom der Restriktion jU von ist p . Weiter existiert für jeden solchen -zyklischen Unterraum U ein -invariantes Komplement W , d.h. V = U W . LINEARE ALGEBRA Beweis. Es gibt ein u mit dim U = k grad p < dim V . -Annullator pk . 125 Sei U = hui ( V , d.h. Zuerst wird gezeigt, dass in dieser Situati- on immer ein nicht triviales maximales -invariantes Komplement W U \ W = 0 mit W 6= 0. k Es gibt ein v 2 V n U mit p()v 2 U , da p ()v = 0 2 U , und k 1 (). oensichtlich p()v 2 U \ ker p k 1 () = p()U , denn sowieso ist die rechte Seite Es gilt U \ ker p in der linken enthalten. Sei nun y = q ()u ein Element der linken Seite, dargestellt als Linearkombination der Basis von U , vgl. k 1 () ist (pk 1 q )()u = 0, also teilt Satz 8.3.1. Wegen y 2 ker p k k 1 q , somit ist q = rp und der -Annullator p , von u das Polynom p y = r()[p()u] 2 p()U , wie gewünscht. 0 0 Das obige Argument belegt, dass es ein u 2 U gibt mit p()u = p()v . 0 0 Weiter wird gezeigt, dass hv u i \ U = 0. Es gilt: p()(v u ) = 0. Sei 0 6= q ()(v u0 ) 2 hv ui \ U als allgemeines Element angenommen, d.h. p 6 j q , dann existieren nach Bézout r; s 2 K [x] mit rp + sq = 1. existiert, d.h. Also folgt der Widerspruch u0 = r() p()(v u0 ) + s() q ()(v u0 ) 2 U: Wegen 0 6= v u0 , ist W = hv u0 i ein nicht trivialer -invarianter Unterraum, mit U \ W = 0. V; U; erfüllen alle Voraussetzungen der Behauptung und W 6= 0 sei ein maximales -invariantes Komplement von U = hui , d.h. U W V . Sei V von minimaler Dimension bzgl. der Eigenschaft U W 6= V . Sei der von auf V = V=W induzierte Endomorphismus, d.h. (v + W ) = (v ) + W , dann ist U = U=W = hu + W i ein -zyklischer Unterraum mit dim U = dim (U W )=W = dim U , vgl. Satz 3.6.10. k Also sind die Minimalpolynome von und von jU beide gleich p . Damit sind alle Voraussetzungen des Satzes für V erfüllt, und da dim V < dim V , gibt es für U ein -invariantes Komplement W , d.h. V = U W , wobei W = H=W und W = (U W ) \ H = (U \ H ) W , vgl. Satz 3.6.9 und das Dedekindsche Modulargesetz. Folglich ist U \ H = 0, und laut Denition von ist H sogar -invariant. Wegen W ( H liegt ein Widerspruch zur Maximalität von W vor. v -unzerlegbare Vektorräume samt sind -unzerlegbare Vektorräume - Das nächste Korollar charakterisiert ihrer Unterräume. Insbesondere zyklisch. Die Umkehrung gilt nicht. Korollar 8.4.3. len Vektorraumes Sei V ein Endomorphismus des endlich dimensiona- mit Minimalpolynom m. Der Vektorraum V ist 126 LINEARE ALGEBRA -unzerlegbar, wenn m = pk eine Primpotenz ist und dim V = grad m. In diesem Fall sind die Kerne ker pi () paarweise verschieden und die einzigen -invarianten Unterräume, d.h. sie bilgenau dann den eine Kette: 0 ( ker p() ( ker p2 () ( ( ker pk 1 () ( V: -unzerlegbaren m = pk und dim V = grad m. Ist umgekehrt m = pk und dim V = grad m, dann ist V nach Satz 8.4.2 ein -zyklischer Vektorraum und eine angenommene direkte Zerlegung in -invariante Unterk 1 ()V = 0. räume führte nach Satz 8.3.2 zum Widerspruch p Beweis. Nach den Sätzen 8.4.1 und 8.4.2 ist für einen Vektorraum Nach Satz 8.3.2 gibt es nur die angegebenen paarweise verschiedenen -invarianten Unterräume und sie bilden oensichtlich eine Kette. Denition. Ein Vektorraum V mit Endomorphismus heiÿt - 6= 0 enthält. Also ist V genau dann -irreduzibel, wenn V = hv i für alle 0 = 6 v 2 V , denn -zyklische Unterräume gibt es immer. Ein -irreduzibler irreduzibel , wenn er keinen echten -invarianten Unterraum -unzerlegbar und -zyklisch. Wenn V endlich , nach Satz 8.2.3, ein irreduzibles Minimalpolynom p, d.h. dim V = grad p. Bemerkung. Für einen endlich dimensionalen Vektorraum V mit Endomorphismus existieren immer feinste direkte Zerlegungen V = Ln i=1 Ui in -unzerlegbare Unterräume Ui . Wenn m das Minimalpolynom von ist, dann haben die Restriktionen jUi nach Korollar 8.4.3 k k Primpotenzen p als Minimalpolynome, wobei p ein Teiler von m ist. Weil das Minimalpolynom m das kleinste gemeinsame Vielfache der Minimalpolynome aller Restriktionen jUi ist, gibt es zu jedem maximalen k Primpotenzteiler p von m mindestens ein i, so dass das Minimalpolyk nom der Restriktion jUi gleich p ist. k Sei p ein Primteiler von m, und sei p die maximale Potenz von p, die m teilt. Dann ist der p-Kern von , d.h. die Teilsumme Vp = L fUi j pk ()Ui = 0g der Unterräume Ui mit p-Potenzen als zugehök rigen Minimalpolynomen, genau der Kern ker p (), also elementweise und damit eindeutig bestimmt. Die unzerlegbaren Unterräume Ui in der Zerlegung des p-Kerns Vp sind dagegen nicht eindeutig, d.h. nicht Vektorraum ist somit dimensional ist, dann hat elementweise festgelegt. Der nächste Satz zeigt, dass jedenfalls die Dimensionen der im p-Kern auftretenden Ui eindeutig sind. Um eine feinste Zerlegung eines endlich dimensionalen Vektorraumes mit Endomorphismus zerlegt man V in -invariante V Unterräume zu bestimmen, gemäÿ Satz 8.4.1 grob in die p-Kerne von , also L = p Vp LINEARE ALGEBRA 127 Vp = ker pkp (), gemäÿ der Primfaktorzerlegung des Q k Minimalpolynoms m = p p . Das Minimalpolynom von jVp ist pkp . V mit Unter Verwendung von Satz 8.4.2 erhält man dann eine feinste Zerle- -unzerlegbare Unterräume, indem man die p-Kerne Vp weiter zerlegt, und zwar durch sukzessive Abspaltung -zyklischer Unterräugung in me mit jeweils maximalem Annullator. Das Thema des nächsten Satzes ist die Frage nach gemeinsamen Eigenschaften verschiedener feinster Zerlegungen der p-Kerne. Satz 8.4.4. Sei ein Endomorphismus des endlich dimensionalen Vekk torraumes V mit einer Primpotenz p als Minimalpolynom. Dann hat V = U1 Un eine direkte Zerlegung in -unzerlegbare Unk terräume Ui derart, dass die Restriktion jUi das Minimalpolynom p i hat mit ki k . Dabei ist mindestens ein ki gleich k . Die Dimension k von Ui ist dim Ui = grad p i . Darüber hinaus sind die Dimensionen der Ui eindeutig bis auf Reihenfolge. Beweis. Die Dimension von V ist endlich, also gibt es eine solche di- rekte Zerlegung nach Korollar 8.4.3. Das Minimalpolynom von das kleinste gemeinsame Vielfache der pki , also ist mindestens ein ist ki k, vgl. auch die voran gegangene Bemerkung. Sei o.B.d.A. k1 k2 : : : kn 1. Zu zeigen ist die Eindeutigkeit der Dimensionen ki bis auf Reihenfolge. t Sei 0 t k . Dann ist p ()Ui zyklisch, wie auch Ui , d.h. nach t Satz 8.3.1 ist dim p ()Ui = (ki t) grad p falls t < ki und sonst 0. gleich k = Also ist dim pt ()V = n X i=1 dim pt ()Ui = (grad p) Dann aber ist die Folge der der ki X ki >t (k i t): eindeutig bestimmt, weil die Anzahl ki > t für jedes t festgelegt ist. Der nächste Satz heiÿt Normalformensatz . Die Übersetzung der bisherigen Sätze über Endomorphismen auf deren darstellende Matrizen ergibt die Normalformen von Matrizen. Satz 8.4.5. A eineQquadratische Matrix Minimalpolynom m = pkp in Primfaktor- (Frobenius Normalform) Sei über dem Körper K zerlegung. Dann ist mit A ähnlich zu einer Blockdiagonalmatrix, der sog. Frobenius Normalform oder der allgemeinen Normalform, A ist ähnlich zu diag (A1 ; : : : ; As ); 128 LINEARE ALGEBRA A wobei die Diagonalblöcke i Frobeniusmatrizen sind zu Polynomen der ki mit Form i p . Die Normalform ist bis auf die Reihenfolge der kp gibt es Diagonalblöcke eindeutig. Für jede maximale Primpotenz p k k mindestens eine Frobeniusmatrix p Ai . Beweis. Die bisherigen Sätze über die Zerlegung eines Vektorraumes mit Endomorphismus in -unzerlegbare Unterräume lassen sich auf die darstellenden Matrizen übertragen. Einer direkten Zerlegung des Vektorraumes in invariante Teilräume entspricht bei einer Basiswahl, die dieser Zerlegung folgt, eine Blockdiagonalform der darstellenden Matrizen, d.h. die darstellende Matrix A ähnlich zu einer Blockdiagonalmatrix. Die einzelnen Diagonalblöcke des Endomorphismus ist sind die darstellenden Matrizen von Endomorphismen bzgl. derer die zugehörigen Teilräume unzerlegbar, also zyklisch, sind. Folglich erhält man wie in Satz 8.3.1 für diese Diagonalblöcke Frobeniusmatrizen bzgl. geeigneter Basen. Der folgende Satz von Cayley-Hamilton besagt, dass eine Matrix von ihrem charakteristischen Polynom annulliert wird. Das folgt sofort aus dem Normalformensatz, weil ähnliche Matrizen sowohl gleiche charakteristische, als auch gleiche Minimalpolynome besitzen, und weil das charakteristische Polynom einer Blockdiagonalmatrix das Produkt der charakteristischen Polynome der Frobeniusblöcke ist, und das Minimalpolynom ist das kleinste gemeinsame Vielfache der Minimalpolynome dieser Blöcke. Natürlich verwendet man noch, dass für Frobeniusmatrizen das charakteristische Polynom gleich dem Minimalpolynom ist. Es gibt allerdings auch noch einen direkten und kürzeren Beweis des Satzes von Cayley-Hamilton. Der Zusatz über die gleichen Primfaktoren wird allerdings nur über die Normalform erhalten. Satz 8.4.6. (Cayley-Hamilton) Das charakteristische Polynom des En- domorphismus annulliert , d.h. Polynom der quadratischen Matrix () = 0. Das charakteristische A annulliert A, d.h. A (A) = 0. Insbesondere ist das charakteristische Polynom ein Vielfaches des Minimalpolynoms. Das charakteristische und das Minimalpolynom einer Matrix haben dieselben Primfaktoren. A eine quadratische Matrix mit charakteristischem PolyA (x) und sei v 6= 0 ein Spaltenvektor. Es genügt zu zeigen, dass A (A)v = 0. Sei der Endomorphismus des arithmetischen Vektorraumes mit darstellender Matrix A, bzgl. der kanonischen Basis. Sei 2 k 1 v; w ; w ; : : : ), woeine neue Basis gegeben durch (v; Av; A v; : : : ; A 1 2 k k 1 + + a der -Annullator von v ist, vgl. bei m(x) = x + ak 1 x 0 Beweis. Sei nom LINEARE ALGEBRA 129 Satz 8.3.1. Man beachte, dass der Koordinatenvektor von neuen Basis der Einheitsvektor e1 ist. v bzgl. der Dann hat der Endomorphismus bzgl. der neuen Basis die folgende Blockdreiecksmatrix als darstellende Matrix A 0 = Fm 0 ; B Fm zum Polynom m(x), d.h. m(Fm )v = 0. Wegen 0 A (x) = A (x) = Fm (x)B (x) = m(x)B (x), folgt A (A)v = 0. mit Frobeniusmatrix 8.5. Jordan Normalform und Anwendungen. Genau dann, wenn das Minimalpolynom einer Matrix in Linearfaktoren zerfällt, also z.B. für komplexe Matrizen, gibt es eine einfachere Normalform, die sog. Jordan Normalform . Denition. Eine quadratische Matrix matrix zum Eigenwert c 2 K , wenn 0 c 0 B1 c B Jn;c = B B0 1 B. @ .. .. .. Jn;c 2 M(n; K ) heiÿt Jordan- ::: . 1 0 C C .. C .C C 0A : . c ::: 1 c Der Eigenraum der Jordanmatrix J = Jn;c zum Eigenwert c ist Ken , also eindimensional, mit dem Einheitsvektor en als Eigenvektor. Das charakteristische Polynom von J ist J (x) = det(Ex J ) = (x c)n , und es ist gleich dem Minimalpolynom, da der Einheitsvektor e1 von keiner kleineren Potenz von x c annulliert wird. Eine Jordanman = 0, und n ist trix J = Jn;0 zum Eigenwert 0 ist nilpotent , d.h. J 0 diesbezüglich minimal. Übrigens ist jede untere bzw. obere Dreiecksmatrix mit 0-Diagonale nilpotent, vgl. die Bemerkung im Anschluss an Satz 4.3.4. Der nächste Satz ist eine Spezialisierung des Normalformensatzes für Endomorphismen, deren Minimalpolynom bzw. charakteristisches Polynom in Linearfaktoren zerfällt. Insbesondere ergibt sich hiermit auch eine brauchbare Charakterisierung der Diagonalisierbarkeit einer Matrix, vgl. auch Satz 6.2.2. Satz 8.5.1. (Jordan Normalform) Sei A eine quadratische Matrix über Q K mit Minimalpolynom m = c(x c)kc , das in Linearfaktoren zerfällt, d.h. die Eigenwerte c sind paarweise verschieden. Dann dem Körper 130 ist LINEARE ALGEBRA A ähnlich zu einer Blockdiagonalmatrix, der sog. Jordan Normal- form, A wobei die Diagonalblöcke Minimalpolynomen diag (A1 ; : : : ist ähnlich zu (x ; As ); Ai Jordanmatrizen sind zu Eigenwerten c mit c)ki mit ki kc . Die Normalform ist bis auf die Reihenfolge der Diagonalblöcke eindeutig. Für jede maximale Potenz ( )kc gibt es mindestens eine Jordanmatrix . Insbesondere x c Ai haben das charakteristische und das Minimalpolynom von A dieselben Nullstellen. Eine Matrix hat genau dann eine Jordan Normalform, wenn ihr Minimalpolynom (also auch ihr charakteristisches Polynom) in Linearfaktoren zerfällt, und sie ist genau dann diagonalisierbar, wenn ihr Minimalpolynom in lauter paarweise verschiedene Linearfaktoren zerfällt. Beweis. Der Satz folgt aus Satz 8.4.5, wenn gezeigt ist, dass eine Frobeniusmatrix zum Polynom c)r (x ähnlich ist zur Jordanmatrix Jr;c. Die allgemeine Normalform mit einer Frobeniusmatrix gewinnt man (v; v; : : : ; r ) des -zyklischen VekV = hv i. Stattdessen nimmt man die Basis (v; ( c)v; ( c)2 v; : : : ; ( c)r 1 v ). Diese Vektoren sind tatsächlich linear unabhänlaut Satz 8.3.1 bzgl. der Basis 1 torraumes gig und damit eine Basis. Denn die Annahme der linearen Abhängigkeit, d.h. Pr 1 i=0 ai ( bzw. Minimalpolynom c)i v = 0, führte zu einem -Annulator von v von mit zu kleinem Grad. Man berechnet die Bilder der Basisvektoren der neuen Basis als Linearkombinationen bzgl. der neuen Basis, indem man die, durch die Frobeniusmatrix gegebenen, Bilder von fv; v; : : : ; r vg verwendet. 1 beider Basen den Koordinatenvektor r e1 = [r e1 ( c)e1 ( c)r 1 e1 ( = = . . . = c)r ]e1 (= er ). v bzgl. e1 = er und Genauer hat e1 , e1 = e2 ; : : : ; r 1 Es ergibt sich e2 = ce1 + 1( c)e1 ; (c c2 + 2 2c + c2 )e1 = c( c)e1 + 1( c)2 e1 ; c( c)r 1 e1 + ( c)r e1 = c( c)r 1 e1 : Damit ist die darstellende Matrix von bzgl. der neuen Basis spaltenJr;c. weise gegeben, es ist die Jordanmatrix Eine Matrix ist genau dann diagonalisierbar, wenn alle Jordanblöcke 11 Matrizen sind, also genau dann, wenn das Minimalpolynom in paarweise verschiedene Linearfaktoren zerfällt. LINEARE ALGEBRA 131 Bemerkung. (1) Auch zusammen legen das charakteristische Polynom und das Minimalpolynom nicht die Normalform fest. Kleinste Gegenbeispiele sind die beiden B = diag (J2;0 ; 0). 44 Matrizen A = diag (J2;0 ; J2;0 ) und Manchmal kann man allerdings bei Kenntnis des charakteristischen und des Minimalpolynoms auf die exakte Normalform schlieÿen. q (x) = x 2 x + tionale Matrix (2) A 1 Seien z.B. p(x) = x3 + x 1 rationale (irreduzible) Polynome. und Die ra- 2 M(10; Q ) mit charakteristischem Polynom A (x) = p2 q 2 und Minimalpolynom mA (x) = pq hat die Normalform diag (Fp ; Fp ; Fq ; Fq ). Die Menge M(n; K ) der quadratischen n-reihigen Matrizen über dem Körper K zerfällt genau dann in nur endlich viele Ähnlichkeitsklassen, wenn K endlich ist, denn genau dann gibt es nur endlich viele Normalformen. (3) Die Anzahl der Jordanblöcke zum Eigenwert c einer Matrix, de- ren Minimalpolynom in Linearfaktoren zerfällt, ist gleich der Dimension des Eigenraumes zum Eigenwert c. (4) Minimalpolynom und charakteristisches Polynom einer nilpotenten Matrix sind Monome, d.h. 6 te Matrizen (= 0) xk . Insbesondere haben nilpoten- eine Jordan Normalform mit lauter Jordan- blöcken zum Eigenwert 0, und sie sind nicht diagonalisierbar. A, d.h. A2 = A, ist ähnlich zu einer Diagonalmatrix diag (1; : : : ; 1; 0; : : : ; 0), denn A wird annulliert vom Polynom x(x 1), das eine Zerlegung in (5) Eine Projektion bzw. idempotente Matrix paarweise verschiedene Linearfaktoren hat. Die Eigenwerte sind oensichtlich 0 ; 1. Die Anzahlen der 0en und 1en ist gleich der geometrischen Vielfachheit, d.h. der Dimensionen der Eigenräume, der Eigenwerte 0; 1. Das Bild unter der Matrix Eigenraum des Eigenwertes 1, also ist der Rang von A ist der A gleich der geometrischen Vielfachheit. (6) Eine reelle quadratische Matrix mit ungerader Zeilenzahl, z.B. 3, hat immer einen Eigenvektor, weil ein reelles Polynom ungeraden Grades immer eine reelle Nullstelle hat. (7) Ein irreduzibles reelles Polynom ist entweder linear oder quadratisch, weil (x a)(x a) 2 R [x]. Es gibt über Q und auch über jedem endlichen Körper zu jedem Grad irreduzible Polynome. (8) Die reelle Normalform reeller normaler Matrizen ist eine Blockdiagonalmatrix, u.A. mit Frobenius Normalform 0 1 22 Diagonalblöcken (a2 + b2 ) 2a a b b a , d.h. . Reelle Matrizen haben 132 LINEARE ALGEBRA i.A. keine Jordan Normalform. Die Frobenius Normalform einer reellen Matrix hat i.A. nicht nur 22 Diagonalblöcke. q gibt es eine Matrix, die q als Minimalpoly2 nom hat, z.B. die Frobeniusmatrix Fq . Aber das Polynom x + 1 (9) Zu jedem Polynom ist z.B. niemals das Minimalpolynom einer reellen vgl. (6). (10) Eine Frobeniusmatrix Normalform, wenn q Fq zum Polynom = pk q 33 Matrix, ist genau dann eine eine Primpotenz ist, weil Fq nicht ähnlich zu einer echten Blockdiagonalmatrix sein kann, deren Minimalpolynom kleineren Grad als q hätte. (11) Transponierte quadratische Matrizen sind ähnlich, d.h. A und AT S eine invertierA in Normalform M überführt, haben dieselbe Frobenius Normalform. Denn sei bare Matrix, welche die Matrix also M = SAS 1 . Wegen M T = (SAS 1 )T = (S T ) 1 AT S T ; genügt es die Normalformen für die Transponierten der unzer- Fq , mit einer Primpotenz q = pk als T Minimalpolynom, zu bestimmen. Weil Fq dasselbe charakteriT stische und Minimalpolynom wie Fq hat, ist Fq ähnlich zu Fq legbaren Frobeniusmatrizen nach dem Normalformensatz, Satz 8.4.5. A 2 M(n; K ) ähnlich zur Jordanmatrix J = cE + N , d.h. N n = 0. Dann ist, mit k k Verwendung der binomischen Formel, A ähnlich zu c E + N . (12) Sei die Matrix N mit der nilpotenten Matrix Es soll hier nur erwähnt werden, dass es kanonische Verfahren gibt, um die Normalformen auch von groÿen Matrizen zu berechnen. Es gibt weiter auch kanonische Verfahren, um Basistransformationsmatrizen S zu bestimmen, die per Ähnlichkeitstransformation eine quadratische Matrix A in ihre Normalform SAS 1 umformen. Für reelle symmetri- sche Matrizen ist die Bestimmung von S wesentlich einfacher und als Hauptachsentransformation behandelt worden. LINEARE ALGEBRA 133 Literatur [1] I. S. Du, A. M. Erisman, and J. K. Reid, Direct Methods for Sparse Matrices, Clarendon Press, Oxford, UK, 1986. [2] W. H. Greub, Linear Algebra, Springer-Verlag, Heidelberg New York, 1967. [3] N. Jacobson, Basic Algebra I, W. H. Freeman and Company, Yale (1974). [4] G. M. Michler, H.-J. Kowalsky, Lineare Algebra, de Gruyter Verlag, Berlin (1991). [5] P. R. Halmos, Naive Mengenlehre, Vandenhoeck & Ruprecht, Göttingen (1968). Index Z2 , 18 C -Basis, 87 C -linear, 88 R-Basis, 87 R-linear, 88 ausgeartete Multilinearform, 60 Aussage, 3 Austauschsatz von Steinitz, 29 Auswahlaxiom, 27 Automorphismus, 35, 41, 45 Axiom, 14, 17, 19, 27 , Inklusion mit Gleichheit, 4 Ähnlichkeitsklassen, 131 Äquivalenz, 3, 44 Äquivalenzklasse, 8, 44 Äquivalenzrelation, 8 ähnliche Matrizen, 44 äquivalente Matrizen, 44 überabzählbar unendlich, 11 1-Gruppe, 17 10-adische Entwicklung, 12 Abbildung, 9 Abbildungsraum, 45 abelsch, 14 abzählbar, 11 Additionstafel, 18 additive abelsche Gruppe, 16, 17, 19 adjungierte Abbildung, 96 adjungierte Matrix, 85 Adjunkte, 67 aner Raum, 48 algebraisch abgeschl. Körper, 78 algebraische Struktur, 14, 17 algebraische Vielfachheit, 78 algorithmische Gröÿe, 53 allgemeine lineare Gruppe, 40, 53 alternierende Multilinearform, 59 Analysis, 21 angeordneter Körper, 83 Annullator, 120 annullierendes Polynom, 77, 128 antihermitesche Matrix, 85 Antinomie, 4 antiselbstadjungiert, 97 Antisymmetrie von Relationen, 7 antisymmetrische Bilinearform, 83 antisymmetrische Matrix, 84, 85 antisymmetrisches Polynom, 73 arithmetischer Vektorraum, 20 arithmetisches Mittel, 12 assoziativ, 35 Assoziativgesetz, 14 Bézout, 117 Basis, 24, 25 Basisdarstellung, 24, 25, 29 Basisergänzungssatz, 27 Basistransformation, 41 Begleitmatrix, 121 Bernstein, 11 Betrag, 84, 85 Betrag einer komplexen Zahl, 7 bijektiv, 9 Bild, 9, 36 Bildbereich, 9 Bilinearform, 59, 82 binomische Formel, 132 Blockdiagonalmatrix, 100 Blockdreiecksmatrix, 69, 100 Cantor, 11 Cantorsches Diagonalverfahren, 11 Cayley, 128 charakteristisches Polynom, 75 Cosinussatz, 90 Cramersche Regel, 70 134 dünn besetzte Matrix, 56 darstellende Matrix, 39, 83, 85 Darstellung eines Vektors, 21 Dedekindsches Modulargesetz, 23 Denitionsbereich, 9 Descartes, 6 Descartesche Zeichenregel, 111 Determinante, 62, 64 Determinantenmultiplikation, 63, 65 Dezimalbruchentwicklung, 12 Diagonaleintrag, 34 diagonalisierbar, 79, 108 diagonalisierbare Matrix, 129 Diagonalmatrix, 34 Dierenzmenge, 5 Dimension, 26 LINEARE ALGEBRA Dimensionssatz für Abbildungen, 37 Dimensionssatz für Unterräume, 30 direkte Summe, 28, 29 direkter Beweis, 12 Disjunktion, 3 Distributivgesetz, 5, 17, 23 Division mit Rest, 6, 7, 115, 117, 119 Drehachse, 107, 108 Drehebene, 107 Drehspiegelung, 107 Drehung, 106 Drehwinkel, 107 Dreiecksungleichung, 90 Dualbasis, 47 dualer Operator, 94 Dualität, 48 Dualraum, 46, 94 Durchschnitt, 4 Eigenraum, 74, 131 eigentlich orthogonal, 106 Eigenvektor, 73 Eigenvektorgleichung, 73, 74 Eigenwert, 73 Einbettung, 86 Einheitsmatrix, 32 Einheitsvektor, 24 Einschränkung einer Abbildung, 88 Eintrag, 6, 19, 32 elementar abelsche Gruppe, 17 elementare Matrix, 51 elementare Umformung, 51 elementarsymmetr. Polynom, 73 Ellipse, 108 endlich erzeugter Vektorraum, 23 endliche Körper, 18 Endomorphismenring, 45 Endomorphismus, 35 Entwicklungssatz von Laplace, 67 Epimorphismus, 35 Erzeugendensystem, 15, 2325, 53 erzeugendes Element, 16, 122 Erzeugnis, 15, 22, 112 Euklid, 13 Euklidischer Algorithmus, 117 euklidischer Raum, 84 Faktorraum, 48 Fallunterscheidung, 4 135 falsche Aussage, 3, 4 Fingerregel, 93 Format einer Matrix, 32 Fortsetzung einer Abbildung, 88 Frobenius Normalform, 127 Frobeniusmatrix, 121 Funktion, 9 Gödel, 27 Galois eld, 18, 24 ganzzahlige Inverse, 70 Gauÿ, Summenformel, 13 Gauÿalgorithmus, 53 Gauÿelimination, 54 Gegenbeispiel, 4 gemischte Assoziativität, 19 gemischte Distributivität, 19 geometrische Reihe, 55 geometrische Vielfachheit, 74 geometrisches Mittel, 12 gerade Permutation, 58 GF(2), 18, 24 GF(q), 18, 48 gleichmächtig, 11 Gleitkommazahl, 56 gröÿte gemeinsame Teiler, 7, 116 Grad eines Polynoms, 72 Gradsatz, 114 Gram-Schmidt, 92 Graph einer Funktion, 9 Gruppe, 14 Gruppenaxiome, 14 Gruppenerzeugnis, 15, 112 Gruppenisomorphismus, 46 Gruppentafel, 16, 18 Halbordnung, 9 Hamilton, 128 Hauptachsenform, 108 Hauptachsentransformation, 108, 132 Hauptdiagonale, 34 Hauptuntermatrizen, 110 hermitesche Form, 84 hermitesche Matrix, 85, 108 Hintereinanderausführung, 10, 35 homogenes Gleichungssystem, 50 Homomorphiesatz, 49 Homomorphismus, 35 136 LINEARE ALGEBRA Ideal eines Ringes, 117 idempotente Matrix, 131 imaginäre Einheit, 7 Imaginärteil, 7 Implikation, 3 indenite Matrix, 109 Index, 5 Indexmenge, 5 indirekter Beweis, 12 Induktionsbeweis, 13 induzierte Operation, 15, 21 induzierter Endomorphismus, 100 inhomogenes Gleichungssystem, 50 injektiv, 9 Inklusion, 3, 4 inneres Produkt, 84, 85 Invarianten eines Vektorraumes, 38 invarianter Unterraum, 100 inverse Matrix, 40 inverses Element, 14, 17 invertierbare Matrix, 40 irrationale Zahl, 7 irreduzible Zerlegung, 116 irreduzibler Vektorraum, 126 irreduzibles Polynom, 114, 131 isomorph, 31, 35 Isomorphismus, 35 Jordan Normalform, 129, 130, 132 Jordanmatrix, 76, 129 Körper, 17 Körperaxiome, 17 Kürzungsregel, 14 kanonischer Epimorphismus, 48 kartesische Darstellung, 7 kartesische Koordinaten, 6 kartesische Potenz, 19 kartesisches Produkt, 6 Kern, 36, 50, 126 Kette, 27 Klassen, 4 Kleinsche Vierergruppe, 17, 19 kleinste gem. Vielfache, 7, 116 Koezient, 19 Koezienten eines Polynoms, 72 Koezienten eines Vektors, 25 kommutativ, 14 kommutativer Körper, 17 Kommutativgesetz, 14 Komplement, 5 Komplement eines Unterraumes, 28 Komplementierungssatz, 28 komplettes Urbild, 8, 9 komplexe Erweiterung, 86 komplexe Fortsetzung, 88 komplexe Kongruenz, 85 komplexe Zahl, 7 komplexer Vektorraum, 19 komplexes Skalarprodukt, 85 Komposition, 10 kongruente Matrizen, 83 Kongruenzklassen von Matrizen, 83 konjugiert komplexe Nullstellen, 99 Konjunktion, 3 konstanter Koezient, 72 konstruktiver Beweis, 28 Kontraposition, 4 Konvergenzbegri, 21 Koordinate, 29 Koordinaten, 6, 25 Koordinatentupel, 25 Koordinatenvektor, 25, 30, 41 Kronecker, 32 Kroneckersymbol, 32, 91 Länge, 84, 85 längentreue Abbildung, 104 Lösungsvektor, 50 Laplace, 67 Lateinisches Quadrat, 16 leere Menge, 4, 5 Leitkoezient, 72 Lemma von Zorn, 27 linear abgeschlossen, 21 linear abhängig, 23 linear geordnete Menge, 9 linear unabhängig, 23, 25, 27 lineare Abbildung, 31, 35 lineare Gruppe, 45 lineare Operationen, 19 lineares Gleichungssystem, 50 lineares Polynom, 114 Linearfaktoren, 72 Linearform, 36, 47, 59 Linearkombination, 21 Logik, 3 Logikregeln, 4 LINEARE ALGEBRA 137 LU-Zerlegung, 56 Nullvektor, 19 Mächtigkeit einer Menge, 4 Mantisse einer Gleitkommazahl, 56 mathematisch positive Drehung, 105 Matrix, 32 Matrixeinheit, 32 Matrixeintrag, 32 Matrixring, 35 maximal, 27 Mengensystem, 5 Minimalpolynom, 120 Modul, 19 Modulargesetz, 23 Modulaxiome, 19 Monom, 30 Monomorphismus, 35 multilinear, 59 Multilinearform, 59 Multiplikationstafel, 18 multiplikative Gruppe, 17 obere Blockdreiecksmatrix, 56 obere Dreiecksmatrix, 54 obere Schranke, 27 Operation einer Gruppe, 58 Ordnung auf einer Menge, 9 Ordnungsrelation, 9 Orientierung, 93 orthogonal ähnliche Matrizen, 108 orthogonal diagonalisierbar, 108 Orthogonalbasis, 91 orthogonale Abbildung, 104, 108 orthogonale Gruppe, 106 orthogonale Matrix, 105 orthogonale Mengen, 94 orthogonale Projektion, 95 orthogonale Vektoren, 91 orthogonales Komplement, 47, 94 Orthogonalisierung, 92 Orthogonalsystem, 91 Orthonormalbasis, 91 Orthonormalsystem, 91 Orthonormierungsverfahren, 92 Nebendiagonale einer Matrix, 55 Nebenklasse, 48 Negation, 3 negativ denite Matrix, 109 negativ semi-denite Matrix, 109 negatives Element, 17 neutrales Element, 14 nicht singuläre Matrix, 40 nicht stetig, 3 nilpotente Matrix, 55, 76, 77, 129, 131 noetherscher Isomorphiesatz, 49 Norm, 47, 84, 85 normale Matrix, 99, 131 normaler Endomorphismus, 99 Normalform einer Matrix, 103, 114, 127, 129 normierter Vektor, 90 normiertes Polynom, 72 Normierung, 19 Null-Gruppe, 17 Nullabbildung, 35 Nullmatrix, 32 Nullpolynom, 72 Nullraum, 19 Nullstelle eines Polynoms, 72 Nullteiler, 33 nullteilerfrei, 33 Parität, 58 Partition einer Menge, 8 Permutation, 16, 57 Permutationsmatrix, 59, 105 Pivot, 56 Polarkoordinaten, 7 Polarzerlegung von Matrizen, 112 Polynom, 30, 72 Polynomendomorphismus, 118 Polynomring, 72 positiv denite Bilinearform, 83 positiv denite hermitesche Form, 84 positiv denite Matrix, 109 positiv semi-denite Matrix, 109, 110 Potenz einer Matrix, 132 Potenzmenge, 9 Potenzregeln, 17 Primfaktorzerlegung, 7, 115, 116 Primzahl, 6 Projektion, 47, 49, 131 Pythagoras, 7, 90 quadratische Matrix, 32 Quantoren, 3 138 LINEARE ALGEBRA Quaternionen, 18 Quotientenmenge, 8 Rang einer Bilinearform, 83 Rang einer linearen Abbildung, 36 Rang einer Matrix, 43 Realteil, 7 rechte Hand Regel, 93 reduzibles Polynom, 114 reeller Vektorraum, 19 reellwertige Funktion, 20 Reexivität einer Relation, 7 Regel von Sarrus, 66 reguläre Bilinearform, 83 reguläre Matrix, 40 Relation, 7 reliert, 7 Repräsentant, 8, 48 Rest, 6, 115 Restriktion einer Abbildung, 88 Ring, 19 Ringaxiome, 19 Ringisomorphismus, 46 Russel, 4 Sarrus, 66 schief-hermitesche Matrix, 85 schief-symmetrische Matrix, 85 Schiefkörper, 18 Schroeder-Bernstein, 11 Schwarzsche Ungleichung, 89, 90 selbstadjungiert, 97 semi-denite Matrix, 110 senkrecht, 91 Signum einer Permutation, 58 Skalar, 19 Skalarenkörper, 19 Skalarmultiplikation, 19 Skalarprodukt, 33, 84, 109 Spaltenindex einer Matrix, 32 Spaltenrang einer Matrix, 32 Spaltenvektor, 32 Spiegelung, 106 Spur einer Matrix, 76 Standardskalarprodukt, 86 Steinitz, 29 stetige Funktion, 3 stetige reellwertige Funktionen, 30 Sturm's Theorem, 111 Subjunktion, 3 Summe von Unterräumen, 23 surjektiv, 9 Sylvester, 110 Symbole, 3 Symmetrie von Relationen, 7 symmetrische Bilinearform, 83 symmetrische Gruppe, 16, 57 symmetrische Gruppentafel, 17 symmetrische Matrix, 34, 108 symmetrisches Polynom, 73 Teiler von Polynomen, 114 teilerfremde Polynome, 116 Teilkörper, 17, 18, 20 Teilmenge, 3 Trägheitsindex, 110 Trägheitssatz von Sylvester, 110 transitiv, 15, 21 Transitivität einer Relation, 7 transponiert, 34 transponiert-konjugierte Matrix, 85 transponierte Matrix, 34, 132 Transposition, 57 Treppenform, 52 triviale Darstellung, 21, 23 triviale Gruppe, 17 Tupel, 6, 19, 24 umkehrbar, 9 Umkehrfunktion, 10 uneigentlich orthogonal, 106 unendliche Dimension, 26 ungerade Permutation, 58 unitär ähnlich, 108 unitär diagonalisierbar, 108 unitäre Abbildung, 104, 108 unitäre Gruppe, 106 unitäre Matrix, 105 unitärer Raum, 85 unitrianguläre Matrix, 55 untere Schranke, 27 Untergruppe, 15 Untergruppenkriterium, 15 Untermatrix, 67 Unterraum, 21 Unterraum aller Polynome, 30 Unterraumkriterium, 21 unvergleichbare Elemente, 9 LINEARE ALGEBRA unzerlegbarer Vektorraum, 123 unzerlegbares Polynom, 114 Urbild, 9, 36 Vandermonde Determinante, 71 Variable, 72 Vektor, 19 Vektorraum, 19 Vektorraumaxiome, 19 Vereinigung von Mengen, 4 vergleichbar, 9 Verknüpfung, 14 Vietasche Wurzelsätze, 73, 76 Vorzeichen einer Permutation, 58 Vorzeichenregel, 18, 58 Vorzeichenschachbrett, 68 wahre Aussage, 3, 4 Wahrheitstafel, 3 Wedderburn, 18 Winkel, 90 winkeltreu, 104 Wohlordnungssatz, 27 Wurzel eines Polynoms, 72 Zeichenregel , 111 Zeilenindex einer Matrix, 32 Zeilenrang einer Matrix, 32 Zeilenvektor, 32 zerlegbare Polynome, 114 Zerlegung einer Abbildung, 49 Zerlegung einer Menge, 8 Zerlegung eines Vektorraumes, 28 Zorn, 27 Zuordnung, 9 zyklische Gruppe, 15, 17 zyklischer Unterraum, 122 139