Skript zu der Vorlesung Lineare Algebra 1 Prof. Dr. Mark Groves WS2016/17 1. Mai 2017 Inhaltsverzeichnis 1 Mengen, Funktionen und Relationen 1.1 Mengenlehre . . . . . . . . . . . . 1.2 Funktionen . . . . . . . . . . . . . 1.3 Geordnete Paare und Relationen 1.4 Wohlordnung und Induktion . . 1.5 Abzählbarkeit . . . . . . . . . . . . . . . . 3 3 9 18 29 33 2 Algebraische Strukturen 2.1 Verknüpfungen, Gruppen und Körper . . . . . . . . . . . . . . . . . 2.2 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 39 50 3 Vektorräume 3.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Elementare Vektorraumtheorie . . . . . . . . . . . . . . . . . . . . . 3.3 Basisergänzung und Unterräume . . . . . . . . . . . . . . . . . . . . 67 67 73 84 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Lineare Abbildungen und Matrizen 4.1 Lineare Abbildungen . . . . . . . . . . . . . 4.2 Matrixdarstellungen linearer Abbildungen 4.3 Matrixalgebra . . . . . . . . . . . . . . . . . 4.4 Der Daulraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 . 95 . 100 . 105 . 111 5 Matrixrechnung und lineare Gleichungssysteme 5.1 Über die Spalten und Zeilen einer Matrix . . 5.2 Die Inverse einer Matrix . . . . . . . . . . . . 5.3 Lineare Gleichungssysteme . . . . . . . . . . 5.4 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 114 123 128 135 6 Eigenwerte und Eigenvektoren 146 7 Skalarprodukträume 7.1 Skalarprodukte und Normen . . . . . 7.2 Elementare Skalarproduktraumtheorie 7.3 Die adjungierte Abbildung . . . . . . . 7.4 Normale Abbildungen . . . . . . . . . 160 160 166 176 184 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Mengen, Funktionen und Relationen 1 Mengen, Funktionen und Relationen 1.1 Mengenlehre Definition (Cantor, 1895) “Unter einer Menge verstehen wir jede Zusammenfassung von bestimmten wohl unterschiedenen Objekten unserer Anschauung oder unseres Denkens zu einem Ganzen.” Die Objekte, die zu einer Menge zusammengefasst sind, heißen Elemente dieser Menge. Eine Menge enthält ihre Elemente. Wir können eine Menge festlegen, indem wir ihre Elemente explizit zwischen geschweiften Klammern angeben. Beispiele 1. Die Menge aller Vokale im englischen Alphabet ist {a,e,i,o,u}. 2. Die Menge aller ungeraden positiven ganzen Zahlen, die kleiner als 10 sind, ist {1,3,5,7,9}. Wir können eine Menge auch festlegen, indem wir die charakteristische Eigenschaft ihrer Elemente angeben. Beispiel Die Menge { x : x ist eine gerade, positive ganze Zahl, die kleiner als 10 ist} ist {2,4,6,8}. Wir benutzen besondere Symbole für gewisse Mengen: 3 1.1 Mengenlehre N = {1,2,3, . . . } (die Menge der natürlichen Zahlen) N0 = {0,1,2,3, . . .} (die Menge der nichtnegativen ganzen Zahlen) Z = {. . . , −2, − 1,0,1,2, . . .} nm o Q= : m ∈ Z, n ∈ N n R ist die Menge aller reellen Zahlen. (die Menge der ganzen Zahlen) (die Menge der rationalen Zahlen) C ist die Menge aller komplexen Zahlen. ∅ = {} ist die leere Menge. Bemerkung Eine Menge ist eine nicht geordnete Sammlung von Objekten, so dass {2,4,6,8} = {4,8,6,2}. Wir schreiben x∈A für die Tatsache, dass x Element von A ist, und x∈ /A für die Tatsache, dass x kein Element von A ist. Definition Eine Menge A heißt Teilmenge einer Menge B, wenn jedes Element von A auch Element von B ist. In diesem Fall schreiben wir “A ⊆ B”. Beispiele 1. {1,3,5} ⊆ {1,3,5,7} 2. ∅ ⊆ N ⊆ N0 ⊆ Z ⊆ Q ⊆ R ⊆ C 3. {1,3,5} 6⊆ {1,2,3,4} 4 1.1 Mengenlehre Definitionen 1. Zwei Mengen sind gleich, wenn A ⊆ B und B ⊆ A. In diesem Fall schreiben wir “A = B”. 2. Eine Menge A heißt echte Teilmenge von B, falls A ⊆ B und A 6= ∅, A 6= B. Wir können Mengen kombinieren, um weitere Mengen zu bilden. Definitionen A und B seien Mengen. 1. Die Vereinigungsmenge oder Vereinigung von A und B ist die Menge A ∪ B = { x : x ∈ A oder x ∈ B}. ↑ “A vereinigt mit B” 2. Die Schnittmenge oder der Durchschnitt von A und B ist die Menge A ∩ B = { x : x ∈ A und x ∈ B}. ↑ “A durchschnitten B” 3. Die Differenz von A und B ist die Menge A \ B = { x : x ∈ A und x ∈ / B }. ↑ “A ohne B” Bemerkungen 1. In der Mathematik benutzen wir das Wort “oder” immer im nicht ausschließenden Sinne. “x ∈ A oder x ∈ B” bedeutet also “x ∈ A” oder “x ∈ B” oder beides. 2. Falls A ∩ B = ∅ (d.h. A und B haben keine gemeinsamen Elemente), sagen wir: A und B sind disjunkt. 5 1.1 Mengenlehre Beispiel S1 = {( x,y) : ( x − 1)2 + (y − 1)2 < 1}, S2 = {( x,y) : |y| < 1} seien Teilmengen der Ebene P = {( x,y) : x,y ∈ R }. Zeichnen Sie die Mengen S1 ,S2 ,S1 ∩ S2 und S1 ∪ S2 . Lösung y S1 y S1 ∩ S2 1 1 1 x y S2 y S1 ∪ S2 1 x 1 1 x -1 1 x -1 Zeichenerklärung — “Rand” gehört zur Menge - - “Rand” gehört nicht zur Menge • “Eckpunkt” gehört zur Menge ◦ “Eckpunkt” gehört nicht zur Menge 6 1.1 Mengenlehre Im letzten Beispiel betrachteten wir S1 und S2 als Teilmengen einer Universalmenge P. Definition A sei Teilmenge einer Universalmenge U. Die Menge A := U \ A ↑ definitionsgemäß gleich heißt Komplement von A in U. Gesetze der Mengenoperationen X, Y und Z seien Teilmengen der Universalmenge U. X∪∅=X X∩U = X Identitätsgesetze X∪X=U X∩X=∅ Dominationsgesetze (X ∪ Y ) ∪ Z = X ∪ (Y ∪ Z) (X ∩ Y ) ∩ Z = X ∩ (Y ∩ Z) X∪Y =Y∪X X∩Y =Y∩X Assoziativgesetze Kommutativgesetze X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z) X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z) Distributivgesetze Wir betrachten diese Grundgesetze der Mengenoperationen als Axiome (gegebene, nicht beweisbare Gesetze) und leiten weitere Ergebnisse von ihnen her. 7 1.1 Mengenlehre Lemma A und B seien Teilmengen der Universalmenge U. Es gelten: A∪A= A A∩A= A Idempotenzgesetz A = A (Involutionsgesetz) A∪B= A∩B de Morgansche Gesetze A∩B= A∪B Beweis Es gilt: A ∪ A = ( A ∪ A) ∩ U (Identitätsgesetz) = ( A ∪ A) ∩ ( A ∪ A) (Dominationsgesetz) = A ∪ ( A ∩ A) (Distributivgesetz) =A (Identitätsgesetz) =A∪∅ (Dominationsgesetz) Die anderen Aussagen werden in ähnlicher Weise bewiesen. Bemerkung Unsere Definition von einer Menge als “Sammlung von Objekten” ist etwas naiv und kann zu Problemen führen. (i) Als Elemente können Mengen andere Mengen haben. Beispiel A sei eine Menge. Die Menge aller Teilmengen von A heißt die Potenzmenge von A und wird mit P( A) bezeichnet. Für A = {1,2} ist z. B. P( A) = {∅, {1},{2},{1,2}}. 8 1.2 Funktionen (ii) Eine Menge kann sich selbst als Element haben. L sei die Liste aller Dinge in Prof. Groves’ Uni-Tasche. Diese Liste L stellt eine Menge durch Aufzählung dar: L = {Lehrbuch, Stift, Vorlesungsnotizen, Hammer}. (Der Hammer ist zum Kaputtschlagen von Handys, die während der Vorlesung klingeln.) Oft legt Prof. Groves auch die Liste in seine Tasche. Wir müssen also L in L = {Lehrbuch, Stift, Vorlesungsnotizen, Hammer, L} abändern. Damit enthält die Menge L sich selbst. (iii) Die Russelsche Antimonie M sei die Menge aller Mengen, die sich selbst nicht enthalten. Frage: Enthält M sich selbst, d. h. ist M ∈ M? – Falls M ∈ M, gilt definitionsgemäß M 6∈ M. – Falls M 6∈ M, gilt definitionsgemäß M ∈ M. Damit führt die Existenz von M zu einem logischen Widerspruch. Um solche Probleme zu vermeiden, brauchen wir eine subtilere Definition des Begriffs “Menge”. Es handelt sich hier um die axiomatische Mengenlehre, die in dieser Vorlesung nicht behandelt wird. 1.2 Funktionen Definition A und B seien Mengen. Eine Funktion oder Abbildung f : A → B (“ f von A nach B”) ist eine Vorschrift, die jedem Element a ∈ A genau ein Element f (a) ∈ B zuordnet. 9 1.2 Funktionen A B a1 a2 f(a1) f f(a2) f(a3) a3 Die Menge A ist die Urmenge von f Die Menge B ist die Zielmenge von f Beispiele 1. Wir sind daran gewöhnt, Funktionen durch explizite Formeln zu definieren, z. B. f : R → R, f ( x ) = sin x. 2. Wir brauchen jedoch nur die maßgebende Zuordnung anzugeben, z. B. f : {1,3,5} → N, f (1 ) = 3 f (3) = 4, f (5) = 7. Definitionen f : A → B sei eine Funktion. Das Element f (a) ∈ B heißt Bild oder (Funktions)wert von a ∈ A unter f . Die Menge aller Funktionswerte von f , d. h. R( f ) := { f (a) : a ∈ A}, heißt Bildmenge oder Wertebereich von f ; sie ist Teilmenge von B. A B a1 a2 a3 f(a1) f f(a2) f(a3) R(f) 10 1.2 Funktionen Beispiele 1. f : R → R, f ( x ) = sin x. Es gilt: R( f ) = {sin x : x ∈ R } = [−1,1]. 2. f : {1,3,5} → N, f (1 ) = 3 f (3) = 4, f (5) = 7. Es gilt: R( f ) = { f (1), f (3), f (5)} = {3, 4, 7}. Definition f : A → B sei eine Funktion und C sei Teilmenge von A. Die Menge aller Funktionswerte von f , die aus Elementen von C stammen, d. h. f [C ] := { f ( a) : a ∈ C } heißt das Bild von C unter der Funktion f . A B C a1 a2 f(a1) f f[C] f(a2) 11 1.2 Funktionen Beispiele 1. f : R → R, f ( x ) = sin x. Es gilt: f ([0,π ]) = {sin x : x ∈ [0,π ]} = [0,1]. 2. f : {1,3,5} → N, f (1 ) = 3 f (3) = 4, f (5) = 7. Es gilt: f ({1,3}) = { f (1), f (3)} = {3, 4}. Definition f : A → B sei eine Funktion und D sei Teilmenge von B. Die Menge aller Elemente von A, deren Bilder unter f in D liegen, d. h. f −1 [ D ] : = { a ∈ A : f ( a) ∈ D } heißt das Urbild von D unter der Funktion f . A B a1 a2 f(a1) f f -1[D] D f(a2) Beispiele 1. f : R → R, f ( x ) = sin x. Es gilt: f −1 ([0,1]) = {[ x : sin x ∈ [0,1]} = [2nπ,(2n + 1)π ] n ∈Z 12 1.2 Funktionen 2. f : {1,3,5} → N, f (1 ) = 3 f (3) = 4, f (5) = 7. Es gilt: f −1 ({77}) = ∅ Definitionen Eine Funktion f : A → B heißt (i) injektiv, falls a1 6 = a2 ⇒ f ( a1 ) 6 = f ( a2 ); “a1 6= a2 impliziert f (a1 ) 6= f (a2 )” (ii) surjektiv, falls R( f ) = B; (iii) bijektiv, falls sie injektiv und surjektiv ist. Beispiele 1. A B f Diese Funktion ist weder injektiv noch surjektiv. 2. A B f Diese Funktion ist injektiv, aber nicht surjektiv. 13 1.2 Funktionen 3. A B f Diese Funktion ist injektiv und surjektiv, also bijektiv. 4. f 1 : R → R, f 1 ( x ) = sin x Zielmenge (R) Manche Elemente der Zielmenge werden mehr als einmal erfasst. f 1 ist also nicht injektiv. Urmenge (R) Nicht alle Elemente der Zielmenge werden erfasst. f 1 ist also nicht surjektiv. 5. f 2 : R → [−1,1], f 2 ( x ) = sin x Zielmenge ([−1,1]) . . . aber nicht injektiv. Urmenge (R) Jetzt werden alle Elemente der Zielmenge erfasst. f 2 ist also surjektiv . . . 14 1.2 Funktionen 6. f 3 : [− π2 , π2 ] → [−1,1], f 3 ( x ) = sin x Zielmenge ([−1,1]) Urmenge ([− π2 , π2 ]) Alle Elemente der Zielmenge werden genau einmal erfasst. f 3 ist also surjektiv und injektiv, also bijektiv. Beispiele 4–6 verdeutlichen, dass die Wahl der Mengen A und B ein wesentlicher Teil der Definition einer Funktion f : A → B ist. Bemerkung Betrachten Sie eine bijektive Funktion f : A → B. Weil f injektiv ist, existiert zu jedem Element b in der Bildmenge von f genau ein Element a in der Urmenge von f , das auf b abgebildet wird. Weil f surjektiv ist, ist die Bildmenge von f gleich B. Somit haben wir eine neue Funktion definiert: Definition f : A → B sei eine bijektive Funktion. Die Funktion f −1 : B → A, f −1 (b) := a, wobei a das eindeutige Element aus A mit der Eigenschaft b = f (a) ist, heißt Umkehrfunktion von f . f A B f -1 15 1.2 Funktionen Bemerkung f −1 : B → A ist ebenfalls bijektiv, und es gilt f −1 ( f (a)) = a, f ( f −1 (b)) = b, a ∈ A, b ∈ B. Beispiel Die Umkehrfunktion der bijektiven Funktion f : R → R, f ( x ) = 2x − 3 ist f −1 : R → R, f −1 (y ) = weil y = 2x − 3 ⇔ x = y 3 + , 2 2 y 3 + . 2 2 x=f -1(y) y=f(x) 3/2 3/2 x -3 y -3 Geometrisch gesehen tauschen wir die Rollen der horizontalen und vertikalen Achsen. Die Graphen von f und f −1 sind also durch eine Spiegelung an der Geraden y = x miteinander verwandt. 16 1.2 Funktionen Definition g : A → B und f : B → C seien Funktionen. Die Funktion f ◦ g : A → C, ↑ “ f nach g” ( f ◦ g)(a) = f ( g(a)) heißt Komposition von f und g. A C B g f f◦g Proposition Es seien g : A → B und f : B → C Funktionen. 1. Ist f ◦ g : A → C injektiv, so ist g : A → B injektiv. 2. Ist f ◦ g : A → C surjektiv, so ist f : B → C surjektiv. Beweis 1. Wir wissen: Aus ( f ◦ g)(a1 ) = ( f ◦ g)(a2 ) folgt a1 = a2 . Wir müssen zeigen: Aus g(a1 ) = g(a2 ) folgt a1 = a2 . 17 1.3 Geordnete Paare und Relationen Es sei also g(a1 ) = g(a2 ). Dann ist f ( g(a1 )) = f ( g(a2 )), d.h. ( f ◦ g)(a1 ) = ( f ◦ g)(a2 ). Folglich gilt a1 = a2 . 2. Wir wissen: Zu jedem c ∈ C existiert a ∈ A mit ( f ◦ g)(a) = c. Wir müssen zeigen: Zu jedem c ∈ C existiert b ∈ B mit f (b) = c. Es sei also c ∈ C. Dann gibt es a ∈ A mit ( f ◦ g)(a) = c, d.h. f ( g(a)) = c. Folglich hat b = g(a) die Eigenschaft f (b) = c. 1.3 Geordnete Paare und Relationen Definition A und B seien beliebige Mengen. Ein Paar (a,b) mit a ∈ A und b ∈ B heißt geordnetes Paar mit a als erster Komponente und b als zweiter Komponente. Die Menge aller solchen geordneten Paare A × B := {(a,b) : a ∈ A, b ∈ B} ↑ “A kreuz B” heißt Produktmenge oder kartesisches Produkt von A und B. Beispiel Die Lage eines Punktes P der Ebene läßt sich durch ein geordnetes Paar reeller Zahlen beschreiben: 18 1.3 Geordnete Paare und Relationen P y P( x,y) ր տ horizontale vertikale Koordinate Koordinate x Damit ist die Ebene die Menge aller geordneten Paare reeller Zahlen, d.h. die Menge R × R. Statt R × R schreibt man meist R2 . Bemerkung Diese Konstruktion läßt sich verallgemeinern. A1 , . . . ,An seien n beliebige Mengen. Die Menge A1 × A2 × . . . × An = {(a1 , . . . ,an ) : a1 ∈ A1 , . . . ,an ∈ An } aller geordneten n-Tupel (a1 , . . . ,an ) mit ai ∈ Ai , i = 1, . . . ,n heißt Produktmenge oder kartesisches Produkt von A1 , . . . , An . Definition Es sei f : A → B eine Abbildung. Der Graph von f ist die Teilmenge G f := {(a, f (a)) : a ∈ A} von A × B. 19 1.3 Geordnete Paare und Relationen Beispiele 1. f : R → R, f ( x ) = sin x. G f = {( x, sin x ) : x ∈ R } können wir als Teilmenge von R2 gut visualisieren: f(x) Dies ist der Graph von f . x 2. f : {1,3,5} → N, f (1 ) = 3 f (3) = 4, f (5) = 7. Der Graph von f ist die Teilmenge {(1,3),(3,4),(5,7)} von {1,3,5} × N = {(1,1),(1,2),(1,3), . . . ,(3,1),(3,2),(3,3), . . . ,(5,1),(5,2),(5,3), . . . }. Bemerkung Wir definierten eine Funktion f : A → B als Vorschrift, die jedem Element a ∈ A genau ein Element f (a) ∈ B zuordnet. Der Graph von f ist lediglich die Menge dieser Zuordnungen: (a,b) ∈ G f bedeutet b ist das Element von B, das a zugordnet wird, d.h. b = f (a) f wird also vollständig von G f wiedergegeben, und somit können wir f durch seinen Graphen definieren. 20 1.3 Geordnete Paare und Relationen Definitionen A und B seien Mengen. 1. Eine Relation R zwischen A und B ist eine Teilmenge der Produktmenge A × B. Oft schreiben wir aRb statt (a,b) ∈ R und sagen: ‘a steht in Relation zu b’. 2. Die Menge A wird als Quellmenge oder Vorbereich der Relation bezeichnet. Die Menge B ist die Zielmenge oder der Nachbereich der Relation. Beispiel Es seien M und F die Mengen aller Männer bzw. aller Frauen. Die Teilmenge {(m, f ) ∈ R : m ist der Ehemann von f } von M × F ist eine Relation zwischen M und F. Es gilt z.B. (Prince Charles, Camilla Parker-Bowles) ∈ R, (Donald Trump, Hillary Clinton) 6∈ R. Definitionen Eine Relation R zwischen zweier Mengen A und B heißt 1. linkstotal, falls es zu jedem a ∈ A ein b ∈ B mit aRb gibt, 2. rechtstotal, falls es zu jedem b ∈ B ein a ∈ A mit aRb gibt, 3. linkseindeutig, falls aus a1 Rb und a2 Rb die Gleichheit a1 = a2 folgt, 4. rechtseindeutig, falls aus aRb1 und aRb2 die Gleichheit b1 = b2 folgt, 21 1.3 Geordnete Paare und Relationen Beispiele Es seien A = { a1 ,a2 ,a3 }, B = {b1 ,b2 ,b3 ,b4 }. 1. A B b1 a1 a2 b4 a3 b3 b2 Die Relation R = {(a1 ,b1 ),(a2 ,b3 ),(a3 ,b4 )} ist linkstotal und links- und rechtseindeutig, aber nicht rechtstotal. 2. A B a1 a2 a3 b1 b4 b3 b2 Die Relation R = {(a1 ,b1 ),(a1 ,b2 ),(a3 ,b2 )} ist weder linkstotal, rechtstotal, linkseindeutig noch rechtseindeutig. Bemerkungen Es seien A und B Mengen. Eine Funktion f : A → B ist eine linkstotale, rechtseindeutige Relation zwischen A und B. f ist genau dann injektiv, wenn die Relation linkseindeutig ist, und genau dann surjektiv, wenn die Relation rechtstotal ist. Definitionen Eine Relation zwischen einer Menge A und sich selbst heißt homogen. Wir sprechen in diesem Fall von ‘einer Relation auf einer Menge M’. Homogene Relationen werden häufig mit dem Symbol ∼ bezeichnet und heißen 22 1.3 Geordnete Paare und Relationen 1. reflexiv, falls a ∼ a für alle a ∈ A, 2. konnex, falls für alle a,b ∈ A mit a 6= b entweder a ∼ b oder b ∼ a gilt, 3. symmetrisch, falls a ∼ b ⇒ b ∼ a, 4. asymmetrisch, falls a ∼ b ⇒ b 6∼ a, 5. antisymmetrisch, falls a ∼ b und b ∼ a ⇒ a = b, 6. transitiv, falls a ∼ b und b ∼ c ⇒ a ∼ c. Beispiele Die Tabelle zeigt einige homogene Relationen auf N. x ∼ y, falls reflexiv? symmetrisch? transitiv? x≤y ja (x ≤ x) nein (3 ≤ 4, 4 6≤ 3) ja (x ≤ y, y ≤ z ⇒ x ≤ z) x |y ja (x | x) nein (3|6, 66 |3) ja (x |y, y|z ⇒ x |z) x+y=7 nein (2x 6= 7 für alle x ∈ N) ja nein (3 + 4 = 7 und 4 + 3 = 7, 3 + 3 = 6) x ∼ y, falls konnex? asymmetrisch? antisymmetrisch? x≤y ja nein (reflexiv) ja (x ≤ y, y ≤ x ⇒ x = y) x |y nein (36 |5, 56 |3) ja ja (x |y, y| x ⇒ x |y) x+y=7 nein (3 + 2 6= 7, 2 + 3 6= 7) nein (symmetrisch) nein (3 + 4 = 7, 4 + 3 = 7) Definition Eine Relation ∼ auf einer Menge M heißt Äquivalenzrelation, falls sie reflexiv, symmetrisch und transitiv ist. 23 1.3 Geordnete Paare und Relationen Beispiel Es sei M die Menge aller Bücher in der Bibliothek. Die Relation a∼b ⇔ a und b haben dieselbe ISBN ist eine Äquivalenzrelation auf M: Definition Es sei n ∈ N. Zwei Zahlen a, b ∈ Z heißen kongruent modulo n, falls n|(a − b). In diesem Fall schreiben wir a ≡ b (mod n). Proposition Es sei n ∈ N. Die Formel a∼b ⇔ a ≡ b (mod n) definiert eine Äquivalenzrelation auf Z. Beweis ∼ ist reflexiv: a ∼ a für alle a ∈ Z, denn a − a = 0 und n|0. 24 1.3 Geordnete Paare und Relationen ∼ ist symmetrisch: Es gelte a ∼ b, so dass n|(a − b). Folglich gilt auch n|(b − a), d.h. b ∼ a. ∼ ist transitiv: Es gelten a ∼ b und b ∼ c, so dass n|(a − b) und n|(b − c). Folglich gilt es ganze Zahlen q1 und q2 derart, dass a − b = q1 n und b − c = q2 n. Es ist also a − c = (a − b) + (b − c) = (q1 + q2 )n und n|(a − c), d.h. a ∼ c. Definition Es seien ∼ eine Äquivalenzrelation auf einer Menge M und m ∈ M. Die Teilmenge [m] := { x ∈ M : x ∼ m} heißt die Äquivalenzklasse von m in M. Lemma Es sei ∼ eine Äquivalenzrelation auf eine Menge M. Dann bilden die Äquivalenzklassen von ∼ eine Partition von M, d.h. 1. für alle x, y ∈ M gilt entweder [ x ] ∩ [y] = ∅ oder [ x ] = [y], 2. S [ x ] = M. x∈ M Beweis 1. Es sei [ x ] ∩ [y] 6= ∅. Wähle z ∈ [ x ] ∩ [y]. Es gilt nun a ∈ [ x] ⇒ a ∼ x ⇒a∼z ⇒a∼y ⇒ a ∈ [ y ], (denn a ∼ x und x ∼ z) (denn a ∼ z und z ∼ y) so dass [ x ] ⊆ [y]. Dasgleiche Argument ergibt [y] ⊆ [ x ], so dass [ x ] = [y] ist. 25 1.3 Geordnete Paare und Relationen 2. Wähle m ∈ M. Aus m ∼ m folgt m ∈ [m] und daher m ∈ [m] ⊆ so dass M ⊆ S [ [ x ]. Definitionsgemäß gilt x∈ M [ x ], x∈ M S x∈ M [ x ] ⊆ M. Bemerkung Insbesondere folgt [ x ] = [y] aus x ∼ y. Beispiele 1. Es sei M die Menge aller Bücher in der Bibliothek. Die Äquivalenzklassen der Äquivalenzrelation a∼b ⇔ a und b haben dieselbe ISBN bilden eine Partition von M: 2. Es seien n ∈ N und ∼ die Äquivalenzrelation a∼b ⇔ a ≡ b (mod n) auf Z. Um die Äquivalenzklassen zu bestimmen, brauchen wir das folgende Ergebnis, das später bewiesen wird: 26 1.3 Geordnete Paare und Relationen Zu jedem a ∈ Z gibt es eindeutige Zahlen qa ∈ Z (den Quotienten) und r a ∈ {0, . . . ,n − 1} (den Rest) derart, dass a = qa n + ra . Aus a − x = (q a − q x )n + r a − r x folgt nun a∼x so dass ⇔ ra = rx , [ x ] = { a ∈ Z : r a = r x }. Es gibt also n verschiedene Äquivalenzklassen, nämlich [0] = {0, n, 2n, . . . } ∪ {−n, − 2n, . . . }, [1] = {1, n + 1, 2n + 1, . . .} ∪ {−n + 1, − 2n + 1, . . .}, [2] = {2,n + 2,2n + 2, . . .} ∪ {−n + 2, − 2n + 2, . . .}, .. . [n − 1] = {n − 1,2n − 1,4n − 1, . . .} ∪ {−1, − 1 − n, . . . }, und diese bilden eine Partition von Z: Z= n[ −1 [i ], i =0 [i ] ∩ [ j] = ∅ für i 6= j. Lemma Es sei { Xi }i ∈ I eine Partition einer Menge X, d.h. [ Xi = X, i∈ I Xi ∩ X j = ∅ für i 6= j. Dann definiert die Formel a∼b ⇔ a, b ∈ Xi ⋆ für irgendein i ⋆ ∈ I eine Äquivalenzrelation auf X, deren Äquivalenzklassen die Mengen Xi , i ∈ I sind. Ist ferner ≈ eine weitere Äquivalenzrelation auf X, deren Äquivalenzklassen genau die Mengen Xi , i ∈ I sind, so stimmt ≈ mit ∼ überein. 27 1.3 Geordnete Paare und Relationen Definition Eine Relation auf einer Menge M heißt partielle Ordnung, falls sie reflexiv, antisymmetrisch und transitiv ist. Sie ist eine Totalordnung, falls sie auch konnex ist. Bemerkung Für eine Ordnung schreiben wir oft a ≺ b, falls a b aber a 6= b. Beispiele 1. Die Relation ab ⇔ a|b ist eine partielle Ordnung aber keine Totalordnung auf N. 2. Die Relation ab ⇔ ist eine Totalordnung auf R. a≤b 3. Die Relation , wobei (a1 , . . . ,an ) ≺ (b1 , . . . ,bn ), falls entweder a1 < b1 oder a1 = b1 und a2 < b2 .. . oder a1 = b1 , . . . , an−1 = bn−1 und an < bn , definiert eine Totalordnung auf N n . Im Falle n = 4 gilt z.B. (1,2,3,5) ≺ (1,2,4,3), denn 3 < 4, (1,7,9,11) ≺ (1,7,9,14), denn 11 < 14. 4. Auf der Menge aller Ketten von natürlichen Zahlen wird eine Totalordnung durch die Regel a1 a2 . . . am ≺ b1 b2 . . . bn , falls entweder (a1 , . . . ,at ) ≺ (b1 , . . . ,bt ) order (a1 , . . . , at ) = (b1 , . . . , bt ) und m < n 28 1.4 Wohlordnung und Induktion definiert, wobei t = min(m,n). Schreiben wir a, . . . , z statt 1, . . . , 26, so erhalten wir die lexikographische Ordnung: Es gilt z.B. zumuten ≺ Zumutung faulen ≺ faulenzen 1.4 Wohlordnung und Induktion Definition Es seien (X, ) eine geordnete Menge und Y eine Teilmenge von X. 1. Ein Element M ∈ X heißt obere Schranke für Y, falls y M für alle y ∈ Y. Liegt M in Y, so heißt sie größtes Element von Y. 2. Ein Element M ∈ Y heißt maximales Element von Y, falls y ∈ Y mit y M ⇒ y = M. Es gelten die entsprechenden Definitionen für untere Schranken, kleinste Elemente und minimale Elemente. Bemerkungen 1. Falls Y eine größtes (kleinstes) Element besitzt, so ist es eindeutig. Es seien nämlich M1 , M2 größte (kleinste) Elemente von Y. Die Relationen y M1 , y M2 (y M1 , y M2 ) für alle y ∈ Y gelten insbesondere für y = M1 und y = M2 , so dass M1 M2 und M2 M1 , und folglich M1 = M2 . 2. Ein größtes (kleinstes) Element für Y ist auch ein maximales (minimales) Element von Y. Ein maximales (minimales) Element von Y ist dagegen nicht notwendigerweise ein größtes (kleinstes) Element von Y. Die Begriffe stimmen aber miteinander überein, falls eine Totalordnung ist. 29 1.4 Wohlordnung und Induktion Beispiele 1. Betrachte die geordnete Menge (N, ), wobei nm ⇔ n|m. Die Teilmenge {1,2,3,4,6} von N hat die oberen Schranken 12, 24, 36, . . . . ein kleinstes Element (1), kein größtes Element, die maximale Elemente 4 und 6, 2. Betrachte die total geordnete Menge (R, ≤). Die Teilmenge (0,1] von R hat die untere Schranke m für alle m ≤ 0, kein kleinstes Element, denn aus der Existenz eines kleinsten Elements m ∈ (0,1] folgt der Widerspruch m2 ∈ (0,1] aber m2 < m, das größte Element 1. Dieselbe Schlüsse gelten für (0,1) ∩ Q als Teilmenge von (Q, ≤). Definition Eine total geordnete Menge (X, ) heißt wohlgeordnet, falls jede nichtleere Teilmenge von X ein kleinstes Element hat. Beispiele 1. (R, ≤) und (Q, ≤) sind nicht wohlgeordnet (die Teilmenge (0,1) bzw. (0,1) ∩ Q hat kein kleinstes Element). 2. (N, ≤) ist wohlgeordnet. Dies ist das Wohlordnungsaxiom der natürlichen Zahlen. 30 1.4 Wohlordnung und Induktion 3. (Z, ≤) ist nicht wohlgeordnet (die Teilmenge {. . . , −3, − 2, − 1} hat kein kleinstes Element). Versehen mit der Totalordnung 0 ≺ 1 ≺ −1 ≺ 2 ≺ −2 ≺ −3 ≺ · · · ist sie jedoch wohlgeordnet. Das dritte Beispiel verdeutlicht, dass die Wahl der Ordnung wichtig ist. Satz (Wohlordnungssatz) Zu jeder nichtleeren Menge gibt es eine Totalordnung, bezüglich dessen sie wohlgeordnet ist. Dieser Satz wird aus dem folgenden Auswahlaxiom der Mengenlehre hergeleitet: Es sei { Mi }i ∈ I eine Menge nichtleerer Mengen. Dann gibt es eine Menge M, die aus jeder der Mengen Mi , i ∈ I genau ein Element und sonst keine weiteren Elemente enthält. Es gibt eine weitere Folgerung aus dem Auswahlaxiom, die für Ordnungen relevant ist. Satz (Lemma von Zorn) Es sei X eine nichtleere, geordnete Menge mit der Eigenschaft, dass jede total geordnete Teilmenge von X eine obere Schranke besitzt. Dann hat X (mindestens) ein maximales Element. Bemerkung Der Wohlordnungssatz, das Auswahlaxiom und das Lemma von Zorn sind logisch äquivalent: Aus je einem lassen sich die anderen beiden folgern. 31 1.4 Wohlordnung und Induktion Satz (transfinite Induktion) Es sei ( I, ) eine wohlgeordnete Menge und P(i ), i ∈ I eine Aussageform mit der folgende Eigenschaft: Ist P( j) für alle j ≺ k wahr, so ist P(k) wahr. Dann ist P(i ) wahr für jedes i ∈ I. Beweis Es sei P(i ) falsch für irgendein i ∈ I. Da ( I, ) wohlgeordnet ist, gibt ein kleinstes solches Element i ⋆ . Nun ist P( j) ist wahr für alle j ≺ i ⋆ . Folglich ist P(i ⋆ ) wahr, und dies ist ein Widerspruch. Bemerkung Im Sonderfall, dass ( I, ) gleich (N, ≤) ist, handelt es sich um das Prinzip der starken Induktion. Beispiel Die durch das Rekursionsschema f 1 = 1, f 2 = 1, f n = f n−1 + f n−2 , n = 3,4, . . . definierte Folge { f n } heißt Fibonacci-Folge. Zeigen Sie, dass n−3 3 fn ≥ , n = 1,2, . . . . 2 Lösung Es sei P(n) die Aussageform n−3 3 fn ≥ 2 für n ∈ N. Wir zeigen, dass P(1), P(2), . . . , P(k − 1) ⇒ P(k) für alle k ∈ N. 32 1.5 Abzählbarkeit Die Aussagen P(1) und P(1) ⇒ P(2) werden gesondert verifiziert. Dies ist der Induktionsanfang. Es gilt 1−3 2−3 3 4 2 3 1 = f1 ≥ = , = . 1 = f2 ≥ 2 9 2 3 (Da P(1) wahr ist, ist P(1) ⇒ P(2) äquivalent zu P(2).) Nun sei k ≥ 3. Im Induktionsschluss beweisen wir, dass die Induktionsvoraussetzung j−3 3 P( j) : f j ≥ , j = 1, . . . , k − 1 (1 ) 2 die Induktionsbehauptung k−3 3 P(k) : f k ≥ 2 impliziert. Es gilt nun f k = f k−1 + f k−2 k−4 k−5 3 3 + ≥ 2 2 k−5 3 3 = +1 (wegen (1)) 2 2 k−5 5 3 = 2 2 k−5 3 9 ≥ (denn 25 > 94 ) 2 4 k−3 3 . = 2 1.5 Abzählbarkeit Definition Eine nichtleere Menge M heißt endlich, falls es eine natürliche Zahl n und eine bijektive Funktion f : N n → M gibt, wobei N n = { m ∈ N : m ≤ n} ist. In diesem Fall hat M n Elemente. 33 1.5 Abzählbarkeit Bemerkung Eine endliche Menge M kann nicht gleichzeitig n1 und n2 Elemente mit n1 6= n2 haben. In diesem Fall gäbe es Bijektionen f 1 : N n1 → M und f 2 : N n2 → M, so dass g := f 1−1 ◦ f 2 : N n2 → N n1 und g−1 : N n1 → N n2 Bijektionen wären. Die Existenz solcher Funktionen schließt aber das folgende Lemma aus. Lemma (Schubfachprinzip) Es seien m und n natürliche Zahlen mit m < n. Dann gibt es keine Injektion N n → Nm . Beweis Es sei S = {n ∈ N: Es existieren eine natürliche Zahl m < n und eine Injektion f : N n → N m }. Falls S 6= ∅ ist, hat S dem Wohlordnungsaxiom zufolge ein kleinstes Element k. Es existieren also eine natürliche Zahl ℓ < k und eine Injektion g : N k → N ℓ . Es ist ℓ 6= 1, denn keine Funktion N k → N1 = {1} ist eine Injektion für k > 1. Damit ist ℓ > 1, so dass ℓ = q + 1 und daher k = p + 1 für igendwelche natürlichen Zahlen p, q sind. Bemerke: N k = N p ∪ { p + 1}, N ℓ = N q ∪ { q + 1}. Falls q + 1 nicht in g[N p ] ist, ist die durch die Formel h ( x ) = g ( x ), definierte Funktion h : N p → N q injektiv. x ∈ Np Falls q + 1 in g[N p ] ist, existiert x1 ∈ N p mit g( x1 ) = q + 1. Folglich ist g( p + 1) 6= q + 1. Damit ist die durch die Formel g ( x ), x 6 = x1 , h( x ) = g ( p + 1 ), x = x 1 definierte Funktion h : N p → N q injektiv. In beiden Fällen haben wir eine Injektion h : N p → N q mit q < p und p < k konstruiert. Dies widerspricht aber der Definition von k. 34 1.5 Abzählbarkeit Bemerkung Das Schubfachprinzip wird oft folgendermaßen formuliert: Falls man n Objekte in m < n Schubfächer einteilen möchte, gibt es mindestens ein Schubfach, in dem mehr als ein Objekt landet. Mit anderen Worten existiert keine Injektion f : M → S, wobei M die Menge der Objekte und S die Menge der Schubfächer ist. Definitionsgemäß existieren Bijektionen f 1 : N n → M und f 2 : N m → S. Die Existenz einer Injektion f : M → S impliziert, dass f 2−1 ◦ f ◦ f 1 : N n → N m injektiv ist. Dies widerspricht dem obigen Lemma. Definitionen 1. Die leere Menge betrachten wir als endlich mit 0 Elementen. 2. Eine nichtleere Menge M ist unendlich, falls sie nicht endlich ist. Lemma Eine nichtleere Menge M ist unendlich, falls es eine Injektion f : N → M gibt. Beweis Nehmen wir an, M ist endlich. Dann gibt es eine natürliche Zahl n und eine Bijektion f n : N n → M. Es sei i : N n+1 → N die Inklusion i ( x ) = x, x = 1, . . . ,n + 1. Damit ist h := f n−1 ◦ f ◦ i : N n+1 → N n eine Injektion. Dies widerspricht aber dem Schubfachprinzip. . 35 1.5 Abzählbarkeit Definitionen 1. Eine nichtleere Menge M heißt abzählbar unendlich, falls es eine bijektive Funktion f : N → M gibt. 2. Eine endliche oder abzählbar unendliche Menge heißt abzählbar. 3. Eine nicht abzählbare Menge heißt überabzählbar. Beispiele 1. Die Menge Z ist abzählbar unendlich. So zählt man ihre Elemente ab: Zielmenge (Z ) Urmenge (N ) 0 1 −1 2 −2 3 −3 · · · ↑ ↑ ↑ ↑ ↑ ↑ ↑ 1 2 3 4 5 6 7 ··· 2. Die Produktmenge N × N = {(n1 ,n2 ) : n1 ,n2 ∈ N } ist abzählbar unendlich. So zählt man ihre Elemente ab: 1 (1, 1) 3 2 (1, 2) 5 (2, 1) (2, 2) 6 9 (3, 1) 4 (1, 3) 7 (1, 4) ··· 8 (2, 3) (2, 4) (3, 2) (3, 3) (3, 4) (4, 2) (4, 3) (4, 4) 10 ··· (4, 1) Zeichenerklärung: durchgezogene Pfeile: N → Z gestrichelte Pfeile: Abzählungsrichtung 36 1.5 Abzählbarkeit 3. Die Menge aller positiven rationalen Zahlen ist abzählbar unendlich. So zählt man ihre Elemente ab: 1 1 1 2 1 2 1 3 1 4 1 5 2 3 2 4 2 5 3 2 3 3 3 4 3 5 4 2 4 3 4 4 4 5 5 2 5 3 5 4 5 5 2 2 5 3 1 ··· 7 3 2 1 10 6 4 8 9 4 1 11 5 1 .. . Zeichenerklärung: durchgezogene Pfeile: N → Q gestrichelte Pfeile: Abzählungsrichtung 4. Die Menge R ist nicht abzählbar. Sie ist unendlich, da die Inklusion N → R offensichtlich injektiv ist. Dass sie nicht abzählbar unendlich ist, beweisen wir durch Widerspruch. Nehmen wir an, R ist abzählbar unendlich. Es existiert also eine bijektive Funktion f : N → R. Wir bezeichnen f (n) mit Nn ,d1n d2n d3n . . ., wobei Nn eine ganze Zahl ist und d1n ,d2n ,d3n , . . . ∈ {0,1, . . . ,9} sind: Urmenge (N ) 1 2 3 .. . Zielmenge (R ) → N1 ,d11 d21 d31 . . . → N3 ,d13 d23 d33 . . . .. . → N2 , d12 d22 d32 . . . (Hier benutzen wir die Dezimalschreibweise für reelle Zahlen, die Nichteindeutigkeiten wie 0,999 . . . = 1,000 . . . enthält.) 37 1.5 Abzählbarkeit j D j sei eine ganze Zahl zwischen 1 und 8 mit D j 6= d j . Betrachte nun die reelle Zahl 0,D1 D2 D3 . . . Diese Zahl ist nicht gleich f (1), da D1 6= d11 ist. Sie ist ebenfalls nicht gleich f (2), da D2 6= d22 ist. j Sie ist tatsächlich nicht gleich f ( j) für jedes j ∈ N, da D j 6= d j ist. Sie ist also nicht Element der Bildmenge von f : Dies widerspricht der Annahme, dass f surjektiv ist. 38 2 Algebraische Strukturen 2 Algebraische Strukturen 2.1 Verknüpfungen, Gruppen und Körper Definition Es sei X eine nichtleere Menge. Eine (binäre) Verknüpfung · auf X ist eine Abbildung X × X → X. In der Regel verwenden wir die Notation x1 · x2 an Stelle von ·( x1 ,x2 ). Beispiele 1. Addition und Multiplikation sind Verknüpfungen auf der Menge N: Für alle n1 , n2 ∈ N sind n1 + n2 und n1 .n2 ebenfalls Elemente in N. Sie sind auch Verknüpfungen auf den Mengen Z, Q und R. 2. Es sei M eine nichtleere Menge und X die Menge aller Funktionen M → M. Komposition ist eine Verknüfung auf X: Für alle Funktionen f , g : M → M ist f ◦ g ebenfalls eine Funktion M → M. Definitionen Es sei X eine nichtleere Menge. Eine Verknüpfung · auf X heißt (i) assoziativ, falls (a · b) · c = a · (b · c) für alle a,b,c ∈ X, (ii) kommutativ, falls a · b = b · a für alle a, b ∈ X. Beispiele 1. Addition und Multiplikation sind assoziative, kommutative Verknüpfungen auf N, Z, Q und R. 2. Es sei X die Menge aller Funktion R → R. 39 2.1 Verknüpfungen, Gruppen und Körper Es seien f , g, h ∈ M. Wegen der Definition ( F1 ◦ F2 )(y) = F1 ( F2 (y)) gilt (( f ◦ g) ◦ h)( x ) = ( f ◦ g)(h( x )) = f ( g(h( x )) und so dass ( f ◦ ( g ◦ h))( x ) = f (( g ◦ h)( x )) = f ( g(h( x )), (( f ◦ g) ◦ h)( x ) = ( f ◦ ( g ◦ h))( x ) für alle x ∈ X. Folglich gilt (( f ◦ g) ◦ h = f ◦ ( g ◦ h), d.h. ◦ ist assoziativ. Es sei f ( x ) = sin x und g( x ) = 2x. Dann ist f ( g( π2 )) = sin(π ) = 0 aber g( f ( π2 )) = 2 sin( π2 ) = 2. Folglich ist f ◦ g 6= g ◦ f , d.h. ◦ ist nicht kommutativ. Definition Eine Gruppe ist eine mit einer Verknüpfung · versehene nichtleere Menge X, die die folgenden Eigenschaften hat. • Die Verknüpfung · ist assoziativ. • Es existiert ein Element i ∈ X derart, dass x · i = i · x = x für alle x ∈ X. • Zu jedem x ∈ X existiert ein Element x −1 ∈ X derart, dass x · x −1 = x −1 · x = i. (Assoziativgesetz) (Existenz eines neutralen Elements) (Existenz von Inversen) Ist die Verknüpfung · auch kommutativ, so handelt es sich um eine Abelsche Gruppe. In der Regel verwenden wir die Schreibweise (X,·) für eine Gruppe. Beispiele 1. (Z,+) ist eine Abelsche Gruppe, wobei das neutrale Element 0 ist, denn 0 + x = x + 0 = x für alle x ∈ N, das inverse Element zu x die Zahl − x ist, denn x + (− x ) = (− x ) + x = 0 für alle x ∈ N. (Q,+) und (R,+) sind ebenfalls Abelsche Gruppen. 40 2.1 Verknüpfungen, Gruppen und Körper 2. (Q \ {0}, .) ist eine Abelsche Gruppe, wobei das neutrale Element 1 ist, denn 1.x = x.1 = x für alle x ∈ Q \ {0}, das inverse Element zu x die Zahl x ∈ Q \ {0}. 1 x ist, denn x. 1x = x1 .x = 1 für alle (R \ {0},.) ist ebenfalls eine Abelsche Gruppe. 3. Es sei X eine nichtleere Menge. Die Menge aller Bijektionen X → X bildet eine Gruppe bezüglich Komposition von Funktionen: Das neutrale Element ist die Identitätsfunktion I : X → X mit I ( x ) = x für alle x ∈ X, denn f ◦ I = I ◦ f = f für jede Bijektion f : X → X. Das Inverse zu f : X → X ist die Umkehrfunktion f −1 : X → X, denn f ◦ f −1 = f −1 ◦ f = I für jede Bijektion f : X → X. Ist X eine endliche Menge, so nennen wir diese Gruppe die symmetrische Gruppe S(X ) von X und bezeichnen ihre Elemente als Permutationen. Für eine Permutation σ der Menge { x1 ,x2 , . . . ,xn } verwendet man oft die Notation x1 x2 · · · x n , σ ( x1 ) σ ( x2 ) · · · σ ( x n ) so dass z.B. 1 2 3 1 3 2 die Permutation 1 7→ 1, 2 7→ 3, 3 7→ 2 der Menge {1,2,3} bezeichnet. Diese Permutation können wir auch in der Zykeldarstellung als (1)(23) oder einfach (23) schreiben. Die Notation S({1, . . . ,n}) kurzen wir oft auf Sn ab, so dass z.B. S3 = {i,(123),(321),(23),(13),(12)}. 4. Eine Symmetrie einer ebenen geometrischen Figur ist eine winkel- und abstandstreue Bijektion der Ebene auf sich selbst, die diese Figur ebenfalls auf sich selbst abbildet. Die Abbildung zeigt die sechs Symmetrien eines gleichseitigen Dreiecks: Die Identität I, Rotationen R±2π/3 durch ± 2π 3 und Reflektionen T1 , T2 , T3 an den Winkelhalbierenden. 41 2.1 Verknüpfungen, Gruppen und Körper 1 2 I R2π/3 1 2 T1 3 3 2 2 R−2π/3 3 1 T2 1 3 2 2 3 1 T3 2 3 1 1 3 Die Menge der Symmetrien oder Symmetriemenge des gleichseitigen Dreiecks ist eine Gruppe bezüglich Kompositionen von Funktionen: Das neutrale Element ist I. −1 1 −1 −1 Es gilt I −1 = I, R2π/3 = R−2π/3 , R− −2π/3 = R2π/3 , T1 = T1 , T2 = T2 und T3−1 = T3 . Die Gruppe ist jedoch nicht Abelsch, denn T1 R2π/3 = T2 aber R2π/3 T1 = T3 . Wir können die Symmetrien auch als Permutationen der Menge {1,2,3,} darstellen: R2π/3 = (123), R−2π/3 = (321), T1 = (23), T2 = (13), T3 = (12). Somit können wir die Symmetriegroupe eines gleichseitigen Dreiecks mit der symmetrischen Gruppe S3 identifizieren. 42 2.1 Verknüpfungen, Gruppen und Körper 5. Es seien m, n ∈ N. Eine (m × n) (reelle) Matrix ist ein mn-Tupel A = (aij ) i=1,...,m, reeller Zahlen. Man schreibt j =1,...,n a11 a12 · · · a1n a21 a22 · · · a2n A = (aij ) = .. .. m Zeilen, .. . . . am1 am2 · · · amn | {z } n Spalten d.h. man ordnet das mn-Tupel (aij ) i=1,...,m, in Form eines rechteckigen Schej =1,...,n mas mit m Zeilen und n Spalten. Der Koeffizient aij steht in der i-ten Zeile und der j-ten Spalte. Die Menge R m×n der (m × n) reellen Matrizen ist eine Abelsche Gruppe bezüglich punktweise Addition der Koeffizienten: (aij ) + (bij ) := (aij + bij ), denn das neutrale Element ist die Nullmatrix (0), deren Koeffizienten alle Null sind, das inverse Element zu (aij ) ist die Matrix (− aij ). Proposition Es sei (X,·) eine Gruppe. 1. Das neutrale Element i ist eindeutig. 2. Es sei x ∈ X. Das inverse Element zu x ist eindeutig. Beweis 1. Es seien i1 und i2 neutrale Elemente, so dass insbesondere x = x · i1 , y = i2 · y für alle x, y ∈ X. Insbesondere gilt dies für x = i2 und y = i1 , sodass Folglich ist i2 = i1 . i2 = i2 · i1 , i1 = i2 · i1 . 43 2.1 Verknüpfungen, Gruppen und Körper 2. Es seien y und z zwei inverse Elemente zu x, sodass y · x = x · y = i, z · x = x · z = i. Nun gilt y = i · y = (z · x ) · y = z · ( x · y) = z · i = z. Von besonderer Bedeutung sind Abbildungen zwischen Gruppen, die mit der Gruppenstruktur verträglich sind. Definition Es seien (G,· G ) und ( H, · H ) Gruppen. Eine Funktion f : G → H mit der Eigenschaft f ( x · G y) = f ( x ) · H f (y) für alle x,y ∈ G heißt (Gruppen-)homomorphismus. Ist f zusätzlich eine Bijektion, so heißt sie (Gruppen-)isomorphismus. Proposition Es seien (G,· G ) und ( H, · H ) Gruppen und f : G → H ein Gruppenhomomorphismums. Dann gilt (i) f (i G ) = i H , wobei i G und i H die neutrale Elemente von G und H sind, (ii) f ( x −1 ) = f ( x )−1 für alle x ∈ G. Beweis Nun schreiben wir · G und · H als ·. Aus dem Kontext wir klar, welcher gemeint ist. (i) Es gilt d.h. f (i G · i G ) = f (i G ) · f (i G ), | {z } = iG f (i G ) = f (i G ) · f (i G ). 44 2.1 Verknüpfungen, Gruppen und Körper Da das einzeige Element a einer (beliebigen) Gruppe mit der Eigenschaft a · a = a das neutrale Element ist, gilt nun f (i G ) = i H . (ii) Es gilt und i H = f (i G ) = f ( x − 1 · x ) = f ( x − 1 ) · f ( x ) i H = f (i G ) = f ( x · x − 1 ) = f ( x ) · f ( x − 1 ). Die Gleichheit f ( x )−1 = f ( x −1 ) folgt nun aus der Eindeutigkeit von Inversen. Beispiele 1. Die Exponentialfunktion exp : (R,·) → (R \ {0},.) ist wegen der Formel exp( x + y) = exp( x ). exp(y), x,y ∈ R ein Gruppenhomomorphismus. 2. In einem früheren Beispiel haben wir die Symmetriegruppe SD des Dreiecks mit der symmetrischen Gruppe S3 identifiziert. Diese Identifizierung lässt sich formal durch die Abbildung S : SD → S3 mit S( I ) = (), S( R2π/3 ) = (123), S(T1 ) = (23), S( R−2π/3 ) = (321), S(T2 ) = (13), S(T3 ) = (12) angeben. Somit ist S : SD → S3 ein Gruppenisomorphismus. 3. Es sei (G,·) eine Gruppe. Ein Automorphismus ist ein Isomorphismus G → G. Die Menge Aut(G ) aller Automorphismen auf G bildet eine Gruppe bezüglich Komposition. Definition Es seien (G,· G ) und ( H, · H ) Gruppen und f : G → H ein Gruppenhomomorphismums. Der Kern von f ist die Teilmenge ker f := f −1 (i H ) = { x ∈ G : f ( x ) = i H } von G. 45 2.1 Verknüpfungen, Gruppen und Körper Bemerkung Definitionsgemäß liegt i G in ker f . Proposition Es seien (G,· G ) und ( H, · H ) Gruppen und f : G → H ein Gruppenhomomorphismums. Dann ist f genau dann injektiv, wenn ker f = {i G } ist. Beweis Es sei f injektiv. Wähle x ∈ ker f , Aus f ( x ) = f (i G ) = i H folgt x = i G . Folglich ist ker f = {i G }. Nun sei ker f = {i G }. Wähle x1 , x2 ∈ G mit f ( x1 ) = f ( x2 ). Aus f ( x1−1 · x2 ) = f ( x1−1 ) · f ( x2 ) = f ( x1 )−1 · f ( x2 ) = f ( x1 )−1 · f ( x1 ) = i H folgt x1−1 · x2 ∈ ker f . Folglich gilt x1−1 · x2 = i G und daher x2 = x1 . Somit ist f injektiv. Definition Eine Untergruppe (Y,·) einer Gruppe (X, ·) besteht aus einer Teilmenge Y von X, die bezüglich der Verknüpfung · wieder eine Gruppe ist. Proposition Es seien (X,·) eine Gruppe und Y eine nichtleere Teilmenge von X. Es gelte 1. i ∈ Y, 2. Y ist abgeschlossen bezüglich ·, d.h. x1 , x2 ∈ Y ⇒ x1 · x2 ∈ Y, 3. Y ist abgeschlossen bezüglich der Inversen, d.h. x ∈ Y ⇒ x −1 ∈ Y. Dann ist (Y,·) eine Untergruppe von (X,·). 46 2.1 Verknüpfungen, Gruppen und Körper Proposition Es seien (G,· G ) und ( H, · H ) Gruppen und f : G → H ein Gruppenhomomorphismums. 1. Die Bildmenge von f ist eine Untergruppe von H. 2. Der Kern von f ist eine Untergruppe von G. Beweis 1. Offenbar ist i H = f (i G ) ∈ R( f ), und für jedes f ( x ) ∈ R( f ) ist f ( x )−1 = f ( x −1 ) ∈ R( f ). Schießlich seien f ( x1 ), f ( x2 ) ∈ R( f ). Dann ist f ( x1 ) · f ( x2 ) = f ( x1 · x2 ) ∈ R( f ). 1 2. i G ∈ ker f . Aus x ∈ ker f folgt x −1 ∈ ker f , denn f ( x −1 ) = f ( x )−1 = i − H = iH. Schließlich seien x1 , x2 ∈ ker f . Dann gilt f ( x1 · x2 ) = f ( x1 ) · f ( x2 ) = i H · i H = i H , so dass x1 · x2 ∈ ker f . Wir werden Gruppentheorie in dieser Vorlesung nicht weiter vertiefen. Definition Ein Körper ist eine mit zwei Verknüpfungen + (‘Addition’) und . (’Multiplikation’) versehene nichtleere Menge X, die die folgenden Eigenschaften haben. ∀ x,y,z ∈ X (Assoziativgesetz der Addition) (A2) x + y = y + x ∀ x,y ∈ X (Kommutativgesetz der Addition) (A3) Es existiert ein Element (Existenz eines neutralen 0 ∈ X mit der Eigenschaft Elements der Addition) x + 0 = 0 + x = x ∀x ∈ X (A4) Zu jedem x ∈ X existiert (Existenz additiver ein Element − x ∈ X derart, dass inverser Elemente) x + (− x ) = − x + x = 0 (A1) x + (y + z) = ( x + y) + z 47 2.1 Verknüpfungen, Gruppen und Körper (A5) x.(y.z) = ( x.y).z (A6) x.y = y.x ∀ x,y,z ∈ X ∀ x,y ∈ X (A7) Es existiert ein Element 1 ∈ X \ {0} mit der Eigenschaft 1.x = x.1 = x ∀ x ∈ X (A8) Zu jedem x ∈ X \{0} existiert ein Element x −1 ∈ X derart, dass x.x −1 = x −1 .x = 1 (A9) x.(y + z) = x.y + x.z ∀ x,y,z ∈ X (Assoziativgesetz der Multiplikation) (Kommutativgesetz der Multiplikation) (Existenz eines neutralen Elements der Multiplikation) (Existenz multiplikativer inverser Elemente) (Distributivgesetz) In der Regel verwenden wir die Schreibweise (X, + ,.) für einen Körper. Bemerkungen 1. (A1)-(A4) besagen, dass (X,+) eine Abelsche Gruppe ist. (A5)-(A8) besagen dagegen, dass (X \ {0},.) eine Abelsche Gruppe ist. 2. Insgesamt besagen diese Eigenschaften, dass die ‘üblichen’ Regeln der Arithmetik innerhalb eines Körpers gelten. Beispiel Die Menge der reellen Zahlen bildet einen Körper bezüglich Addition und Multiplikation. In der Regel schreiben wir a.b, a.b−1 und a + (−b) als ab, a/b bzw. a − b. Definition Ein Unterkörper oder Teilkörper (Y, + ,.) eines Körpers (X, + ,.) besteht aus einer Teilmenge Y von X, die bezüglich der Verknüpfungen + und . wieder ein Körper ist. 48 2.1 Verknüpfungen, Gruppen und Körper Proposition Es seien (X, + ,.) ein Körper und Y eine nichtleere Teilmenge von X. Es gelte 1. 0,1 ∈ Y, 2. Y ist abgeschlossen bezüglich + und ., d.h. x1 , x2 ∈ Y ⇒ x1 + x2 , x1 .x2 ∈ Y, 3. Y ist abgeschlossen bezüglich der Inversen, d.h. x ∈ Y ⇒ − x, x −1 ∈ Y. Dann ist (Y, + ,.) ein Teilkörper von (X, + ,.). Beispiel Die Menge Q= nm : m ∈ Z, n ∈ Z \ {0} o n der rationalen Zahlen bildet einen Teilkörper von (R, + ,.): Für jedes n ∈ Z \{0} ist 0= 0 , n 1= n , n so dass 0, 1 Elemente in Q sind. Q is abgeschlossen bezüglich der Addition und Multiplikation der reellen Zahlen, denn mit a, c ∈ Z und b, d ∈ Z \ {0} ist a c a.d + b.c + = ∈ Q, b d b.d a c a.c . = ∈ Q. b d b.d Für m ∈ Z, n ∈ Z \ {0} ist − und für m, n ∈ Z \{0} ist m n = m −1 (−m) ∈Q n n ∈ Q. n m Q ist also abgeschlossen bezüglich der Inversen. = 49 2.2 Komplexe Zahlen 2.2 Komplexe Zahlen Definitionen Eine komplexe Zahl ist ein geordnetes Paar (a,b), wobei a und b reelle Zahlen sind. Die Menge aller komplexen Zahlen bezeichnen wir mit C. Lemma Mit den durch die Formeln (a,b) + (c,d) := (a + c,b + d), (a,b).(c,d) := (ac − bd, ad + bc) (Addition) (Multiplikation ) definierten Verknüpfungen bildet die Menge C einen Körper. Dabei sind die neutrale Elemente der Addition und Multiplikation (0,0) bzw. (1,0) und b a −1 ,− 2 . −(a,b) = (− a, − b), (a,b) = a2 + b2 a + b2 Lemma 1. Die Teilmenge X = {(a,0) : a ∈ R } von C bildet einen Teilörper von (C, + ,.) 2. Die Abbildung ψ : (a,0) 7→ a ist ein Körperisomorphismus X → R, d.h. eine Bijektion X → R mit ψ ( x 1 + x 2 ) = ψ ( x 1 ) + ψ ( x 2 ), ψ( x1 .x2 ) = ψ( x1 )ψ( x2 ) für alle x1 , x2 ∈ X. Beweis 1. Wir müssen zeigen: 50 2.2 Komplexe Zahlen (i) Die additive Identität sowie die multiplikative Identität gehören zu X. Dies ist trivial: (0,0), (1,0) ∈ X. (ii) X ist abgeschlossen bezüglich + und .. Dies folgt aus (a,0) + (b,0) = (a + b,0), (a,0).(b,0) = (ab,0) (1) (2) (iii) X is abgeschlossen bezüglich der Inversen. Dies folgt aus −(a,0) = (− a,0), (a,0)−1 = (a−1 ,0), a 6= 0. 2. Dies folgt aus (1) und (2). (3) (4) Bemerkung Die obige Notation für komplexe Zahlen ist etwas umständlich und wird üblicherweise vereinfacht wie folgt. Wir identifizieren die Teilmenge X von C mit R und schreiben (a,0) als a. Wir definieren i = (0,1) und bemerken, dass i.i = (0,1).(0,1) = (−1,0) = −1. Damit gilt (a,b) = (a,0) + (0,b) = (a,0) + (0,1).(b,0) = a + ib. Wir schreiben also (a,b) als a + ib and arbeiten mit den üblichen Rechenregeln und dem Zusatz i2 = −1. 51 2.2 Komplexe Zahlen Beispiel Es seien z1 = ( x1 ,y1 ), z2 = ( x2 ,y2 ). Dann gilt z1 z2 = ( x1 ,y1 ).( x2 ,y2 ) = ( x1 x2 − y1 y2 ,x1 y2 + x2 y1 ). Schreibe nun z1 = x1 + iy1 , z2 = x2 + iy2 . Dann gilt z1 z2 = ( x1 + iy1 )( x2 + iy2 ) = x 1 x 2 + x 1 y 2 i + x 2 y 1 i + y 1 y 2 i2 = x1 x2 − y1 y + ( x1 y2 + x2 y1 )i. Definitionen Betrachte die komplexe Zahl z = x + iy. 1. x ist der Realteil von z. Wir schreiben x = Re z. 2. y ist der Imaginärteil von z. Wir schreiben x = Im z. 3. x − iy ist die zu z konjugiert komplexe Zahl. Wir schreiben x − iy = z̄. 4. p x2 + y2 ist der Betrag von z. Wir schreiben p x 2 + y2 = | z |. z heißt reell, falls Im z = 0 ist, und imaginär, falls Re z = 0 ist. Proposition Für jede komplexe Zahl z gilt 1. z + z̄ = 2Re z, 2. z − z̄ = 2i Im z, 3. zz̄ = |z|2 . 52 2.2 Komplexe Zahlen Proposition Für alle komplexen Zahlen z1 , z2 gelten die Regeln 1. z1 + z2 = z̄1 + z̄2 , 2. z1 z2 = z̄1 z̄2 , 3. 1 1 = , falls z1 6= 0, z̄1 z1 4. z̄1 = z1 , 5. |z̄1 | = |z1 |. Geometrische Darstellungen komplexer Zahlen Da eine komplexe Zahl ein geordnetes Paar ( x,y) reeller Zahlen ist, können wir sie als Punkt in der Koordinatenebene (komplexer Ebene oder Gaußscher Zahlenebene) darstellen: Im z = x + iy y Im z Re z −y x Re z̄ wird von z durch eine Spiegelung an der reellen Achse hergeleitet. z̄ = x − iy Es ist auch hilfreich, Polarkoordinaten einzuführen: 53 2.2 Komplexe Zahlen Im Hier gilt z = x + iy y x = r cos θ, y = r sin θ, q r = x 2 + y2 , y tan θ = . x r θ Re x Bemerke insbesondere, das r = | z |. Der Winkel θ heißt Argument der komplexen Zahl z = x + iy. Er ist nicht eindeutig: Er ist nur bis auf ganzzahlige Vielfache von 2π bestimmt. Diese Mehrdeutigkeit wird behoben, indem man sich auf Werte von θ im Intervall (−π,π ] einschränkt. In diesem Fall ist θ das Haupt- oder Prinzipalargument von z und wird mit arg z bezeichnet: Im Im z z |z| arg z |z| arg z Re Re Im Im Re arg z Re |z| arg z |z| z z 54 2.2 Komplexe Zahlen Beispiel Beschreiben Sie die folgenden Mengen geometrisch. (i) {z ∈ C : |z − (1 + i)| = 3} (ii) {z ∈ C : 1 < |z| ≤ 3} (iii) {z ∈ C : |z − i| < |z + i|} (iv) {z ∈ C : −π/4 < arg z ≤ π/4} Lösung (i) {z ∈ C : |z − (1 + i)| = 3} ist die Menge der komplexen Zahlen, deren Distanz zur komplexen Zahl 1 + i gleich 3 ist. Sie ist daher ein Kreis mit Mittelpunkt 1 + i und Radius 3: Im 1 1+ i 3 1 Re (ii) {z ∈ C : 1 < |z| ≤ 3} ist die Menge der komplexen Zahlen, deren Distanz zum Nullpunkt größer als 1 und kleiner als oder gleich 3 ist. Es handelt sich daher um einen Annulus mit Mittelpunkt 0 und Radien 1 und 3: 55 2.2 Komplexe Zahlen Im 1 3 Re (iii) {z ∈ C : |z − i| < |z + i|} ist die Menge der komplexen Zahlen, die näher an i als an −i liegen. Sie ist also die obere Halbebene: Im 1 Re −1 (iv) {z ∈ C : −π/4 < arg z ≤ π/4} ist die Menge der komplexen Zahlen, deren Winkel zur reellen Achse zwischen −π/4 und π/4 liegt. Es handelt sich daher um einen Sektor: 56 2.2 Komplexe Zahlen Im π 4 π 4 Re Lemma Betrachte die komplexen Zahlen z1 = x1 + iy1 = r1 cos θ1 + ir1 sin θ1 , z2 = x2 + iy2 = r2 cos θ2 + ir2 sin θ2 . Es gelten die Regeln z1 z2 = r1 r2 cos(θ1 + θ2 ) + ir1 r2 sin(θ1 + θ2 ) (i) und z1n = r1n cos nθ1 + ir1n sin nθ1 , n = 1,2,3, . . . . (Satz von de Moivre) (ii) Beweis (i) Es gilt z1 z2 = (r1 cos θ1 + ir1 sin θ1 )(r2 cos θ2 + ir2 sin θ2 ) = r1 r2 cos θ1 cos θ2 + i2 r1 r2 sin θ1 sin θ2 + ir1 r2 cos θ1 sin θ2 + ir1 r2 sin θ1 cos θ2 = r1 r2 (cos θ1 cos θ2 − sin θ1 sin θ2 ) + ir1 r2 (cos θ1 sin θ2 + sin θ1 cos θ2 ) = r1 r2 cos(θ1 + θ2 ) + ir1 r2 sin(θ1 + θ2 ). 57 2.2 Komplexe Zahlen (ii) Dieses Ergebnis folgt induktiv aus (i). Bemerkung Wir können (i) geometrisch interpretieren: Die Distanz des Punktes z1 z2 zum Nullpunkt in der komplexen Ebene ist das Produkt der Distanzen der beiden Punkten z1 und z2 zum Nullpunkt und der Winkel des Punktes z1 z2 zur reellen Achse ist die Summe der Winkel der beiden Punkten z1 und z2 zur reellen Achse: Im z1 z 2 z2 r1 r2 r2 θ1+θ2 r1 θ1 z1 θ2 Re Funktionen einer komplexen Veränderlichen Wir beginnen mit den Definitionen der Exponential-, trigonometrischen und hyperbolischen Funktionen. 58 2.2 Komplexe Zahlen Definitionen Für z ∈ C definieren wir ez := ex (cos y + i sin y), 1 sin z := (eiz − e−iz ), 2i 1 cos z := (eiz + e−iz) , 2 1 sinh z := (ez − e−z ), 2 1 z cosh z := (e + e−z ). 2 wobei x = Re z, y = Im z, Weitere spezielle Funktionen wie tan(·), cot(·), usw. werden durch diese Grundfunktionen auf der üblichen Art und Weise definiert. Proposition Es gelten cosh z = cos(iz), sinh z = −i sin(iz), eiθ = cos θ + i sin θ, z ∈ C, z ∈ C, θ ∈ R, (Eulers Formel) und die Grundidentitäten für die Beziehungen zwischen den Exponential-, trigonometrischen und hyperbolischen Funktionen sind weiterhin gültig. Bemerkung Wir können die komplexe Zahl z in Polarkoordinaten als z = r cos θ + ir sin θ schreiben und durch Eulers Formel als z = reiθ umschreiben. 59 2.2 Komplexe Zahlen Bemerkungen (Nullstellen) 1. Die Berechnung |ez | = |ex (cos y + i sin y)| = |ex || cos y + i sin y| = ex für z = x + iy mit x,y ∈ R zeigt, dass |ez | = eRe z . Insbesondere hat die Exponentialfunktion keine Nullstellen in der komplexen Ebene. 2. Es gilt sin z = 0 ⇔ cos z = 0 ⇔ z = 0, ±π, ±2π, . . . , π 3π 5π z = ± ,± ,± ,... 2 2 2 (siehe unten). 3. Aus den Formeln in der letzten Proposition folgt sinh z = 0 ⇔ cosh z = 0 ⇔ z = 0, ±πi, ±2πi, . . . , πi 3πi 5πi z = ± ,± ,± ,.... 2 2 2 Beispiel Finden Sie die Nullstellen der Funktion cos(·) : C → C. 60 2.2 Komplexe Zahlen Lösung Es gilt cos z = 0 1 ⇔ (eiz + e−iz ) = 0 2 ⇔ eiz = −e−iz ⇔ e2iz = −1. Schreibe nun z = x + iy und bemerke, dass −1 = 1eiπ : Im | − 1| = 1 π arg(−1) = π −1 Re 1 Daher gilt ⇔ ⇔ ⇔ ⇔ e2iz = −1 e2i (x+iy) = −1 e−2y e2ix = 1eiπ 2x = π + 2nπ, n = 0, ± 1, ± 2, . . . e−2y = 1, π y = 0, x = + nπ, n = 0, ± 1, ± 2, . . . . 2 Es ist also cos z = 0 ⇔ π 3π 5π z = ± ,± ,± ,.... 2 2 2 Definition Es sei n ∈ N0 . Ein komplexes Polynom n-ten Grades ist ein Ausdruck der Form a n z n + a n − 1 z n − 1 + . . . + a1 z + a0 , wobei a0 , . . . , an konstante komplexe Zahlen sind und an 6= 0 ist. 61 2.2 Komplexe Zahlen Satz (Fundamentalsatz der Algebra) Es sei n ∈ N. Jedes komplexe Polynom n-ten Grades hat eine komplexe Nullstelle. Korollar Es sei n ∈ N. Jedes Polynom z n + a n − 1 z n − 1 + . . . + a1 z + a0 n-ten Grades hat n komplexe Nullstellen z1 ,. . . ,zn (die nicht notwendigerweise verschieden sind), und lässt sich daher als zn + an−1 zn−1 + . . . + a1 z + a0 = (z − z1 )(z − z2 ) . . . (z − zn ) zerlegen, wobei wir ohne Beschränkung der Allgemeinheit an = 1 gesetzt haben. Bemerkung Falls die Koeffizienten a0 , . . . , an reell sind, kommen alle Nullstellen in konjugiert komplexen Paaren vor (im Sonderfall können sie reell sein). Es sei nämlich z⋆ eine Nullstelle. Dann gilt a n ( z ⋆ ) n + a n − 1 ( z ⋆ ) n − 1 + . . . + a1 ( z ⋆ ) + a0 = 0 ⇒ a n ( z ⋆ ) n + a n − 1 ( z ⋆ ) n − 1 + . . . + a1 ( z ⋆ ) + a0 = 0 ⇒ ān (z̄⋆ )n + ān−1 (z̄⋆ )n−1 + . . . + ā1 z̄⋆ + ā0 = 0 ⇒ an (z̄⋆ )n + an−1 (z̄⋆ )n−1 + . . . + a1 z̄⋆ + a0 = 0, (da a0 , . . . , an reell sind) so dass z̄⋆ ebenfalls eine Nullstelle ist. Definition Eine n-te Wurzel einer komplexen Zahl a ist eine Lösung der Gleichung zn = a. 62 2.2 Komplexe Zahlen Beispiel Finden Sie alle fünften Einheitswurzeln und interpretieren Sie das Ergebnis geometrisch. Lösung Wir müssen alle Lösungen der Gleichung z5 = 1 finden. Schreibe nun z = reiθ und bemerke, dass 1 = 1ei0 : Im |1| = 1 arg(1) = 0 1 Re 1 Daher gilt z5 = 1 ⇔ r5 e5iθ = 1ei0 ⇔ r5 = 1, 5θ = 0 + 2nπ, n = 0, ± 1, ± 2, . . . 2nπ , n = 0, ± 1, ± 2, . . . . ⇔ r = 1, θ= 5 | {z } Die fünf Werte dieses Ausdrucks in 4π 2π 4π (−π,π ] sind 0, 2π 5 , 5 ,− 5 ,− 5 Die fünften Einheitswurzel sind also ei0 , |{z} =1 e 2πi 5 , e 4πi 5 , e− 2πi 5 , e− 4πi 5 . 63 2.2 Komplexe Zahlen Im e e 2πi 5 4πi 5 Die Wurzeln sind fünf gleichmäßig verteilte Punkte auf einem Kreis mit Mittelpunkt 0 und Radius 1. 2π 5 1 Re Sie bilden die Eckpunkte eines regelmäßigen Fünfecks. e− 4πi 5 e− 2πi 5 Das folgende Lemma wird durch die Methode im obigen Beispiel bewiesen. Lemma Es sei n eine natürliche Zahl und a eine von Null verschiedene komplexe Zahl. Dann hat a genau n verschiedene n-te Wurzeln. Falls n ≥ 3 ist, so sind sie n gleichmäßig verteilte Punkte auf einem Kreis mit Mittelpunkt 0 und Radius | a|1/n . Sie bilden somit ein regelmäßiges n-Eck. Proposition Es seien a, b, c konstante komplexe Zahlen mit a 6= 0. Das quadratische Polynom az2 + bz + c besitzt genau die eine Nullstelle −b/(2a), falls b2 − 4ac = 0, genau die zwei Nullstellen −b/(2a) + z1 , −b/(2a) + z2 wobei z1 , z2 die beiden Wurzeln aus (b2 − 4ac)/(4a2 ) sind, falls b2 − 4ac 6= 0. 64 2.2 Komplexe Zahlen Beweis Quadratische Ergänzung ergibt b az + bz + c = a z + 2a 2 2 − b2 −c . 4a Bemerkung Da z2 = −z1 ist, missbrauchen wir oft die Notation und fassen die obige Proposition als r b b2 − 4ac z=− ± 2a 4a2 p zusammen, wobei (b2 − 4ac)/4a2 entweder für z1 oder für z2 steht. Beispiel Finden Sie alle komplexen Nullstellen des Polynoms z3 − 3z2 + 4z − 2. Lösung 1 ist offenbar eine Nullstelle, so dass (z − 1) Faktor des Polynoms ist. Aus der Rechnung z2 − 2z + 2 z − 1 z3 − 3z2 + 4z − 2 z3 − z2 −2z2 + 4z − 2 −2z2 + 2z 2z − 2 2z − 2 0 65 2.2 Komplexe Zahlen folgt z3 − 3z2 + 4z − 2 = (z − 1)(z2 − 2z + 2). Die Nullstellen des Polynoms z2 − 2z + 2 finden wir mit Hilfe der Formel aus der letzten Proposition. Sie sind r √ 2 4 − 4.1.2 ± = 1 ± −1 = 1 ± i. 2 4 Damit ist z3 − 3z2 + 4z − 2 = (z − 1)(z − 1 − i)(z − 1 + i). 66 3 Vektorräume 3 Vektorräume 3.1 Einführung Definition Es sei (V,+ ) eine Abelsche Gruppe mit neutralem Element 0, so dass (V1) (u + v) + w = u + (v + w) ∀u, v, w ∈ V, (V2) v+w=w+v ∀v, w ∈ V, (V3) v+ 0 = 0+ v = v ∀v ∈ V, (V4) Zu jedem v ∈ V existiert ein eindeutiges Element − v ∈ V derart, dass − v) = 0. − v + v = v + (− Nun sei (K, + ,·) ein Körper mit neutralen Elementen 0 und 1. Wir nennen V einen Vektorraum über K, falls es eine Abbildung mit den Eigenschaften (S1) (S2) K × V → V, (α, v) 7→ αv (⋆) (α + β)v = αv + βv ∀α, β ∈ K, v ∈ V (α · β)v = α( βv) ∀v ∈ V ∀α, β ∈ K, v ∈ V (S3) 1v = v (S4) α(v + w) = αv + αw ∀α ∈ K, v, w ∈ V. Die Elemente von V und K heißen Vektoren bzw. Skalare, die Verknüpfung + heißt Vektoraddition, und die Abbildung (⋆) heißt Skalarmultiplikation. Ist K = R oder C, so bezeichnen wir V als reellen bzw. komplexen Vektorraum. Proposition Es sei V ein Vektorraum über einem Körper K. Dann gilt 0v = 0 und für alle v ∈ V. (−1)v = − v 67 3.1 Einführung Beweis Es gilt 0v = (0 + 0)v (Definition des additiven neutralen Elements in K) = 0v + 0v (S1) und folglich ist 0v = 0, denn das einzige Element x in der Gruppe (V,+ ) mit x + x = x ist x = 0. Ferner gilt v + (−1)v = 1v + (−1)v (S3) = (1 − 1 ) v (S1) = 0v (Definition des additiven neutralen Elements in K) = 0, so dass − v = (−1)v (wegen der Eindeutigkeit der inversen Elemente in der Gruppe (V,+ )). Bemerkung In der Regel schreibt man + sowie − als + bzw. −, denn aus dem Kontext wird klar, welche Verknüpfung gemeint ist. In den meisten Beispielen schreibt man die Vektoren auch nicht fett. Beispiele 1. Die Menge R n = {x = ( x1 , . . . ,xn ) : x1 , . . . , xn ∈ R } ist ein reeller Vektorraum mit punktweiser Vektoraddition x + y : = ( x1 + y1 , . . . , x n + y n ) und Skalarmultiplikation αx := (αx1 , . . . , αxn ). In den Fällen n = 2 oder n = 3 lassen sich solche Vektoren als Pfeile in der Ebene bzw. Raum veranschaulichen. Der Vektor x = ( x1 ,x2 ,x3 ) stellt dabei eine Verschiebung um Distanz xi in Richtung i dar. 68 3.1 Einführung x x 0 0 y x+y Der Vektor x + y stellt eine Verschiebung um Distanz xi + yi in Richtung i dar. y 3 x 2 x 0 0 0 − 32 x Der Vektor αx stellt eine Verschiebung um Distanz αxi in Richtung i dar. 2. Es sei K ein Körper. Die Menge K n ist ein Vektorraum über K mit punktweiser Vektoraddition und Skalarmultiplikation. 3. Die Menge {0} (mit trivialer Vektoraddition und Skalarmultiplikation) ist ein Vektorraum über jeden Körper. 4. Die Menge R m×n der (m × n) reellen Matrizen ist ein reeller Vektorraum mit punktweiser Vektoraddition (aij ) + (bij ) := (aij + bij ), d.h. a11 a12 · · · a1n b11 b12 · · · b1n a a22 · · · a2n b b22 · · · b2n 21 21 .. .. .. + .. .. .. . . . . . . am1 am2 · · · amn bm1 bm2 · · · bmn a11 + b11 a12 + b12 · · · a1n + b1n a21 + b21 a22 + b22 · · · a2n + b2n := .. .. .. . . . am1 + bm1 am2 + bm2 · · · amn + bmn und Skalarmultiplikation α(aij ) = (αaij ), 69 3.1 Einführung d.h. a11 a12 · · · a1n αa11 αa12 · · · αa1n a a22 · · · a2n αa αa22 · · · αa2n 21 21 α .. : = .. .. .. .. .. . . . . . . . am1 am2 · · · amn αam1 αam2 · · · αamn 5. Die Menge K m×n der (m × n) Matrizen mit Einträgen aus einem Körper K ist ein Vektorraum über K mit punktweiser Vektoraddition und Skalarmultiplikation. 6. Die Menge aller Funktionen f : R → R ( f : C → C) ist ein reeller (komplexer) Vektorraum mit punktweiser Vektoraddition ( f + g)( x ) := f ( x ) + g( x ), x ∈ R (C ) und Skalarmultiplikation (α f )( x ) := α f ( x ), x ∈ R (C ). Definition Es sei V ein Vektorraum über einem Körper K. Eine Teilmenge W von V heißt Unterraum von V, falls W ein Vektorraum über demselben Körper K ist. Bemerkung W 6= ∅ ist ein Unterraum von V genau dann, wenn (i) W abgeschlossen bezüglich Skalarmultiplikation ist, d.h. αw ∈ W für alle w ∈ W und α ∈ K. (ii) W abgeschlossen bezüglich Vektoraddition ist, d.h. w1 + w2 ∈ W für alle w1 , w2 ∈ W, ((i) impliziert 0 ∈ W und −w ∈ W für alle w ∈ W, so dass aus (i), (ii) folgt, dass (W,+) eine Abelsche Gruppe ist.) 70 3.1 Einführung Beispiele 1. Es seien K ein Körper, n eine natürliche Zahl und λ1 , . . . , λn feste Zahlen in K, die nicht alle verschwinden. Die Hyperebene E = {k = (k1 , . . . ,kn ) : λ1 k1 + · · · + λn k1 = 0}, die offentsichlich 0 enthält, ist ein Unterraum von K n : Es seien k = (k1 , . . . ,kn ) ∈ E, so dass λ1 k1 + · · · + λn kn = 0, und α ∈ K. Dann erfüllt αk = (αk1 , . . . , αkn ) die Gleichung λ1 (αk1 ) + · · · + λn (αkn ) = 0, so dass αk ∈ E. Es seien k = (k1 , . . . ,kn ), ℓ = (ℓ1 , . . . ,ℓn ) ∈ E, so dass λ1 k1 + · · · + λn k1 = 0 und λ1 ℓ1 + · · · + λn ℓn = 0. Dann erfüllt k + ℓ = (k1 + ℓ1 , . . . , kn + ℓn ) die Gleichung λ1 (k1 + ℓ1 ) + · · · + λn (kn + ℓn ) = 0, so dass k + ℓ ∈ E. Nun sei K = R. y Im Falle n = 2 ist E x E = {( x,y) ∈ R2 : λ1 x + λ2 y = 0} eine Gerade durch den Nullpunkt. z Im Falle n = 3 ist E y E = {( x,y,z) ∈ R3 : λ1 x + λ2 y + λ3 z = 0} eine Ebene durch den Nullpunkt. x 71 3.1 Einführung 2. Es sei F (R ) der reelle Vektorraum aller Funktionen R → R. Die Menge P(R ) = {αn x n + αn−1 x n−1 + · · · + α1 x + α0 : n ∈ N0 , α0 , . . . ,αn ∈ R } aller reellen Polynome ist ein Unterraum vom F (R ). 3. Es sei n ∈ N0 . Die Menge Pn (R ) = {αn x n + αn−1 x n−1 + · · · + α1 x + α0 : α0 , . . . ,αn ∈ R } aller reellen Polynome mit Grad kleiner gleich n ist ein Unterraum von P(R ). Proposition Es seien V ein Vektorraum über einem Körper K und {Wi }i ∈ I eine Familie von T Unterräumen von V. Dann ist W := Wi ein Unterraum von V. i∈ I Beweis Da 0 ∈ Wi für alle i ∈ I ist, ist 0 ∈ T i∈ I Wi = W. Es seien w ∈ W und α ∈ K. Aus w ∈ T i∈ I Wi folgt w ∈ Wi für alle i ∈ I. Da Wi ein Unterraum von V ist, gilt αw ∈ Wi für alle i ∈ I und daher w ∈ Es seien w1 , w2 ∈ W. Aus w1 , w2 ∈ ein Unterraum von V ist, gilt T Wi = W. i∈ I T T i∈ I Wi = W. Wi folgt w1 , w2 ∈ Wi für alle i ∈ I. Da Wi i∈ I w1 + w2 ∈ Wi für alle i ∈ I und daher w1 + w2 ∈ Bemerkung Im Allgemeinen ist die Vereinigungsmenge zweier Unterräume eines Vektorraums selbst kein Unterraum. 72 3.2 Elementare Vektorraumtheorie y E2 Die Mengen E1 = {( x,0) : x ∈ R } und E2 = {(0,y) : y ∈ R } sind Unterräume von R2 . (1,1) E1 x Es gilt (1,0) ∈ E1 , (0,1) ∈ E2 aber (1,1) = (1,0) + (0,1) 6∈ E1 ∪ E2 . Bemerkung In der linearen Algebra ist es üblich, die n-Tupel (k1 , . . . , kn ) der Vektorräume K n eher als Spaltenvektoren k1 .. . kn zu schreiben, und wir werden nun in diese Praxis übergehen. 3.2 Elementare Vektorraumtheorie Definition Es seien V ein Vektorrraum über einem Körper K und v1 , v2 , . . . , vn Vektoren aus V. Eine lineare Kombination von v1 , v2 , . . . , vn ist ein Vektor der Form k 1 v1 + k 2 v2 + . . . k n v n , wobei k1 , k2 , . . . , kn Skalare sind. Beispiele R2 1 1 und eine lineare Kombination der Vektoren ist der Vektor 0 1 1. In 0 in R2 , denn 1 0 1 1 . +1 =1 1 0 1 73 3.2 Elementare Vektorraumtheorie 2. In P(R ) ist das Polynom x4 + x2 + 2 eine lineare Kombination der Polynome x4 + 21 x2 , x2 + 1 und 1, denn x4 + x2 + 2 = 1( x4 + 21 x2 ) + 12 ( x2 + 1) + 21 (1). Definition Es seien V ein Vektorrraum über einem Körper K und v1 , v2 , . . . , vn Vektoren aus V. Das Erzeugnis dieser Vektoren ist die Menge h v1 , . . . , v n i = { k 1 v1 + k 2 v2 + · · · k n v n : k 1 , k 2 , . . . , k n ∈ K } aller möglichen liearen Kombinationen von v1 , v2 , . . . , vn . Beispiel 1. In P(R ) ist h1, x, x2 i = {α0 + α1 x + α2 x2 : α0 , α1 , α2 ∈ R } = P2 (R ). 2. Es seien v1 , v2 6= 0 zwei nichtparallelen Vektoren in R3 (d.h. es gibt kein λ ∈ R derart, dass v2 = λv1 ). Dann ist h v1 , v2 i = { x ∈ R 3 = α 1 v2 + α 2 v2 : α 1 , α 2 ∈ R } eine Ebene durch den Nullpunkt: v2 v1 0 Bemerkung In der Regel definieren wir h∅i = {0}. 74 3.2 Elementare Vektorraumtheorie Proposition Es seien V ein Vektorrraum über einem Körper K und v1 , v2 , . . . , vn Vektoren aus V. Das Ergeuznis von v1 , . . . , vn ist ein Unterraum von V. Beweis Offensichtlich ist 0 ∈ hv1 , . . . , vn i. Es seien α ∈ K und v ∈ hv1 , . . . , vn i, so dass es k1 , . . . , kn ∈ K mit v = k 1 v1 + · · · + k n v n gibt. Dann ist aber αv = αk1 v1 + · · · + αkn vn ∈ hv1 , . . . , vn i. Es seien v, w ∈ hv1 , . . . , vn i, so dass es k1 , . . . , kn , ℓ1 , . . . , ℓn ∈ K mit v = k 1 v1 + · · · + k n v n , w = ℓ1 v 1 + · · · + ℓ n v n gibt. Dann ist aber v + w = ( k 1 + ℓ1 ) v 1 + · · · + ( k n + ℓ n ) v n ∈ h v 1 , . . . , v n i. Definition Ein Vektorraum V heißt endlichdimensional, falls es eine endliche Teilmenge S von V gibt, so dass hSi = V. Ansonsten ist er unendlichdimensional. Beispiele 1. Der Vektorraum R2 ist endlichdimensional, denn α1 2 : α1 , α2 ∈ R R = α2 1 0 + α2 : α1 , α2 ∈ R = α1 0 1 0 1 . , = 1 0 75 3.2 Elementare Vektorraumtheorie 2. Der Vektorraum P(R ) ist unendlichdimensional. Es sei nämlich S eine nichtleere endliche Teilmenge von P(R ). Setze m = max{deg p : p ∈ S}. Dann ist x m+1 6∈ hSi, so dass P(R ) 6= hSi. 3. Der Vektorraum {0} (über einen beliebigen Körper) ist endlichdimensional, denn {0} = h∅i. Definition Es seien V ein Vektorrraum über einem Körper K. Die Vektoren v1 , v2 , . . . , vn aus V heißt linear unabhängig, falls α1 v1 + · · · + α n v n = 0 ⇒ α1 = 0, . . . , αn = 0. Ansonsten ist sie linear abhängig. Bemerkung Betrachten wir α1 v1 + · · · + α n v n = 0 als Gleichung für α1 , . . . , αn , so ist α1 = 0, . . . , αn = 0 immer eine Lösung. Dass v1 , . . . , vn linear unabhängig sind, ist die Aussage, dass dies die einzige Lösung ist. Beispiele 1 0 0 3 0 1 1. In R sind die Vektoren , , 1 linear unabhängig, denn aus 0 0 0 0 1 0 0 α1 0 + α2 1 + α3 1 = 0 0 0 0 0 {z } | α1 = α2 α3 folgt α1 = 0, α2 = 0, α3 = 0. 76 3.2 Elementare Vektorraumtheorie 1 1 2. In R3 sind die Vektoren 1, −1, ebenfalls linear unabhängig, denn 0 0 aus 1 1 0 α 1 1 + α 2 − 1 = 0 0 0 0 | {z } α1 + α2 = α1 − α2 0 folgt α1 + α2 = 0, α1 − α2 = 0 und daher α1 = 0, α2 = 0. 3. In F (R ) sind die Funktionen sin(·) und cos(·) linear unabhängig, denn aus α1 sin x + α2 cos x = 0, für alle x ∈ R folgt mit x = π2 , dass α1 = 0 und mit x = 0, dass α2 = 0. 4. In R2 0 1 1 in R2 linear abhängig, denn , , sind die Vektoren 1 0 1 0 0 1 1 . = −1 −1 1 0 1 0 1 5. In P(R ) sind die Polynome x4 + x2 + 2, x4 + 12 x2 , x2 + 1, 1 linear abhängig, denn 1( x4 + x2 + 2) − 1( x4 + 12 x2 ) − 21 ( x2 + 1) − 12 (1) = 0. 6. In einem beliebigen Vektorraum ist {0} immer eine linear abhängige Menge, denn α0 = 0 für alle Skalare α, insbesondere für α = 1. Bemerkung In der Regel betrachten wir ∅ als linear unabhängig. Proposition Es sei V ein Vektorraum. Die Vektoren v1 , . . . , vn sind genau dann linear unabhängig, wenn sich kein Vektor vi als lineare Kombination der Vektoren v1 , . . . , vi −1 schreiben lässt. 77 3.2 Elementare Vektorraumtheorie Beweis Ist vi darstellbar als lineare Kombination der Vektoren v1 , . . . , vi −1 , so gibt es Skalare k1 , . . . , ki −1 derart, dass vi = k 1 v1 + · · · + k i −1 vi −1 . Folglich ist k1 v1 + · · · + ki −1 vi −1 − vi + 0vi +1 + · · · + 0vn = 0, so dass v1 , . . . vn linear abhängig sind. Nun sei v1 , . . . vn linear abhängig. Dann gibt es Skalare k1 , . . . , kn , die nicht alle veschwinden, so dass k1 v1 + · · · + kn vn = 0. Nun sei i = max{ j : k j 6= 0} (so dass k j+1 , . . . , kn = 0). Dann gilt vi = − k k1 v1 − · · · − i −1 vi −1 , ki ki so dass sich vi als lineare Kombination der Vektoren v1 , . . . , vi −1 schreiben lässt. Bemerkung Ebenfalls sind {v1 , . . . ,vn } genau dann linear unabhängig, wenn sich kein Vektor vi als lineare Kombination der anderen Vektoren v1 , . . . , vi −1 , vi +1 , . . . , vn schreiben lässt. Proposition Es seien V ein Vektorraum, v1 , . . . , vn linear unabhängige Vektoren und v ∈ hv1 , . . . , vn i. Dann sind die Koeffizienten α1 , . . . , αn in der Formel v = α1 v1 + · · · + α n v n eindeutig bestimmt. 78 3.2 Elementare Vektorraumtheorie Beweis Es seien k1 , . . . , kn und ℓ1 , . . . ℓn Skalare mit Folglich gilt v = k 1 v1 + · · · k n v n , v = ℓ1 v 1 + · · · + ℓ n v n . (k1 − ℓ1 )v1 + · · · + (kn − ℓn )vn = 0, so dass k1 − ℓ1 = 0, . . . , kn − ℓn = 0, d.h. k1 = ℓ1 , . . . , kn = ℓn . Nun beschränken wir uns auf endlichdimensionale Vektorräume. Definition Es sei V ein endlichdimensionaler Vektorraum. Die Menge {v1 , . . . , vn } heißt Basis für V, falls v1 , . . . , vn linear unabhängig sind und hv1 , . . . , vn i = V ist. Beispiele 1. Es sei K ein Körper. Die Menge {e1 , . . . en } mit 0 .. . 0 ej = 1 ← j-te Komponente 0 . .. 0 ist die kanonische Basis für K n . 2. Die Menge {1, x, . . . , x n } ist die kanonische Basis für Pn (R ). 3. Es sei K ein Körper. Die Menge { Eij : i = 1, . . . ,m, j = 1, . . . ,n} mit 0 0 ... 0 0 1 . . . 0 ← i-te Zeile Eij = .. .. .. . . . 0 0 ... 0 ↑ j-te Spalte ist die kanonische Basis für K m×n . 79 3.2 Elementare Vektorraumtheorie Bemerkung Es sei {v1 , . . . , vn } eine Basis für einen endlichdimensionalen Vektorraum V. Dann hat jeder Vektor v ∈ V eine eindeutige Darstellung v = α1 v1 + · · · + α n v n als lineare Kombination von v1 , . . . , vn . Nun zeigen wir, dass jeder endlichdimensionale Vektorraum eine Basis hat. Lemma 1. Eine nichtleere endliche Teilmenge {v1 , . . . ,vn } eines endlichdimensionalen Vektorraums V ist genau dann eine Basis, wenn sie eine maximale linear unbhängige Menge ist (d.h. keine echte Obermenge von {v1 , . . . ,vn } ist linear unabhängig). 2. Eine nichtleere endliche Teilmenge {v1 , . . . ,vn } eines endlichdimensionalen Vektorraums V ist genau dann eine Basis, wenn sie eine minimale erzeugende Menge für V ist (d.h. keine echte Teilmenge von {v1 , . . . ,vn } erzeugt V). Satz Es sei V ein endlichdimensionaler Vektorraum. Dann hat V eine Basis. Beweis Es sei E0 eine endliche erzeugende Menge für V. Ist E0 minimal, so ist sie eine Basis für V. Ansonsten gibt es v0 ∈ E0 derart, dass E1 := E0 \ {v0 } eine erzeugende Menge für V ist. Nun fahren wir iterativ fort. Ist E j eine erzeugende Menge für V, so ist E j eine Basis für V. Ansonsten gibt es v j ∈ E j derart, dass E j+1 := E j \ {v j } eine erzeugende Menge für V ist. Da E0 endlich ist, liefert dieses Verfahren nach endlich vielen Schritten eine minimale erzeugende Menge für V. 80 3.2 Elementare Vektorraumtheorie Bemerkung Die Basis eines nichttrivialen endlichdimensionalen Vektorraums V ist nicht eindeutig: Es sei {v1 , . . . , vn } eine Basis für V. Dann ist {v1 − v2 ,v2 − v3 , . . . ,vn−1 − vn ,2vn } ebenfalls eine Basis für V (vergleiche Übungsblatt 5, Aufgabe 2). Nun zeigen wir, dass alle Basen eines endlichdimensionalen Vektorraumes zumindest gleich viele Elemente haben. Lemma (Steinitzscher Austauschsatz) Es seien V ein endlichdimensionaler Vektorraum, S = {v1 , . . . ,vn } eine erzeugende Menge für V und T = {w1 , . . . ,wm } linear unabhängig. Dann ist m ≤ n. Beweis Da hSi = V ist, lässt sich w1 als lineare Kombination von v1 , . . . , vn schreiben. Die Menge {w1 ,v1 , . . . , vn } ist also linear abhängig. Folglich gibt es einen Vektor in der Folge w1 , v1 , . . . , vn , die sich als lineare Kombination der vorigen schreiben lässt. Dieses Element ist v j1 für irgendein j1 . Die Menge S1 = {w1 ,v1 , . . . ,v j1 −1 ,v j1 +1 , . . . ,vn } ist auch eine erzeugende Menge. Wir haben v j1 durch w1 ausgetauscht. Da hS1 i = V ist, lässt sich w2 als lineare Kombination von w1 , v1 , . . . , v j1 −1 , v j1 +1 , . . . , vn schreiben. Die Menge {w1 ,w2 ,v1 , . . . ,v j1 −1 ,v j1 +1 , . . . ,vn } ist also linear abhängig. Folglich gibt es einen Vektor in der Folge w1 , w2 , v1 , . . . , v j1 −1 , v j1 +1 , . . . , vn , die sich als lineare Kombination der vorigen schreiben lässt. Dieses Element ist v j2 für irgendein j2 . Die Menge S1 = {w1 ,w2 ,v1 , . . . ,v j1 −1 ,v j1 +1 , . . . ,v j2 −1 ,v j2 +1 , . . . ,vn } ist auch eine erzeugende Menge. Wir haben v j2 durch w2 ausgetauscht. Nun fahren wir iterative fort. Wir können v j1 , . . . , v jm durch w1 , . . . , wm austauschen. Insbesondere gilt n ≥ m. 81 3.2 Elementare Vektorraumtheorie Satz Alle Basen eines endlichdimensionalen Vektorraumes haben gleich viele Elemente. Definition Die Dimension eines nichttrivialen endlichdimensionalen Vektorraums V ist die Anzahl der Elemente in einer Basis und wird als dim V geschrieben. Bemerkung Da ∅ eine Basis für den trivialen Vektorraum {0} ist, ist dim{0} = 0. Beispiele 1. dim K n = n für einen beliebigen Körper K. 2. dim Pn (R ) = n + 1. 3. dim K m×n = mn für einen beliebigen Körper K. Korollar Es sei V ein endlichdimensionaler Vektorraum mit dim V = n. 1. Jede linear unabhängige endliche Teilmenge von V hat höchstens n Elemente. Hat sie genau n Elemente, so ist sie eine Basis für V. 2. Jede erzeugende endliche Teilmenge von V hat mindestens n Elemente. Hat sie genau n Elemente, so ist sie eine Basis für V. Verallgemeineren wir unsere Grundbegriffe, so können wir beweisen, dass auch jeder unendlichdimensionale Vektorraum eine Basis hat. 82 3.2 Elementare Vektorraumtheorie Definitionen Es sei V einen Vektorraum über einem Körper K. 1. Das Erzeugnis einer nTeilmenge S von V ist die Menge hV i := {k1 v1 + · · · + kn vn : n ∈ N, v1 , . . . , vn ∈ V } aller linearen Kombinationen von Elementen aus S. 2. Die Teilmenge T von V heißt linear unabhängig, falls k 1 v1 + · · · + k n v n = 0 ⇒ α1 = 0, . . . , αn = 0 für alle endlichen Teilmengen {v1 , . . . ,vn } von T. 3. Eine Teilmenge B von V heißt Basis für V, falls sie linear unabhängig ist und h Bi = V. Beispiel { x n : n ∈ N0 } ist eine Basis für P(R ). Bemerkungen Es sei V einen Vektorraum über einem Körper K. 1. Eine nichtleere Teilmenge T von V ist genau dann eine Basis, wenn sie eine maximale lineare unabhängige Menge ist. 2. Eine nichtleere Teilmenge S von V ist genau dann eine Basis, wenn sie eine minimale erzeugende Menge für V ist. 3. Es sei B eine Basis für V. Jeder Vektor in V hat eine endeutige Darstellung als lineare Kombination von Vektoren aus V. Satz Jeder Vektorraum V hat eine Basis. 83 3.3 Basisergänzung und Unterräume Beweis Ohne Beschränkung der Allgemeinheit können wir annehmen, dass V 6= {0} ist. Es sei P die Menge aller linear unabhängigen Teilmengen von V. Die Relation AB ⇔ A⊆B definiert eine partielle Ordnung auf P . Beachte, dass P nicht leer ist, denn jede einelementige Menge {v}, v ∈ V \ {0} in P liegt. Nun sei T eine total geordnete Teilmenge von P . Dann ist gig: Es seien v1 , . . . , vk ∈ S X ∈T S X linear unabhän- X ∈T X. Dann gibt es X1 , . . . , Xk ∈ T mit v1 ∈ X1 , . . . , vk ∈ Xk . Es sei Xℓ der größte der Mengen X1 , . . . , Xk . Dann liegen v1 , . . . , vk alle in Xℓ und sind daher linear unabhängig. S X ∈T X ist also eine obere Schranke für T . Dem Lemma von Zorn zufolge hat P ein maximales Element. Dies ist aber eine Basis für V. 3.3 Basisergänzung und Unterräume Lemma Es sei V ein endlichdimensionaler Vektorraum. Jeder Unterraum W von V ist endlichdimensional und dim W ≤ dim V. Ferner gilt dim W = dim V genau dann, wenn W = V. Beweis Es sei n = dim V. Es seien v1 , . . . , vm linear unabhängige Vektoren von W und daher von V. Es gilt also m ≤ n. Folglich gibt es einen größten Wert m⋆ von m, für den man m 84 3.3 Basisergänzung und Unterräume linear unabhängige Vektoren in W finden kann. Diese m⋆ Vektoren bilden also eine maximale linear unabhängige Teilmenge von W und somit eine Basis für W. Es ist also dim W = m⋆ ≤ n. Ist m⋆ = n, so ist {v1 , . . . ,vm⋆ } eine Basis für V. Somit ist V = hv1 , . . . ,vm⋆ i = W. Aus W = V folgt trivialerweise m⋆ = n. Beispiel Die echten Unterräume von R3 haben Dimension 1 oder 2. Die Unterräume von Dimension 1 sind als hvi für einen nichttrivialen Vektor v gegeben. Sie sind Gerade durch den Nullpunkt. v 0 Die Unterräume von Dimension 2 sind als hv1 , v2 i für zwei linear unabhängige Vektoren v1 , v2 gegeben. Sie sind Ebene durch den Nullpunkt. v2 v1 0 85 3.3 Basisergänzung und Unterräume Lemma (Basisergänzungssatz) Es seien V ein endlichdimensionaler Vektorraum mit dim V = n, W ein Unterraum von V und {v1 , . . . ,vm } eine Basis für W. Dann gibt es Vektoren vm+1 , . . . , vn ∈ V \ W, so dass {v1 , . . . , vn } eine Basis für V ist. Beweis T := {v1 , . . . ,vm } ist eine linear unabhängige Teilmenge von V. Falls m < n ist, ist sie keine Basis für V und daher nicht maximal. Folglich gibt es vm+1 ∈ V, so dass T1 := {v1 , . . . ,vm+1 } linear unabhängig ist. Wir bemerken, dass wm+1 keine lineare Kombination von v1 , . . . , vm ist, d.h. wm+1 6∈ hT i = W. Nun fahren wir iterativ fort. Tj := {v1 , . . . ,vm+ j } ist eine linear unabhängige Teilmenge von V. Falls m + j < n ist, ist sie keine Basis für V und daher nicht maximal. Folglich gibt es vm+ j+1 ∈ V, so dass Tj+1 := {v1 , . . . ,vm+ j+1 } linear unabhängig ist. Wir bemerken, dass wm+1+ j keine lineare Kombination von v1 , . . . , vm+ j ist, d.h. wm+ J 6∈ hTj i ⊇ W. Die Menge Tn−m = {v1 , . . . ,vn } ist linear unabhängig und daher eine Basis für V. Es seien W1 , W2 Unterräume eines endlichdimensionalen Vektorraums V, so dass W1 ∩ W2 ebenfalls ein (endlichdimensionaler) Unterraum von V ist. Nun stellen wir die Frage: Was ist dim(W1 ∩ W2 )? Beispiel Es seien W1 und W2 eine Gerade bzw. eine Ebene durch den Nullpunkt in R3 . 86 3.3 Basisergänzung und Unterräume W1 W1 W2 Liegt die Gerade W1 in der Ebene W2 , so ist W2 Schneidet die Gerade W1 die Ebene W2 nur in den Nullpunkt, so ist dim(W1 ∩ W2 ) = dim W1 = 1. dim(W1 ∩ W2 ) = dim{0} = 0. Die Dimension von W1 ∩ W2 hängt also nicht nur von dim W1 und dim W2 ab. Definition Es seien W1 , W2 Unterräume eines Vektorraums V. Die Summe von W1 und W2 ist die Teilmenge W1 + W2 := {w1 + w2 : w1 ∈ W1 , w2 ∈ W2 } von V. Proposition Die Summe zweier Unterräume eines Vektorraums V ist ebenfalls ein Unterraum von V. Satz (Dimensionsformel für Vektorräume) Es seien W1 , W2 Unterräume eines endlichdimensionalen Vektorraums V. Dann gilt dim(W1 ∩ W2 ) + dim(W1 + W2 ) = dim W1 + dim W1 . 87 3.3 Basisergänzung und Unterräume Beweis Zunächst bemerken wir, dass W1 ∩ W2 ein Unterraum von W1 sowie ein Unterraum von W2 ist. Es sei {v1 , . . . , vr } eine Basis für W1 ∩ W2 . Wir ergänzen dies zu einer Basis {v1 , . . . , vr , w1 , . . . , ws } für W1 sowie zu einer Basis {v1 , . . . ,vr ,z1 , . . . , vt } für W2 . Dann ist {v1 , . . . , vr , w1 , . . . ,ws ,z1 , . . . , zt } eine Basis für W1 + W2 : Es gilt hv1 , . . . , vr , w1 , . . . ,ws ,z1 , . . . , zt i = hv1 , . . . , vr , w1 , . . . , ws i + hz1 , . . . , zt i = W1 + W2 . Es seien α1 , . . . , αr , β 1 , . . . β s , γ1 , . . . , γt Skalare mit α1 v1 + · · · + αr vr + β 1 w1 + · · · + β s ws + γ1 z1 + · · · + γt zt = 0. (⋆) Offensichtlich ist γ1 z1 + · · · + γt zt ∈ W2 , und aus γ1 z 1 + · · · + γ t z t − α 1 v 1 − · · · − α r v r − β 1 w 1 − · · · − β s w s = 0 folgt γ1 z1 + · · · + γt zt ∈ W1 . Somit liegt γ1 z1 + · · · + γt zt in W1 ∩ W2 und lässt sich daher als lineare Kombination γ1 z 1 + · · · + γ t z t = λ 1 v 1 + · · · + λ r v r von v1 , . . . , vn schreiben. Aus γ1 z 1 + · · · + γ t z t − λ 1 v 1 − · · · − λ r v r = 0 und der linearen Unabhängigkeit von v1 , . . . , vr , z1 , . . . , zt folgt nun γ1 = 0, . . . , γt = 0 (und auch λ1 = 0, . . . , λr = 0). Schließlich impliziert (⋆) wegen der linearen Unabhängigkeit von v1 , . . . , vr , w1 , . . . , vs , dass α1 = 0, . . . , αr = 0, β 1 = 0, . . . , β s = 0. Die Vektoren v1 , . . . , vr , w1 , . . . ,ws ,z1 , . . . , zt sind also linear unabhängig. Somit ist dim(W1 + W2 ) =r+s+t = dim(W1 ∩ W2 ) + (dim W1 − dim(W1 ∩ W2 )) + (dim W2 − dim(W1 ∩ W2 )) = dim W1 + dim W2 − dim(W1 ∩ W2 ). 88 3.3 Basisergänzung und Unterräume Definition Es seien W1 , W2 Unterräume eines Vektorraums V. Die Summe von W1 und W2 heißt direkte Summe von W1 und W2 , falls sich jedes w ∈ W1 + W2 eine eindeutige Darstellung w = w1 + w2 , w1 ∈ W1 , w2 ∈ W2 hat. In diesem Fall schreiben wir die Summe als W1 ⊕ W2 . Lemma Es seien W1 , W2 Unterräume eines Vektorraums V. Die Summe von W1 und W2 ist eine direkte Sume genau dann, wenn W1 ∩ W2 = {0} ist. Beweis Sei die Summe von W1 und W2 direkt. Wähle w ∈ W1 ∩ W2 . Dann können wir w 0 = |{z} 0 + |{z} w = |{z} w + |{z} ∈ W1 ∈ W2 ∈ W1 ∈ W2 schreiben, und wegen der Eindeutigkeit der Darstellung ist w = 0. Nun sei W1 ∩ W2 = {0}. Sei v ∈ V darstellbar als v = y1 + y2 und v = z1 + z2 mit y1 , z1 ∈ W1 und y2 , z2 ∈ W2 . Dann ist y 1 + y 2 = z1 + z2 ⇒ y −z =z −y , | 1 {z }1 |2 {z }2 ∈ W1 ∈ W2 Somit liegen y1 − z1 und z2 − y2 in W1 ∩ W2 und sind daher beide gleich Null. Es ist also y1 = z1 , y2 = z2 und die Darstellung von v ist eindeutig, d.h. die Summe ist direkt. Bemerkungen dim(W1 ⊕ W2 ) = dim W1 + dim W2 B ist eine Basis für W1 ⊕ W2 genau dann, wenn sie idie Vereinigung einer Basis B1 für W1 mit einer Basis B2 für W2 ist. 89 3.3 Basisergänzung und Unterräume Definition Es sei V ein Vektorraum. Zwei echte Unterräume W1 und W2 heißen komplementär, falls V = W1 ⊕ W2 ist. Lemma Es sei V ein endlichdimensionaler Vektorraum. Jeder echter Unterraum W1 von V hat ein Komplement. Beweis Es sei {v1 , . . . ,vm } eine Basis für W1 . Dies ergänzen wir zu eine Basis {v1 , . . . ,vn } für V. Wir bemerken, dass W1 = hv1 , . . . ,vm i und setzen W2 = hvm+1 , . . . ,vn i. Offensichtlich ist W = hv1 , . . . , vn i = hv1 , . . . ,vm i + hvm+1 , . . . , vn i = W1 + W2 . Es sei v ∈ W1 ∩ W2 . Es gibt Skalare α1 , . . . , αm und αm+1 , . . . , αm , so dass v = α1 v1 + · · · + α m v m , v = α m+1 v m+1 + · · · + α n v n . Folglich ist α1 v1 + · · · + αm vm − αm+1 vm+1 − · · · − αn vn = 0, und die lineare Unabhängigkeit von v1 , . . . , vn impliziert α1 = 0, . . . , αn = 0. Es ist also v = 0. Somit ist W1 ∩ W2 = {0}. Bemerkung Das Komplement eines echten Unterraums eines endlichdimensionalen Vektorraums ist nicht eindeuitg. Die ‘horizontale’ Gerade E1 = he1 i in R2 wird bspw. von jeder anderen Geraden E2 = hvi (wobei v und e1 linear unabhängig sind) komplementiert. 90 3.3 Basisergänzung und Unterräume E2 Es gilt v e1 E1 R2 = E1 ⊕ E2 mit E1 = he1 i, E2 = hvi, wobei v nicht parallel zu e1 ist. Definition Es seien U ein Unterraum eines Vektorraums V und v ∈ V. Die Menge v + U := {v + u : u ∈ U } heißt Nebenklasse von U durch v. Der Vektor v heißt Repräsentant der Nebenklasse v + U. Beispiel Es sei E eine Gerade durch den Nullpunkt im R2 . Die Nebenklasse x + E ist die Gerade, die parallel zu E ist und den Punkt x enthält. Die Nebenklassen zu E bilden eine Partition des R2 . x+ E = y + E E x 0 y Mit Hilfe dieser Abbildung können wir Nebenklassen in einem beliebigen Vektorraum visualisieren. 91 3.3 Basisergänzung und Unterräume Proposition Es seien U ein Unterraum eines Vektorraums V. Die Nebenklassen x + U und y + U sind genau dann gleich, wenn x − y ∈ U ist. Beweis Es gelte x + U = y + U. Dann ist x = x + 0 ∈ x + U = y + U. Es gibt also u0 ∈ U mit x = y + u0 . Somit ist x − y = u0 ∈ U. Nun sei x − y ∈ U. Es gibt also u0 ∈ U derart, dass x − y = u0 und folglich x = y + u0 ∈ y + U. Somit gilt x + U = { x + u : u ∈ U } = {y + u0 + u : u ∈ U } = {y + w : w ∈ U } = y + U, denn {u0 + u : u ∈ U } = U. Korollar Es sei U ein Unterraum eines Vektorraums V. 1. Die Repräsentanten einer Nebenklasse von U sind genau die Elemente dieser Nebenklasse. 2. Die Nebenklassen bilden eine Partition von V. Beweis 1. Es sei y ∈ x + U. Somit ist y = x + u0 für irgendein u0 ∈ U. Aus y − x = u0 ∈ U folgt y + U = x + U, d.h. y ist ein Repräsentant von x + U. Ist dagegen y ein Repräsentant von x + U, d.h. y + U = x + U, so ist y − x ∈ U. Folglich gibt es u0 derart, dass y − x = u0 . Folglich ist y = x + u0 ∈ x + U. 2. Auf der einen Seite sind je zwei Nebenklassen x + U, y + U entweder gleich oder disjunkt, denn aus z ∈ ( x + U ) ∩ (y + U ) folgt z = x + u0 = y + u1 für irgendwelche u0 , u1 ∈ U und daher x − y = u1 − u0 ∈ U, so dass x + U = y + U. 92 3.3 Basisergänzung und Unterräume Auf der anderen Seite ist S x ∈V jedes x ∈ U. (x + U ) ⊇ S x ∈V { x } = V, denn x ∈ x + U für Bemerkung Es sei U ein Unterraum eines Vektorraums V. Die Relation x∼y ⇔ x+U =y+U ist eine Äquivalenzrelation auf W. Lemma Es seien V ein Vektorraum über einem Körper K und U ein Unterraum von V. Die Menge V/U := { x + U : x ∈ V } aller Nebenklassen von U ist ein Vektorraum über K (der Quotientenraum) bezüglich der Vektoraddition ( x + U ) + (y + U ) := ( x + y) + U und Skalarmultiplikation α( x + U ) := αx + U. Lemma Es sei U ein Unterraum eines endlichdimensionalen Vektorraums V. Dann ist V/U ebenfalls endlichdimensional und es gilt dim U + dim V/U = dim V. Beweis Es sei {v1 , . . . ,vm } eine Basis für U. Dies ergänzen wir zu einer Basis {v1 , . . . ,vn } für V. Nun zeigen wir, dass {vm+1 + U, . . . ,vn + U } eine Basis for V/U ist. Somit ist V/U endlichdimensional mit dim V/U = n − m = dim V − dim U. 93 3.3 Basisergänzung und Unterräume Zunächst zeigen wir, dass {vm+1 + U, . . . ,vn + U } linear unabhängig ist. Es seien α1 , . . . , αn Skalare mit αm+1 (vm+1 + U ) + · · · + αn (vn + U ) = 0 + U, so dass (αm+1 vm+1 + · · · + αn vn ) + U = U. Dies bedeuet aber, dass α m+1 v m+1 + · · · + α n v n ∈ U und kann daher als lineare Kombination von {v1 , . . . ,vm } dargestellt werden. Es existieren also Skalare α1 , . . . , αn , so dass α m +1 v m +1 + · · · + α n v n = α1 v1 + · · · + α m v m , und aus α1 v1 + · · · + α m v m − α m +1 v m +1 − · · · − α n v n = 0 und der linearen Unabhängigkeit von {v1 , . . . ,vn } folgt α1 = 0, . . . , αn = 0. Nun zeigen wir, dass hvm+1 + U, . . . ,vn + U i = V/U. Es sei v + U ∈ V/U. Da {v1 , . . . , vn } eine Basis für V ist, gibt es Skalare β1 , . . . β n mit Somit ist und folglich v = β 1 v1 + · · · + β m v m + β m +1 v m +1 + · · · + β n v n . | {z } ∈U v − β m+1 v m+1 + · · · + β n v n ∈ U v + U = β m + 1 v m + 1 + · · · + β n v n + U = β m + 1 ( v m + 1 + U ) + · · · + β n ( v n + U ), so dass v + U ∈ hvm+1 + U, . . . ,vn + U i. 94 4 Lineare Abbildungen und Matrizen 4 Lineare Abbildungen und Matrizen 4.1 Lineare Abbildungen Von besonderer Bedetungen sind Abbildungen zwischen Vektorräumen, die mit der Vektorraumstruktur verträglich sind. Definitionen Es seien V und W Vektorräume über einem Körper K. Eine Abbildung T : V → W heißt Vektorraumhomomorphismus oder lineare Abbildung, falls T ( v1 + v2 ) = T ( v1 ) + T ( v2 ) für alle v1 , v2 ∈ V und T (αv) = αT (v) für alle v ∈ V und α ∈ K. Bemerkung Insbesondere ist T ein Gruppenhomomorphismus (V,+V ) → (W,+W ). Beispiele 1. Es seien V und W Vektorräume über einem Körper K. Die Nullabbildung T : V → W mit T (v) = 0 für alle v ∈ V ist linear. Ist V ein Unterraum von W so ist die Identitätsbbildung I : V → W mit I (v) = v ebenfalls linear. 2. Die Projektionen P1 , P2 : R2 → R, die durch die Formeln x x x 0 = , P2 = P1 y 0 y y gegeben sind, sind lineare Abbildungen. 95 4.1 Lineare Abbildungen P2 [U] U Die Abbildungen P1 und P2 projizieren den Schatten einer Menge U in vertikaler bzw. horizontaler Richtung. P1 [U] 3. Es seien w 6= 0 eine feste komplexe Zahl. Die Drehstreckung T : C → C mit T (z) = wz ist eine lineare Abbildung. Im wz z Rr r θ +φ θ Re T ist eine Drehstreckung mit Streckungsfaktor R = |w| und Drehwinkel φ = arg w. (Hier ist r = |z| und θ = arg z.) 4. Die Formel T ( p) = p′ definiert eine lineare Abbildung P(R ) → P(R ), denn ( p1 + p2 )′ = p1′ + p2′ und (αp)′ = αp′ . Proposition Es seien V und W Vektorräume über einem Körper K. Die Menge aller linearen Abbildungen T : V → W ist ein Vektorraum über K mit punktweise Addition (T1 + T2 )(v) := T1 (v) + T2 (v), v∈V und Skalarmultiplikation (αT )(v) := αT (v), v ∈ V. (Wir bezeichnen diesen Vektorraum mit Hom(V,W ).) 96 4.1 Lineare Abbildungen Definitionen Es seien V und W Vektorräume über einem Körper K und T : V → W eine lineare Abbildung. 1. Der Kern oder Nullraum von T ist die Teilmenge von V. ker T := {v ∈ V : T (v) = 0} 2. Die Bildmenge von T ist die Teilmenge von W. Im T = { Tv : v ∈ V } Proposition Es seien V und W Vektorräume über einem Körper K und T : V → W eine lineare Abbildung. 1. ker T ist ein Unterraum von V. 2. Im T ist ein Unterraum von W. Beweis 1. ker T ist nicht leer, denn 0 ∈ ker T. Nun seien v1 , v2 ∈ ker T, so dass T (v1 ) = 0, T (v2 ) = 0. Folglich gilt T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0, so dass v1 + v2 ∈ ker T ist. Seien nun α ∈ K, v ∈ ker T. Dann ist T (αv) = αT (v) = 0, so dass αv ∈ ker T ist. 2. Im T ist nicht leer, denn 0 = T (0) ∈ Im T. Nun seien w1 , w2 ∈ Im T. Es existieren also v1 , v2 ∈ V mit w1 = T (v1 ), w2 = T (v2 ). Somit ist w1 + w2 = T (v1 ) + T (v2 ) = T (v1 + v2 ) ∈ Im T. Seien nun α ∈ K, w ∈ Im T. Aus w = T (v) für irgendein v ∈ V folgt αw = αT (v) = T (αv) ∈ Im T. Lemma Es seien V und W Vektorräume über einem Körper K. Eine lineare Abbildung T : V → W ist genau dann injektiv, wenn ker T = {0} ist. 97 4.1 Lineare Abbildungen Definitionen Es seien V und W Vektorräume über einem Körper K und T : V → W eine lineare Abbildung. 1. Der Rang von T (rang T) ist die Dimension der Bildmenge Im T von T. 2. Der Defekt von T (def T) ist die Dimension des Nullraums ker T von T. Lemma (Dimensionssatz) Es V und W Vektorräume über einem Körper K und T : V → W eine lineare Abbildung. Ferner sei V endlichdimensional. Dann ist Im T endlichdimensional und es gilt dim V = Rang T + Def T. Beweis Es sei {v1 , . . . ,vm } eine Basis für ker T. Dies ergänzen wir zu eine Basis {v1 , . . . ,vn } für V. Nun zeigen wir, dass { T (vm+1 ), . . . ,T (vn )} eine Basis for Im T ist. Somit ist Im T endlichdimensional mit dim Im T = n − m = dim V − dim ker T. Zunächst zeigen wir, dass { T (vm+1 ), . . . ,T (vn )} linear unabhängig ist. Es seien α1 , . . . , αn Skalare mit αm+1 T (vm+1 ) + · · · + αn T (vn ) = 0, so dass T (αm+1 vm+1 + · · · + αn vn ) = 0. Dies bedeuet aber, dass αm+1 vm+1 + · · · + αn vn ∈ ker T und kann daher als lineare Kombination von {v1 , . . . ,vm } dargestellt werden. Es existieren also Skalare α1 , . . . , αn , so dass α m +1 v m +1 + · · · + α n v n = α1 v1 + · · · + α m v m , und aus α1 v1 + · · · + α m v m − α m +1 v m +1 − · · · − α n v n = 0 und der linearen Unabhängigkeit von {v1 , . . . ,vn } folgt α1 = 0, . . . , αn = 0. 98 4.1 Lineare Abbildungen Nun zeigen wir, dass hT (vm+1 ), . . . ,T (vn )i = Im T. Es sei w ∈ Im T, so dass w = T (v) für irgendein v ∈ V. Da {v1 , . . . , vn } eine Basis für V ist, gibt es Skalare β 1 , . . . β n mit Somit ist v = β 1 v1 + · · · + β m v m + β m +1 v m +1 + · · · + β n v n . | {z } ∈ ker T T ( v ) = 0 + T ( β m + 1 v m + 1 + · · · + β n v n ) = β m + 1 T ( v m + 1 ) + · · · + β n T ( v n ), so dass w ∈ hT (vm+1 ), . . . ,T (vn )i. Folglich gilt Im T ⊆ hT (vm+1 ), . . . ,T (vn )i. Auf der anderen Seite folgt aus w ∈ hT (v1 ), . . . ,T (vn )i, dass w als lineare Kombination w = β 1 T (v1 ) + · · · + β n T (vn ) = T ( β 1 v1 + · · · + β n vn ) ∈ Im T schreiben lässt. Folglich gilt hT (vm+1 ), . . . ,T (vn )i ⊆ Im T. Korollar Es V und W endlichdimensionale Vektorräume über einem Körper K mit dim V = dim W und T : V → W eine lineare Abbildung. Dann ist T injektiv genau dann, wenn sie surjektiv ist. Beweis Es gilt: T ist surjektiv ⇔ ⇔ ⇔ ⇔ ⇔ Im T = W Rang T = dim V Def T = 0 ker T = {0} T ist injektiv. (Im T ist ein Unterraum von W) Proposition Es V und W endlichdimensionale Vektorräume über einem Körper K Ist {e1 , . . . , en } eine Basis für V, so ist Im T = hT (e1 ), . . . ,T (en )i. 99 4.2 Matrixdarstellungen linearer Abbildungen 4.2 Matrixdarstellungen linearer Abbildungen In diesem Abschnitt seien V und W endlichdimensionale Vektorräume über einem Körper K und T : V → W eine lineare Abbildung. Es seien {e1 , . . . , en } eine Basis für V und { f 1 , . . . , f m } eine Basis für W (so dass n = dim V und m = dim W). Jedes Element v ∈ V lässt sich als eindeutige lineare Kombination der Basisvektoren e1 , . . . , en schreiben: Es gibt eindeutige Skalare α1 , . . . , αn derart, dass v = α1 e1 + α2 e2 + · · · + α n e n . (1 ) T ( v ) = α 1 T ( e 1 ) + α 2 T ( e 2 ) + · · · + α n T ( e n ). (2 ) Folglich gilt Bemerkung Die n Vektoren T (e1 ), . . . , T (en ) bestimmen die lineare Abbildung T eindeutig: Mit diesem Wissen können wir T (v) für jedes v durch (1) und (2) rekonstruieren. Auf der anderen Seite sind die Vektoren T (e1 ), . . . , T (en ) Elemente in W und lassen sich daher als eindeutige lineare Kombinationen der Basisvektoren f 1 , . . . f m schreiben: Es gibt eindeutige Skalare αij , i = 1, . . . , m, j = 1, . . . ,n derart, dass T (e1 ) = α11 f 1 + α21 f 2 + · · · + αm1 f m , T (e2 ) = α12 f 1 + α22 f 2 + · · · + αm2 f m , .. .. .. . . . T (en ) = α1n f 1 + α2n f 2 + · · · + αmn f m . Bemerkung Die Skalare αij , i = 1, . . . , m, j = 1, . . . ,n bestimmen die lineare Abbildung T eindeutig: Mit diesem Wissen können wir T (e1 ), . . . , T (en ) rekonstruieren und somit anschließend T (v) für jedes v rekonstruieren. 100 4.2 Matrixdarstellungen linearer Abbildungen Definition Die m × n Matrix a11 a12 · · · a1n a a22 · · · a2n 21 A = (aij ) = .. .. .. . . . am1 am2 · · · amn ist die Darstellungsmatrix von T : V → W bezüglich der Basen {e1 , . . . ,en } für V und { f 1 , . . . , f m } für W. Bemerkung Um die Darstellungsmatrix A von T zu berechnen, schreibt man das Bild T (ei ) von ei als lineare Kombination der Basisvektoren f 1 , . . . , f n . Die Koeffizienten sind die Elemente der i-te Spalte von A. Beispiel Finden Sie die Darstellungsmatrix der linearen Abbildung T : R3 → R2 mit x x+y−z T y = 2x + z z bezüglich (a) der Standardbasen für R3 und R2 , 1 1 1 1 1 0 , 1 , 0 (b) der Basen für R3 bzw. R2 . , und 0 1 −1 1 0 101 4.2 Matrixdarstellungen linearer Abbildungen Lösung (a) Es gilt 1 1 1 0 T 0 = =1 +2 , 2 0 1 0 0 1 1 0 T 1 = =1 +0 , 0 0 1 0 0 0 1 − 1 . +1 T 0 = = −1 1 0 1 1 Somit ist die Darstellungsmatrix von T bezüglich der gegebenen Basen gleich 1 1 −1 . 2 0 1 (b) Es gilt 1 2 1 1 T 0 = =1 +1 , 1 1 0 −1 1 1 1 1 , −2 =3 T 1 = 0 1 3 1 0 1 1 −1 . −2 T 0 = =1 0 1 1 1 Somit ist die Darstellungsmatrix von T bezüglich der gegebenen Basen gleich 1 3 1 . 1 −2 −2 Beispiel Es sei n ∈ N. Finden Sie die Darstellungsmatrix der linearen Abbildung T : Pn (R ) → Pn (R ) mit T ( p) = p′ bezüglich der Standardbasis für Pn (R ). 102 4.2 Matrixdarstellungen linearer Abbildungen Lösung Es gilt T (1) = 0 = 0.1 + 0x + 0x2 + · · · + 0x n , T ( x ) = 1 = 1.1 + 0x + 0x2 + · · · + 0x n , T ( x2 ) = 2x = 0.1 + 2x + 0x2 + · · · + 0x n , T ( x3 ) = 3x2 = 0.1 + 0x + 3x2 + · · · + 0x n , .. .. . . T ( x n ) = nx n−1 = 0.1 + 0x + 0x3 + · · · + nx n−1 + 0x n . Somit ist die Darstellungsmatrix von T bezüglich der Standardbasis für Pn (R ) gleich 0 1 0 0 ··· 0 0 0 2 0 · · · 0 0 0 0 3 · · · 0 .. .. .. .. .. . . . . . . 0 0 0 0 · · · n 0 0 0 0 ··· 0 Definition Es seien V und W Vektorräume über einem Körper K. 1. Ein (Vektorraum)-isomorphismus ist eine lineare, bijektive Abbildung T : V → W. 2. Gibt es ein Isomorphismus T : V → W, so heißen V und W isomorph. In diesem Fall schreiben wir V ∼ = W. 103 4.2 Matrixdarstellungen linearer Abbildungen Bemerkung Hom(V,W ) ist eine Gruppe bezüglich Komposition, und die Menge Iso(V,W ) aller Isomorphismen V → W ist eine Untergruppe von Hom(V,W ). Lemma 1. Es sei V ein n-dimensionaler Vektorraum über einem Körper K. Dann gilt V∼ = Kn . 2. Es seien V und W endlichdimensionale Vektorräume über einem Körper K. Dann gilt Hom(V,W ) ∼ = K m×n , wobei n = dim V und m = dim W ist. Beweis 1. Es seien {v1 , . . . , vn } eine Basis für V und {e1 , . . . , en } die Standardbasis für K n . Die eindeutige lineare Abbildung T : V → K n mit T ( vi ) = ei , i = 1, . . . ,n ist surjektiv (Im T = he1 , . . . , en i = K n ) und somit auch injektiv. Folglich ist T ein Isomorphismus. 2. Es seien {e1 , . . . , en } und { f 1 , . . . , f m } Basen für V bzw. W. Es sei S(T ) die Matrixdarstellung von einer linearen Abbildung T : V → W bezüglich der o.g. Basen, so dass S eine bijektive Abbildung Hom(V,W ) → K m×n ist. Aus der Definition der Matrixdarstellung folgt S(T1 + T2 ) = S(T1 ) + S(T2 ) und S(αT ) = αS(T ), so dass S linear ist. Somit ist S ein Isomorphismus. Korollar 1. Je zwei n-dimensionale Vektorräume über einem Körper K sind isomorph. 2. Es seien V und W endlichdimensionale Vektorräume über einem Körper K. Dann ist Hom(V,W ) endlichdimensional mit dim Hom(V,W ) = dim V dim W. 104 4.3 Matrixalgebra Satz (erster Homomorphiesatz) Es V und W Vektorräume über einem Körper K und T : V → W eine lineare Abbildung. Dann gilt V/ ker T ∼ = Im T. Korollar (Dimensionssatz) Es V und W Vektorräume über einem Körper K und T : V → W eine lineare Abbildung. Ferner sei V endlichdimensional. Dann ist Im T endlichdimensional und es gilt dim V = Rang T + Def T. Beweis V/ ker T ist endlich dimensional mit dim V/ ker T = dim V − def T. Folglich ist Im T ebenfalls endlichdimensional mit Rang T = dim V/ ker T = dim V − Def T. 4.3 Matrixalgebra In diesem Abschnitt seien X, Y und Z endlichdimensionale Vektorräume über einem Körper K und S : X → Y, T : Y → Z lineare Abbildungen. Ferner seien { x1 , . . . , xn }, {y1 , . . . ,ym } und {z1 , . . . , zℓ } Basen für X, Y und Z. Nun bezeichnen wir die Matrixdarstellungen von S und T bezüglich der angegebenen Basen für X, Y und Z mit s11 s12 · · · s1n s s22 · · · s2n 21 M(S) = (sij ) = .. .. .. . . . sm1 sm2 · · · smn bzw. t11 t 21 M(T ) = (tij ) = .. . t ℓ1 t12 · · · t1m t22 · · · t2m .. .. , . . t ℓ2 · · · t ℓ m 105 4.3 Matrixalgebra sodass S( x1 ) = s11 y1 + s21 y2 + · · · + sm1 ym , S( x2 ) = s12 y1 + s22 y2 + · · · + sm2 ym , .. .. .. . . . S( xn ) = s1n y1 + s21 y2 + · · · + smn ym , d.h. m S( x j ) = ∑ skj yk , j = 1, . . . ,n, k=1 und T (y1 ) = t11 z1 + t21 z2 + · · · + tℓ1 zℓ , T (y2 ) = t12 z1 + t22 z2 + · · · + tℓ2 zℓ , .. .. .. . . . T (ym ) = t1m z1 + t2m z2 + · · · + tℓm zℓ , d.h. ℓ T (y j ) = ∑ tkj zk , j = 1, . . . ,m. k=1 Bemerkung Es gilt M(αS) = αM(S) für jedes Skalar α sowie M(S1 + S2 ) = M(S1 ) + M(S2 ) für alle linearen Abbildungen S1 , S2 : X → Y. Nun betrachten wir die Funktion T ◦ S, die eine lineare Abbildung X → Z ist. Es sei M(T ◦ S) ihre Darstellungsmatrix bezüglich der angegebenen Basen für X und Z. Wir stellen nun die folgende Frage: Können wir das Produkt zweier Matrizen so definieren, dass die Formel M(T ◦ S) = M(T ).M(S) (⋆) gilt? 106 4.3 Matrixalgebra Lemma M(T ◦ S) ist die ℓ × n Matrix, deren Element in Zeile i und Spalte j gleich m ∑ tik skj k=1 ist. Beweis Es seien U = T ◦ S und u11 u12 · · · u1n u u22 · · · u2n 21 M(U ) = (uij ) = .. .. .. . . . u ℓ1 u ℓ2 · · · u ℓ n die Darstellungsmatrix für U bezüglich der angegebenen Basen für X und Z, sodass ℓ U (x j ) = ∑ uij zi , j = 1, . . . ,n. (1 ) i =1 Es gilt nun U ( x j ) = T (S( x j )) m =T ∑ skj yk k=1 ! m = ∑ skj T (yk ) k=1 m = ℓ ∑ skj ∑ tik zi i =1 k=1 ℓ m = ∑ ∑ tik skj zi . (2 ) i =1 k=1 Vergleichen von (1) und (2) ergibt m uij = ∑ tik skj . k=1 Mit der folgenden Definition ist die Formel (⋆) also richtig. 107 4.3 Matrixalgebra Definition Es seien K ein Körper und A ∈ K ℓ×m , B ∈ K m×n . Das Produkt AB ist die Matrix C = (cij ) in K ℓ×n mit m cij = ∑ aik bkj . k=1 Bemerkung Man berechnet also cij , indem man die Elemente in Zeile i von A mit den Elementen in Spalte j von B multipliziert und die Ergebnisse aufsummiert: i-te Zeile → → · · · → ↓ ↓ .. . ↓ j-te Spalte Beispiel Es gilt 1 3 5 6+4 5+2 4+0 3−2 10 7 4 1 2 6 5 4 3 4 2 1 0 −1 = 18 + 8 15 + 4 12 + 0 9 − 4 = 26 19 12 5 . 42 31 20 9 6 30 + 12 15 + 6 20 + 0 15 − 6 Bemerkung Matrixmultiplikation ist assoziativ und distributiv über Addition, jedoch nicht kommutativ. Es ist z.B. 19 22 1 2 5 6 = 43 50 3 4 7 8 aber 5 6 7 8 1 2 23 34 = . 3 4 31 46 108 4.3 Matrixalgebra Proposition Es sei V ein n-dimensionaler Vektorraum über einem Körper K. Dann ist die Abbildung T 7→ M(T ) ein Gruppenhomomorphismus Hom(V,V ) → K n×n bezüglich Komposition bzw. Matrixmultiplikation. Lemma Es seien v ein Vektor in X und a1 , . . . , an , b1 , . . . , bm die Koeffizienten in den Darstellungen von v und S(v) als lineare Kombinationen der Basen { x1 , . . . ,xn } für X bzw. {y1 , . . . ,ym } für Y, d.h. v = a1 x 1 + · · · + a n x n , S(v) = b1 y1 + · · · + bm ym . Dann gilt b = M(S)a, wobei a1 .. a = . , an b1 b = ... . bm Beweis Es gilt Sv = S(a1 x1 + · · · + an xn ) = a1 S ( x 1 ) + · · · + a n S ( x n ) m m i =1 n i =1 = a1 ∑ si1 yi + · · · + an ∑ sin yi m = ∑ ∑ sik ak yi , i =1 k=1 sodass n bi = ∑ sik ak , i = 1, . . . ,m k=1 ist. 109 4.3 Matrixalgebra Betrachten wir nun a als eine n × 1 Matrix, so ist M(S)a eine m × 1 Matrix, deren Element in Zeile i, Spalte 1 gleich n ∑ sik ak = bi k=1 ist. Beispiel Es sei n ∈ N. Die Darstellungsmatrix der linearen Abbildung T : Pn (R ) → Pn (R ) mit T ( p) = p′ bezüglich der Standardbasis für Pn (R ) ist 0 1 0 0 ··· 0 0 0 2 0 · · · 0 0 0 0 3 · · · 0 .. .. .. .. .. . . . . . . 0 0 0 0 · · · n 0 0 0 0 ··· 0 Mit Hilfe dieser Matrix können wir p′ für jedes p ∈ Pn (R ) berechnen. Stellen wir das Polynom p ( x ) = α0 + α1 x + α2 x 2 + · · · + α n −1 x n −1 + α n x n als Spaltenvektor dar, so wird das Polynom 0 0 0 .. . 0 0 dargestellt. Somit ist α0 α1 α2 .. . α n −1 αn p′ ( x ) durch 0 ··· 0 α0 α1 0 · · · 0 α1 2α2 3 · · · 0 α2 3α3 = .. .. .. .. . . . . 0 0 0 · · · nαn−1 nαn 0 0 0 ··· 0 αn 0 1 0 0 .. . 0 2 0 .. . p′ ( x ) = α1 + 2α2 x + 3α3 x2 + · · · + nαn x n−1. 110 4.4 Der Daulraum Notation Da S, T und v als Matrizen betrachtet werden können, schreibt man in der Regel T (v) als Tv und S ◦ T als ST. Diese Notation – die auch im Falle von unendlichdimensionale Vektorräumen üblich ist – werden wir ab sofort verwenden. 4.4 Der Daulraum Definitionen Es sei V ein Vektorraum über einem Körper K. Der Vektorraum Hom (V,K ) aller linearen Abbildungen V → K heißt (algebraischer) Dualraum zu V und wird mit V ′ bezeichnet. Die Elemente von V ′ heißen lineare Funktionale auf V. Bemerkungen Es sei T ∈ V ′ , die nicht die Nullabbildung ist. 1. T ist surjektiv, denn aus 0 < dim Im T ≤ dim K = 1 folgt dim Im T = dim K und daher Im T = K. 2. Ist V endlichdimensional, so ist dem Dimensionssatz zufolge dim ker T = dim V − dim Im T = dim V − 1. Satz Es sei V ein endlichdimensionaler Vektorraum über einem Körper K und {e1 , . . . ,en } eine Basis für V. Dann ist { f 1 , . . . , f n }, wobei f i ∈ V ′ das eindeutige lineare Funktional mit 1, i = j, f i (e j ) = δij := 0, i 6= j ist, eine Basis für V ′ . Insbesondere gilt dim V ′ = dim V. 111 4.4 Der Daulraum Beweis Zunächst zeigen wir, dass f 1 , . . . , f n linear unabhängig sind. Es seien α1 , . . . , αn Skalare derart, dass α1 f 1 + · · · + αn f n = 0. Insbesondere gilt α1 f 1 (ei ) + · · · + αn f n (ei ) = 0, | {z } = αi i = 1, . . . ,n. Nun zeigen wir, dass h f 1 , . . . , f n i = V ′ . Wähle f ∈ V ′ und setze α i = f ( e i ), i = 1, . . . ,n. Dann gilt f (ei ) = (α1 f 1 + · · · + αn f n )(ei ), i = 1, . . . ,n. Die beiden linearen Abbildungen f und α1 f 1 + · · · + αn f n stimmen also auf einer Basis für V miteinander überein und sind somit gleich. Die Gleichung f = α1 f 1 + · · · + α n f n ist die Aussage, dass f sich als lineare Kombination von f 1 , . . . , f n darstellen lässt. Definition In der Notation des vorigen Satzes ist { f 1 , . . . , f n } die Dualbasis zu {e1 , . . . ,en }. Bemerkung Es seien n ∈ N und V ein n-dimensionaler Vektorraum. Die Darstellungsmatrizen der Abbildungen im Dualraum V ′ = Hom (V,K ) sind 1 × n Matrizen, also Zeilenvektoren. Stellen wir Elemente von V (mit Hilfe einer Basis {e1 , . . . ,en }) als Spaltenvektoren dar, so stellen wir Elemente von V ′ als Zeilenvektoren dar. Insbesondere hat e j 112 4.4 Der Daulraum die Darstellung als Spaltenvektor 0 .. . 0 ej = 1 ← j-te Komponente 0 . .. 0 während f j die Darstellung als Zeilenvektor fj = 0 · · · 0 1 0 · · · 0 ↑ j-te Komponente hat. 113 5 Matrixrechnung und lineare Gleichungssysteme 5 Matrixrechnung und lineare Gleichungssysteme 5.1 Über die Spalten und Zeilen einer Matrix Definition Es seien K ein Körper und A ∈ K m×n . Ist A = (aij ) k=1,...,m, , so heißt die durch die j =1,...,n Formel aTij := a ji definierte Matrix AT ∈ K n×m die transponierte Matrix von A. Bemerkung 1. Wir erhalten AT from A, indem wir die Spalten und Zeilen vertauschen, so dass die transponierte Matrix zu a11 a12 · · · a1n a21 a22 · · · a2n A = .. .. .. m Zeilen, . . . am1 am2 · · · amn | {z } n Spalten gleich ist. a11 a21 · · · am1 a a22 · · · am2 12 n Zeilen AT = .. .. .. . . . a1n a2n · · · amn {z } | m Spalten 2. Die transponierte Matrix von dem Spaltenvektor v1 .. v= . vn ist der Zeilenvektor vT = (v1 , . . . ,vn ) und umgekehrt. 114 5.1 Über die Spalten und Zeilen einer Matrix Notation Es seien K ein Körper und A ∈ K m×n . Bezeichne die Spalten und Zeilen von A A , so dass mit c1A , . . . , cnA bzw. r1A , . . . , rm A A A A = c1 c2 · · · cn = In dieser Notation ist a1j a2j c jA = . , .. r1A r2A .. . A rm . j = 1, . . . ,n amj und riA = (ai1 ,ai2 , . . . ,ain ), i = 1, . . . ,m. Bemerkung Aus der Formel m cij = ∑ aik bkj k=1 für C = AB mit A ∈ K ℓ×m , B ∈ K m×n (so dass C ∈ K ℓ×n ) folgt cCj m = und riC = ∑ bkj ckA , j = 1, . . . ,n k=1 m ∑ aik rkB , i = 1, . . . ,ℓ. k=1 Insbesondere sind die Spalten von AB lineare Kombinationen der Spalten von A, die Zeilen von AB lineare Kombinationen der Zeilen von B. 115 5.1 Über die Spalten und Zeilen einer Matrix Definitionen Es seien K ein Körper und A ∈ K m×n . 1. Der Spaltenraum von A ist der Unterraum hc1A , . . . , cnA i von K m . Seine Dimension ist der Spaltenrang von A. A )T i von K n . Seine 2. Der Zeilenraum von A ist der Unterraum h(r1A )T , . . . , (rm Dimension ist der Zeilenrang von A. Bemerkung Der Spaltenrang (Zeilenrang) von A ist die Maximalzahl linear unabhängiger Spalten (Zeilen) von A. Beispiel Der Zeilenrang der Matrix 1 3 −1 3 −2 1 −5 8 0 4 1 0 −1 8 2 −12 ist 2, denn r1 und r2 sind linear unabhängig und r3 = 2r1 − r2 , r4 = −3r1 + 2r2 . Satz Es seien K ein Körper und A ∈ K m×n . Dann ist Spaltenrang A = Zeilenrang A. Beweis Es seien c = Spaltenrang A und {e1 , . . . , ec } eine Basis für den Spaltenraum von A. Jede Spalte c jA von A lässt sich als lineare Kombination von e1 , . . . , ec schreiben, d.h. es gibt Skalare rkj derart, dass c jA c = ∑ rkj ek , j = 1, . . . ,n k=1 116 5.1 Über die Spalten und Zeilen einer Matrix Folgich ist A = ER, wobei R = (rkj ) k=1,...,c, und j =1,...,n E = e1 e2 · · · ec . Somit ist jede Zeile von A eine lineare Kombination der c Zeilen von R, so dass Zeilenrang A ≤ c = Spaltenrang A. Dasselbe Argument liefert Zeilenrang AT ≤ Spaltenrang AT . | | {z } {z } = Spaltenrang A = Zeilenrang A Somit ist Spaltenrang A = Zeilenrang A. Angesichts des letzten Lemmas sprechen wir nur von ‘dem Rang’ einer Matrix. Nun wenden wir uns der Frage zu, wie man ihn berechnet. Proposition Es sei A eine Matrix mit m Zeilen, bei der die ersten r Hauptdiagionalelemente von Null verschieden, die letzten m − r Zeilen sowie alle Elemente unterhalb der Hauptdiagonalen jedoch gleich Null sind, d.h. a11 0 a22 . .. . . . 0 · · · 0 arr A= 0 ⋆ 0 (⋆) Dann ist Rang A = r. 117 5.1 Über die Spalten und Zeilen einer Matrix Definition Unter einer elementaren Zeilenumformung einer Matrix versteht man (i) Vertauschung zweier Zeilen, (ii) Multiplikation einer Zeile mit einem Skalar λ 6= 0, (iii) Addition eines beliebigen Vielfachen λ einer Zeile zu einer anderen Zeile. Elementare Spaltenumformungen sind analog definiert. Proposition Elementare Zeilenumformungen (Spaltenumformungen) ändern nicht den Zeilenraum (Spaltenraum) und einer Matrix und folglich auch nicht ihren Rang. Können wir eine Matrix durch elementare Zeilen- und Spaltenumformungen in die Form (⋆) bringen, so können wir also ihren Rang bestimmen. Beispiel Bestimmen Sie den Rang der Matrix 2 1 0 1 −1 0 2 1 3 1 −1 4 Lösung Durch Verwendung elementarer Zeilen- und Spaltenumformungen erhalten wir eine Folge von Matrizen mit demselben Rang: 118 5.1 Über die Spalten und Zeilen einer Matrix 2 1 0 1 −1 0 2 1 1 3 2 1 −→ 0 −1 1 4 1 0 −→ 0 0 1 0 −→ 0 0 1 0 −→ 0 0 0 −1 2 1 0 −1 2 1 0 −1 0 0 0 −1 0 0 1 3 −1 4 1 1 −1 3 1 1 1 4 1 1 1 0 (Z1 ↔ Z2 ) (Z2 → Z2 − 2Z1 , Z4 → Z4 − Z1 ) (Z3 → Z3 + 2Z2 , Z4 → Z4 + Z2 ) (Z4 → Z4 − 4Z3 ) Der Rang der letzten – und somit auch der ersten – Matrix ist also 3. Durch diese Methode kann man weitere Ergebnisse herleiten. Satz (Rangungleichung von Sylvester) Es sei K ein Körper und A ∈ K ℓ×m , B ∈ K m×n . Dann gilt Rang A + Rang B ≤ Rang AB + m. Beweis Zunächst bemerken wir die allgemeinen Ergebnisse M1 0 M1 ⋆ = Rang M1 + Rang M2 , ≥ Rang M1 + Rang M2 . 0 M2 0 M2 Folglich gilt Im 0 = m + Rang AB, Rang 0 AB B Im ≥ Rang A + Rang B, Rang 0 A 119 5.1 Über die Spalten und Zeilen einer Matrix wobei Im die m × m Matrix ist, deren Hauptdiagonalelemente gleich 1 und alle anderen Elemente gleich 0 sind. Durch elementare Zeilen- und Spaltenumformungen erreichen wir aber Im 0 0 AB (Zm+1 → Zm+1 + a1j Zj , ..., Zm+ℓ → Zm+ℓ + aℓ j Zj , Im − B A 0 (Sm+1 → Sm+1 − b j1 S j , ..., Sm+n → Sm+n − b jn S j , − B Im −→ 0 A B Im −→ 0 A (Spaltenvertauschungen) −→ Im 0 A AB −→ (S j ↔ − S j , j = 1, . . . ,m, j = 1, . . . ,m) j = 1, . . . ,m, j = 1, . . . ,m) j = 1, . . . ,m) Definition Eine m × n Matrix A hat Zeilenstufenform, falls die folgenden Bedingungen erfüllt sind. (i) Die letzten m − r Zeilen sind identisch Null, die ersten r Zeilen jedoch nicht. (Hier ist 0 ≤ r ≤ m.) (ii) Ist das erste nichtverschwindende Element in Zeile i in Spalte ji , so gilt 1 ≤ j1 < j2 < . . . < jr ≤ n. 0 0 . .. A= 0 0 .. . 0 · · · 0 a1j1 ··· 0 0 .. .. . . ··· 0 0 ··· 0 0 .. .. . . ··· 0 0 ⋆ ⋆ ⋆ · · · 0 a2j2 .. .. . . ··· 0 0 ··· 0 0 .. .. . . ··· 0 0 ⋆ ⋆ ⋆ ⋆ ⋆ ⋆ .. .. . . · · · 0 arjr ··· 0 0 .. .. . . ··· 0 0 ⋆ ⋆ .. . ⋆ 0 .. . ··· 0 ⋆ ⋆ .. . ⋆ ··· 120 5.1 Über die Spalten und Zeilen einer Matrix Proposition Der Rang einer Matrix in Zeilenstufenform ist die Anzahl der Zeilen, die nicht identisch Null sind. Lemma (Gauß-Algorithmus) Jede Matrix kann durch elementare Zeilenumformungen in Zeilenstufenform gebracht werden. Beweis Wir beginnen mit einer m × n Matrix A. Falls alle Spalten identisch Null sind, sind wir fertig. Andernfalls sei j1 der kleinste Index, für den die Spalte c jA1 ungleich Null ist. Durch Vertauschen von Zeilen können wir erreichen, dass der erste Entrag von c jA1 ungleich Null ist. Mit einem Missbrauch der Notation beziechnen wir die Einträge von c j1 noch mit a1j1 , . . . , amj1 . Die übrigen Einträge dieser Spalte können wir durch die elementare Zeilenumformungen aij Zi → Zi − 1 Z1 , i = 2, . . . ,m a1j1 zu Null Machen. Es ergibt sich dann eine Matrix der Form 0 · · · 0 a1j1 ⋆ · · · ⋆ 0 ··· 0 0 , .. .. .. ′ . . . A 0 ··· 0 0 wobei A′ eine (m − 1) × (n − j1 ) Matrix ist. Das gewünschte Ergebnis erhält man durch Iteration. 121 5.1 Über die Spalten und Zeilen einer Matrix Bemerkung Eine Matrix in Zeilenstufenform kann durch Spaltenvertauschungen in die Form (⋆) gebracht werden. Bemerkung Es sei K ein Körper. Es wurde im Abschnitt 4.2 gezeigt, dass Hom(K n ,K m ) ∼ = K m×n (der Isomorphisn m mus bildet eine Abbildung K → K auf ihre Matrixdarstellung bezüglich der Standardbasen für K n und K m ab). Insbesondere definiert jeder Matrix A × K m×n definiert eine lineare Abbildung T : K n → K m durch die Formel Tx = Ax. Ferner ist die Darstellungsmatrix von T bezüglich der Standardbasen für K n und K m gleich A. 1. Angesichts dieser Bemerkung unterscheiden wir nicht zwischen T und A und schreiben ker A statt ker T, Im A statt Im T usw. 2. In dieser Schreibweise ist Rang A := dim Im A. Da Im A = h Ae1 , . . . , Aen i | {z } die Spalten von A ist, ist dim Im A die Dimension des Spaltenraums von A. Diese Definition stimmt also mit unserer vorigen Definition von Rang A überein. 3. Bringen wir A ist Zeilenstufenform, so ist Rang A die Anzahl der Zeilen, die nicht identisch Null sind. Dem Dimensionssatz zufolge ist Def A = n − Rang A. 4. A ist genau dann surjektiv, wenn Rang A = m ist, und genau dann injektiv, wenn Def A = 0 ist. 122 5.2 Die Inverse einer Matrix 5.2 Die Inverse einer Matrix Definitionen Es sei K ein Körper. 1. Die n × n Matrix In := ist die Identitätsmatrix. 1 .. . 1 2. Die Matrix A ∈ K n×n heißt invertierbar oder regulär, falls es eine Matrix B ∈ K n×n mit AB = BA = In gibt. In diesem Fall heißt B die Inverse von A und wird mit A−1 bezeichnet. Proposition Es sei K ein Körper. Die Menge aller invertierbaren Matrizen in K n×n bildet eine Gruppe bezüglich Matrixmultiplikation mit neutralem Element In . (Dies ist die allgemeine lineare Gruppe GL(n,K ).) Bemerkungen Aus der letzten Proposition folgt (i) die Eindeutigkeit der Inverse einer invertierbaren Matrix, (ii) die Formel ( AB)−1 = B−1 A−1 für zwei invertierbaren n × n Matrizen A, B. Beispiel GL(2,R ) = und a b c d −1 a b c d : a,b,c,d ∈ R, ad 6= bc 1 d −b = , ad − bc −c a ad 6= bc. 123 5.2 Die Inverse einer Matrix Proposition Es seien K ein Körper und M(T ) die Matrixdarstellung einer linearen Abbildung T : K n → K n bezüglich der Standardbasis für K n . Dann ist die Abbildung T 7→ M(T ) ein Gruppenisomorphismus Iso(K n ,K n ) → GL(n,K ) bezüglich Komposition bzw. Matrixmultiplikation. Insbesondere ist die Matrix A ∈ K n×n genau dann invertierbar, wenn die durch die Formel Tx = Ax definierte lineare Abbildung T : K n → K n bijektiv ist. In diesem Fall ist die Darstellungsmatrix von T −1 : K n → K n gleich A−1 . Bemerkungen 1. In der Regel sagen wir einfach ‘A ist bijektiv’. 2. Die Identitätsmatrix In : K n → K n ist die Darstellungsmatrix der Identitätssbbildung K n → K n , x 7→ x. Proposition Es sei A eine n × n Matrix. Dann sind die folgenden Aussagen äquivalent. 1. A ist invertierbar. 2. A ist injektiv. 3. A ist surjektiv. 4. Rang A = n. 5. AT ist invertierbar. Lemma Eine n × n Matrix A ist genau dann invertierbar, wenn sie zur Identitätsmatrix durch elementare Zeilenumformungen überführt werden kann. 124 5.2 Die Inverse einer Matrix Beweis A ist genau dann bijektiv, wenn Rang A = n ist, d.h. wenn sie durch elementare Zeilenumformungen in die Zeilenstufenform a11 0 a22 .. . . . . 0 · · · 0 arr gebracht werden kann. Fener kann jede Matrix A genau dann in die obige Form durch elementare Zielenumformungen gebracht werden, wenn sie zur Identitätsmatrix durch elementare Zeilenumformungen überführt werden kann. Nun stellen wir eine Methode zur Berechnung der Inverse einer Matrix mit maximalem Rang vor. Definition Eine n × n elementare Matrix ist das Ergebnis einer elementaren Umformung von In . Die elementare Umformung Zi ↔ Zj oder Si ↔ S j ergibt die Matrix .. .. . . 1 0 .. .. .. . 0 . . . . 1 . 0 · · · · · · · · · 0 · · · · · · 0 1 0 · · · · · · ← i-te Zeile . .. 1 0 .. .. .. Vij = . . . . 0 1 .. · · · · · · 0 1 0 · · · · · · 0 · · · · · · · · · ← j-te Zeile .. 0 . 1 . . . .. .. .. .. .. . . 1 ↑ ↑ i-te Spalte j-te Spalte 125 5.2 Die Inverse einer Matrix Die elementare Umformung Zi → λZi oder Si → λS j mit λ 6= 0 ergibt die Matrix Miλ = 1 .. . 1 λ 1 .. . 1 ↑ i-te Spalte ← i-te Zeile Die elementare Umformung Zi → Zi + λZj oder S j → S j + λSi ergibt die Matrix .. .. . . 1 0 .. .. .. . 0 . . .. 0 1 . · · · · · · · · · 0 · · · · · · 0 λ 0 · · · · · · ← i-te Zeile .. . 1 0 . . λ . . . . Aij = . . . .. .. . 1 . · · · · · · · · · · · · · · · · · · 1 · · · · · · · · · ← j-te Zeile .. .. . . 1 . . . .. .. .. .. .. . . 1 ↑ ↑ i-te Spalte j-te Spalte Proposition 1. Das Ergebnis einer elementaren Zeilenumformung einer m × n Matrix A erhält man durch Linksmultiplikation mit der entsprechenden m × m elementaren Matrix. 2. Das Ergebnis einer elementaren Spaltenumformung einer m × n Matrix A erhält man durch Rechtsmultiplikation mit der entsprechenden n × n elementaren Matrix. 126 5.2 Die Inverse einer Matrix Korollar Die elementaren Matrizen sind invertierbar mit Vij−1 = Vij , ( Miλ )−1 = Mi1/λ und ( Aijλ )−1 = Aij−λ . Korollar Es sei A eine invertierbare n × n Matrix, so das A durch eine Folge elementarer Zeilenumformungen mit entsprechenden elementaren Matrizen E1 , . . . , E p zur Identitätsmatrix überführt werden kann. Dann ist A−1 = E p E p−1 · · · E1 . Beweis Dies folgt aus der Gleichung E p E p−1 · · · E1 A = In . Aus der Gleichung A−1 = E p E p−1 · · · E1 In , folgt, dass die elementaren Zeilenumformungen, die A in In überführen, auch In in A−1 überführen. Beispiel Bestimmen Sie die Inverse der Matrix 2 −1 3 1 0 1 ∈ GL(3,R ). 0 2 −1 127 5.3 Lineare Gleichungssysteme Lösung Die Rechnung 1 0 1 010 2 −1 3 1 0 0 1 0 1 0 1 0 −→ 2 −1 3 1 0 0 0 2 −1 0 0 1 0 2 −1 0 0 1 1 0 1 0 1 0 −→ 0 −1 1 1 −2 0 0 2 −1 0 0 1 1 0 10 1 0 −→ 0 −1 1 1 −2 0 0 0 1 2 −4 1 1 0 0 −2 5 −1 −→ 0 −1 0 −1 2 −1 0 0 1 2 −4 1 1 0 0 −2 5 −1 −→ 0 1 0 1 −2 1 0 0 1 2 −4 1 ergibt (Z1 ↔ Z2 ) (Z2 → Z2 − 2Z1 ) (Z3 → Z3 + 2Z2 ) (Z1 → Z1 − Z3 , Z2 → Z2 − Z3 ) (Z2 → − Z2 ) −1 2 −1 3 −2 5 −1 1 0 1 = 1 − 2 1 . 0 2 −1 2 −4 1 5.3 Lineare Gleichungssysteme In diesem Abschnitt handelt es sich um die folgende Fragestellung. Betrachte das lineare Gleichungssystem a11 x1 + a12 x2 + · · · + a1n xn = b1 , a21 x1 + a22 x2 + · · · + a2n xn = b2 , .. .. .. . . . am1 x1 + am2 x2 + · · · + amn xn = bm , (⋆) wobei die Koeffizienten aij sowie die rechten Seiten bi gegeben sind. Existeren Werte der Unbekannten x1 , . . . , xn , die diese Gleichungen lösen? (Dabei arbeiten 128 5.3 Lineare Gleichungssysteme wir in einem Körper K.) Und wie können wir die Menge der Lösungen beschreiben? Beispiel Die reellen Gleichungen a11 x1 + a12 x2 + a13 x3 = b1 , a21 x1 + a22 x2 + a23 x3 = b2 , a31 x1 + a32 x2 + a33 x3 = b3 beschreiben drei Ebenen, sodass die Lösungsmenge M dieses Gleichungssystems die Schnittmenge der Ebenen ist. Es gibt einige mögliche geometrische Konfigurationen. Alle drei Ebenen stimmen miteinander überein. v2 v1 a M = {a + λ1 v1 + λ2 v2 : λ1 ,λ2 ∈ R } besteht aus den Punkten dieser Ebene und wird durch zwei Parameter λ1 , λ2 gegeben. Zwei Ebenen stimmen miteinander überein, die dritte ist parallel zu dieser. M = ∅. v a Zwei Ebenen stimmen miteinander überein, die dritte schneidet die gemeinsame Ebene in einer einer Geraden M = {a + λv : λ ∈ R }, die durch einen Parameter λ gegeben wird. Die Ebenen sind parallel zueinander. M = ∅. 129 5.3 Lineare Gleichungssysteme Zwei Ebenen sind parallel zueinander, die dritte schneidet die anderen in jeweils einer Geraden. M = ∅. Die drei Ebenen sind alle verschieden und schneiden sich jeweils in einer verschiedenen Gerade. M = ∅. Die drei Ebenen sind alle verschieden und schneiden sich in einer Geraden v a M = {a + λv : λ ∈ R }, die durch einen Parameter λ gegeben wird. Die drei Ebenen sind alle verschieden und schneiden sich in einem Punkt M. Nun betrachten wir das lineare Gleichungssystem (⋆) etwas systematischer. Wir können es in der Form Ax = b schreiben, wobei A ∈ K m×n und b ∈ K m gegeben, der unbekannte Vektor x ∈ K n zu finden sind. 130 5.3 Lineare Gleichungssysteme Definitionen Es sei Ax = b ein lineares Gleichungssystem für die Unbekannten x ∈ K n . Die Matrix A ∈ K m×n ist seine Koeffizientenmatrix, die Matrix ( A|b) ∈ K m×(n+1) seine erweiterte Koeffizientenmatrix. Das System heißt homogen, falls b = 0 ist, ansonsten ist es inhomogen. Proposition Das lineare Gleichungssystem Ax = b hat genau dann eine Lösung, wenn Rang ( A|b) = Rang A ist. Beweis Zunächst bemerken wir: Rang ( A|b) ≥ Rang A mit Gleichheit genau dann, wenn b im Spaltenraum von A liegt. Schreiben wir die Gleichung Ax = b als x1 c1A + · · · + xn cnA = b um, so erkennen wir, dass sie genau dann eine Lösung hat, wenn b sich als lineare Kombination der Spalten von A darstellen lässt. Dies ist aber genau dann der Fall, wenn b im Spaltenraum von A liegt. Definition Hat das lineare Gleichungssystem Ax = b keine Lösung, d.h. Rang ( A|b) > Rang A, so heißt es inkonsistent. 131 5.3 Lineare Gleichungssysteme Proposition 1. Die Lösungsmenge des homogenen Gleichungssystems Ax = 0 ist der Unterraum ker A von K n und hat Dimension n − Rang A. 2. Nun habe das Gleichungssystem Ax = b die Lösung x⋆ . Dann ist ihre Lösungsmenge die Nebenklasse x⋆ + ker A. Proposition Es sei ( A|b) in ( A′ |b′ ) durch eine elementare Zeilenumformung überführbar. Dann sind die Lösungsmengen der linearen Gleichungssysteme Ax = b und A′ x = b′ identisch. Bemerkung Die elementare Spaltenvertauschung Si ↔ S j in der Matrix A transformiert das lineare Gleichungssystem x1 c1A + · · · + xi ciA + · · · + x j c jA + · · · + xn cnA in x1 c1A + · · · + xi c jA + · · · + x j ciA + · · · + xn cnA und entspricht somit einer Umbennenung der Variablen xi und x j . 132 5.3 Lineare Gleichungssysteme Beispiel Es sei ( A|b) ∈ K m×(n+1) in Zeilenstufenform mit Rang A = Rang ( A|b). Durch Umbennung der Variablen können wir annehmen, dass ( A|b) die Form a11 0 a22 . .. . . . 0 · · · 0 arr ( A|b) = 0 A2 0 b1 b2 .. . br 0 mit a11 , . . . arr 6= 0 und A2 ∈ Kr×(n−r) hat. Somit ist Ax = b äquivalent zu a11 x1 xr +1 b1 0 a22 x2 xr+2 b2 .. .. + A2 .. = .. , . . . . . . . 0 · · · 0 arr xr xn br {z } | : = A1 und die Lösungsmenge dieses Systems ist x1 .. . x b x 1 1 r + 1 x .. r n .. −1 .. −1 ∈ K : . = A1 . − A1 A2 . . xr +1 . x b x r r n . . xn Beachte, dass die Lösungsmenge durch n − r Parameter xr+1 , . . . , xn gegeben ist. Beispiel Lösen Sie das reelle lineare Gleichungsystem x + 3y + 2z = k, 2x + ky + 4z = 12, kx + 2y − 4z = 20. 133 5.3 Lineare Gleichungssysteme Lösung Wir betrachten die erweiterte Koeffizientenmatrix 13 2 k 2 k 4 12 . k 2 −4 20 Es gilt 1 3 2 k 13 2 k 2 k 4 12 −→ 0 k − 6 0 12 − 2k k 2 −4 20 0 2 − 3k −4 − 2k 20 − k2 Im Falle k = 6 gilt also 1 3 2 13 2 k 6 2 k 4 12 −→ 0 0 0 0 k 2 −4 20 0 −16 −16 −16 1326 −→ 0 1 1 1 0000 (Z2 → Z2 − 2Z1 , Z3 → Z3 − kZ1 ) (Z2 → Z2 − 2Z1 , Z3 → Z3 − 6Z1 ) 1 (Z2 ↔ Z3 , Z2 → − 16 Z2 ), und die Lösungsmenge des linearen Gleichungssystems x + 3y + 2z = 6, y+z=1 ist 3+λ x y = 1 − λ : λ ∈ R . z λ Im Falle k 6= 6 gilt dagegen 13 2 k 2 k 4 12 k 2 −4 20 k 1 3 2 0 −2 −→ 0 1 0 2 − 3k −2(2 + k) 20 − k2 1 3 2 k 0 −2 −→ 0 1 2 0 0 −2(2 + k) 24 − 6k − k (Z2 → Z2 − 2Z1 , Z3 → Z3 − kZ1 ) (Z3 → Z3 − (2 − 3k)Z2 ). 134 5.4 Determinanten Für k = −2 liegt also Inkonsistenz vor. Für k 6= −2 hat dagegen das lineare Gleichungssystem x + 3y + 2z = k, y = −2, −2(2 + k)z = 24 − 6k − k2 die eindeutige Lösung 2(18 + k) 2+k x . y = −2 z 2 −24 + 6k + k 2 (2 + k ) 5.4 Determinanten Definition Es sei K ein Körper. Eine Abbildung det : K n×n → K heißt Determinantenfunktion, falls sie die folgenden drei Eigenschaften besitzt. 1. Sie ist in jeder Zeile ihres Arguments linear, d.h. r1 r1 .. .. . . det α1 r1j + α2 r2j = α1 det r1j + α2 det .. .. . . rn rn r1 .. . r2j .. . rn für alle r1 , . . . , r j−1, r j+1, . . . , rn , r1j , r2j ∈ K1×n , α1 , α2 ∈ K und j = 1, . . . ,n. 2. Ist A nicht invertierbar (d.h. Rang A < n), so ist det A = 0. 3. det In = 1. Bemerkung Insbesondere ist det A = 0, falls zwei Zeilen von A gleich sind oder A eine Zeile hat, die indentisch Null ist. 135 5.4 Determinanten Lemma Es seien K ein Körper und det : K n×n → K eine Determinantenfunktion. Dann gelten die folgenden Aussagen. 1. Verwandelt man die Matrix A durch Vertauschen zweier Zeilen in eine Matrix A′ , so gilt det A′ = − det A. 2. Verwandelt man die Matrix A durch Multiplikation einer Zeile mit λ ∈ K \ {0} in eine Matrix A′ , so gilt det A′ = λ det A. 3. Verwandelt man die Matrix A durch Addition eines Vielfachen einer Zeile zu einer anderen Zeile in eine Matrix A′ , so gilt det A′ = det A. Beweis 1. Es sei A′ durch die elementare Zeilenumformung Zi ↔ Zj aus A entstanden. Dann gilt r1A . . . A A ri + r j ← i-te Zeile .. 0 = det . A A ri + r j ← j-te Zeile .. . rnA = det .. . riA .. . riA + r jA .. . + det .. . r jA .. . riA + r jA .. . 136 5.4 Determinanten = det | sodass .. . riA .. . riA .. . {z =0 + det } .. . + det riA .. . r jA .. . | .. . r jA .. . riA .. . {z =0 0 = det A + det A′ . + det } .. . r jA .. . r jA .. . , 2. Dies folgt direkt aus der Linearität der Determinantenfunktion in der i-ten Zeile. 3. Es sei A′ durch die elementare Zeilenumformung Zi ↔ Zi + λZj aus A entstanden. Dann gilt det riA + λr jA .. . r jA .. . rnA = det sodass r1A .. . .. . riA .. . r jA .. . ← i-te Zeile ← j-te Zeile + λ det | .. . r jA .. . r jA .. . {z =0 det A′ = det A. , } 137 5.4 Determinanten Proposition Es sei K ein Körper und det : K n×n → K eine Determinantenfunktion. Dann ist det A = 0 genau dann, wenn A nicht invertierbar ist. Beweis Definitionsgemäß ist det A = 0, falls A nicht invertierbar ist. Ist dagagen A invertierbar, so ist sie durch elementare Zeilenumformungen in In überführbar. Somit ist det A = µ det In = µ für irgendein Skalar µ 6= 0. Lemma Es sei K ein Körper. Dann gibt es höchstens eine Determinantenfunktion K n×n → K. Beweis Es seien det1 und det2 Determinantenfunktionen K n×n → K. Ist A nicht invertierbar, so ist det1 A = det2 A = 0. Es sei A durch elementare Zeilenumformungen in A′ überführbar (so dass A′ in A durch elementare Zeilenumformungen überführbar ist). Dann gilt det1 A = det2 A ⇔ det1 A′ = det2 A′ . det1 A = det2 A ⇔ det1 In = det2 In , Insbesondere gilt (⋆) falls A invertierbar ist, denn eine invertierbare Matrix ist in In durch elementare Zeilenumformungen überführbar. Aus det1 In = det2 In = 1 und (⋆) folgt also, dass det1 A = det2 A für jede invertierbare Matrix A ist. Schließlich zeigen wir, dass es tatsächlich eine Determinantenfunktion gibt. 138 5.4 Determinanten Satz (Entwicklungssatz von Laplace) Es seien K ein Körper. Die induktiv definierten Funktionen a11 , n = 1, n i = 1, . . . ,n rdeti A = i+ j ′ (− 1 ) a det A , n > 1, ij ij ∑ j =1 (Entwicklung nach der i-ten Zeile) und cdet j A = a11 , n = 1, j = 1, . . . ,n n i+ j ′ ∑ (−1) aij det Aij , n > 1, (Entwicklung nach der j-ten Spalte) i =1 wobei a11 · · · a1j · · · a1n .. .. . . ′ (n −1)×(n −1) Aij = ai1 · · · aij · · · ain ∈K .. .. . . an1 · · · anj · · · amn die durch Streichen der i-ten Zeile und j-ten Spalte aus A entstehende Matrix ist, sind Determinantenfunktionen K n×n → K (und daher alle gleich). Bemerkung Die Vorzeichenverteilung in den Entwicklungsformeln kann man sich als ‘Schachbrettmuster’ merken: + − + − .. . − + − + .. . + − + − .. . − + − + .. . + − + − .. . ... . . . . . . . . . Beispiele 1. Es gilt a b det c d a b a b − b det = ad − bc, = a det c d c d 139 5.4 Determinanten so dass die Matrix a b c d genau dann invertierbar ist, wenn ad 6= bc. 2. Es gilt a11 a12 a13 det a21 a22 a23 a31 a32 a33 a11 a12 a13 a11 a12 a13 a11 a12 a13 = a11 det a21 a22 a23 − a12 det a21 a22 a23 + a13 det a21 a22 a23 a31 a32 a33 a31 a32 a33 a31 a32 a33 a a a a a a = a11 det 22 23 − a12 det 21 23 + a13 det 21 22 a32 a33 a31 a33 a31 a32 = a11 (a22 a33 − a32 a23 ) − a12 (a21 a33 − a31 a23 ) + a13 (a21 a32 − a31 a22 ) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 . (Dies ist die Regel von Sarrus: Man versieht die drei ‘Hauptdiagonalen’ mit Plus und die drei ‘Nebendiagonalien’ mit Minus.) 3. Entwicklung nach der ersten Spalte ergibt a11 a11 0 a22 0 a22 det .. = a11 det .. .. . . . . . . 0 ··· 0 0 · · · 0 arr a22 .. . . = a11 det . . arr 0 · · · arr . Verfahren wir iterativ, so erhalten wir die Formel det A = a11 a22 . . . arr für eine obere Dreiecksmatrix a11 0 a22 A = .. . . . . . 0 · · · 0 arr 4. Es gilt 1 a2 + bc a3 det 1 b2 + ac b3 = (a − b)(b − c)(c − a)(a2 + b2 + c2 ), 1 c2 + ab c3 140 5.4 Determinanten denn 1 a2 + bc a3 det 1 b2 + ac b3 1 c2 + ab c3 1 a2 + bc a3 = det 0 (b − a)(a + b − c) (b − a)(b2 + ba + a2 ) 0 (c − a)(a + c − b) (c − a)(c2 + ca + a2 ) (Z2 → Z2 − Z1 , Z3 → Z3 − Z1 ) 1 a2 + bc a3 = (b − a)(c − a) det 0 a + b − c b2 + ba + a2 0 a + c − b c2 + ca + a2 a + b − c b2 + ba + a2 = (b − a)(c − a) det a + c − b c2 + ca + a2 (Entwicklung nach der ersten Spalte) a+b−c b2 + ba + a2 = (b − a)(c − a) det 2(c − b) (c − b)(a + b + c) (Z2 → Z2 − Z1 ) a + b − c b2 + ba + a2 = (b − a)(c − a)(c − b) det . 2 a+b+c | {z } 2 2 2 = −a − b − c Lemma Es sei K ein Körper. Dann gilt det A = det AT für jedes A ∈ K n×n . Beweis Wir beweisen die Aussage durch Induktion über n. Der Induktionsanfang (n = 1) ist trivial. Nun sei die Aussage richtig für n = k. Es sei A ∈ K (k+1)×(k+1) . Wir rechnen det A aus, indem wir nach der ersten Zeile entwickeln, sodass det A = k+1 ∑ (−1)1+ j ( A)1j det A1j′ . j =1 141 5.4 Determinanten Umgekehrt rechnen wir det AT aus, indem wir nach der ersten Spalte entwickeln, sodass det AT = k+1 ∑ (−1) j+1 ( AT ) j1 det( AT )′j1 . j =1 Es gilt aber ( AT ) ji = ( A)ij sowie ( AT )′ji = ( Aij′ )T und folglich T k+1 det A = ′ T ( A1j ) ∑ (−1) j+1 ( A)1j det | {z } j =1 ′ ∈ K n×n ) (denn det A1j ′ = det A1j = det A. Korollar Es sei K ein Körper. Dann ist die Abbildung det : K n×n → K in jeder Spalte ihres Arguments linear, d.h. det c1 · · · α1 c1j + α2 c2j · · · cn = α1 det c1 · · · c1j · · · cn + α2 det c1 · · · c2j · · · cn für alle c1 , . . . , c j−1 , c j+1 , . . . , cn , c1j , c2j ∈ K n , α1 , α2 ∈ K und j = 1, . . . ,n. Korollar Es seien K ein Körper und A ∈ K n×n . Dann gelten die folgenden Aussagen. 1. Verwandelt man A durch Vertauschen zweier Spalten in eine Matrix A′ , so gilt det A′ = − det A. 2. Verwandelt man A durch Multiplikation einer Spalte mit λ ∈ K \ {0} in eine Matrix A′ , so gilt det A′ = λ det A. 3. Verwandelt man A durch Addition eines Vielfachen einer Spalte zu einer anderen Spalte in eine Matrix A′ , so gilt det A′ = det A. Nun präsentieren wir Methoden zum Invertieren einer regulären Matrix sowie zum Lösen eines linearen Gleichungssystems, die eher von akademischem als vom praktischem Interesse sind. 142 5.4 Determinanten Definition Es seien K ein Körper und A ∈ K n×n . Die Matrix A♯ = (aij♯ ) ∈ K n×n mit ♯ aij = (−1) j+i A′ji ist die zu A komplementäre Matrix. Bemerkung Es gilt aij♯ = (−1) j+i det A′ji a11 · · · a1i · · · a1n .. .. . . j +i = (−1) det a j1 · · · a ji · · · a jn . .. .. . an1 · · · ani · · · amn a11 · · · a1,i −1 0 a1,i +1 .. .. .. .. . . . . a j−1,1 · · · a j−1,i −1 0 a j−1,i +1 = (−1) j+i det a j,1 · · · a j,i −1 1 a j,i +1 a j+1,1 · · · a j+1,i −1 0 a j+1,i +1 .. .. .. .. . . . . an1 a11 .. . a j−1,1 = det a j,1 a j+1,1 .. . an1 · · · an,i −1 0 an,i +1 · · · a1,i −1 .. . · · · a j−1,i −1 · · · a j,i −1 · · · a j+1,i −1 .. . · · · an,i −1 0 a1,i +1 .. .. . . 0 a j−1,i +1 1 a j,i +1 0 a j+1,i +1 .. .. . . 0 an,i +1 = det c1A · · · ciA−1 e j ciA+1 · · · cnA . · · · a1n .. . · · · a j−1,n · · · a j,n · · · a j+1,n .. . · · · ann · · · a1n .. . · · · a j−1,n · · · a j,n · · · a j+1,n .. . · · · ann 143 5.4 Determinanten Proposition Es seien K ein Körper, A ∈ K n×n und A♯ die zu A komplementäre Matrix. Dann gilt A♯ A = AA♯ = (det A) In . Beweis Es gilt n ♯ ( A A)ij = ♯ ∑ aik akj k=1 n = ∑ akj (−1)k+i det A′ki k=1 n = ∑ akj det k=1 c1A · · · ciA−1 ek ciA+1 · · · cnA = det c1A · · · ciA−1 n ∑ akj ek ciA+1 · · · cnA k=1 = det c1A · · · ciA−1 c jA ciA+1 · · · cnA det A, i = j, = 0, i 6= j = (det A)δij . ! Analog berechnet man AA♯ . Korollar Es seien K ein Körper und A ∈ GL(n,K ). Dann gilt A −1 = 1 A♯ . det A 144 5.4 Determinanten Lemma (Cramersche Regel) Es seien K ein Körper, A ∈ GL(n,K ) und b ∈ K n . Dann ist die eindeutige Lösung des linearen Gleichungssystems Ax = b durch die Formel det c1A · · · ciA−1 b ciA+1 · · · cnA xi = , det A i = 1, . . . ,n gegeben. Beweis Es gilt nun x = A −1 b = 1 A♯ b, det A sodass 1 ( A ♯ b )i det A n 1 aij♯ b j = ∑ det A j=1 xi = n 1 b j det c1A · · · ciA−1 e j ciA+1 · · · cnA ∑ det A j=1 ! n 1 A A A A det c1 · · · ci −1 ∑ b j e j ci +1 · · · cn = det A j =1 1 = det c1A · · · ciA−1 b ciA+1 · · · cnA , det A = 145 6 Eigenwerte und Eigenvektoren 6 Eigenwerte und Eigenvektoren Definition Es seien V ein Vektorraum über einem Körper K und T : V → V eine lineare Abbildung. Der Unterraum U von V heißt invariant unter T, falls T [U ] ⊆ U. Bemerkung Ist U invariant unter T, so ist T [U ] ein Unterraum von U. Beispiele 1. Es sei V ein Vektorraum über einem Körper K. {0}, V, ker T und Im T sind invariante Unterräume jeder linearen Abbildung T : V → V. 2. Es sei n ∈ N. Der Unterraum Pn (R ) von P(R ) ist invariant unter der linearen Abbildung T : p 7→ p′ . Definitionen Es seien V ein Vektorraum über einem Körper K und T : V → V eine lineare Abbildung. Gibt es ein Skalar λ und einen Vektor v 6= 0 mit Tv = λv, so heißt λ Eigenwert von T. Der Vektor v ist ein Eigenvektor zu λ. Es sei λ ein Eigenwert von T. Die Menge Eλ = {v : Tv = λv} = ker(T − λI ) ist der Eigenraum zum Eigenvektor λ. Seine Dimension ist die geometrische Vielfachheit von λ. 146 6 Eigenwerte und Eigenvektoren Proposition Es seien V ein Vektorraum über einem Körper K und λ ein Eigenwert der linearen Abbildung T : V → V. Der Eigenraum Eλ ist ein Unterraum von V, der unter T invariant ist. Beweis Als Nullraum der linearen Abbildung T − λI : V → V ist Eλ ein Unterraum von V. Er ist invariant unter T, denn T [ Eλ ] = λEλ ⊆ Eλ (mit Gleichheit genau dann, wenn λ 6= 0). Beispiele 1. Es sei V ein Vektorraum über einem Körper K. Die Identitätsabbildung I : V → V hat den Eigenwert 1 und E1 = V (sodass alle nichttrivialen Vektoren Eigenvektoren mit Eigenwert 1 sind). Jede nicht injektive Abbildung T : V → V hat den Eigenwert 0 und E0 = ker T (so dass alle nichttrivialen Vektoren in ker T Eigenvektoren mit Eigenwert 0 sind). 2. Nun betrachten wir drei geometrische Beispiele im R2 . v v-1 v1 Rv1 Rv-1 Sv θ Tv v v1 Tv1 Eine Spiegelung R : R2 → R2 hat die Eigenwerte 1 und −1: E1 ist die Spiegelungsachse, E−1 ist die senkrechte Gerade durch den Nullpunkt. Eine Drehung S : R2 → R2 um den Winkel θ ∈ (0,π ) ∪ (π,2π ) hat keine Eigenwerte. Eine Scherung T : R2 → R2 hat den Eigenwert 1: E1 ist die Scherungsachse. 147 6 Eigenwerte und Eigenvektoren 3. Es sei C∞ (R ) die Menge aller unendlich oft differenzierbaren Funktionen R → R. Die Abbildung T : C∞ (R ) → C∞ (R ) mit T ( f ) = f ′ hat jede reelle Zahl λ als Eigenwert, denn T (eλx ) = λT (eλx ). Proposition Es seien V ein endlichdimensionaler Vektorraum über einem Körper K und T : V → V eine lineare Abbildung. Dann ist λ ein Eigenwert von K genau denn, wenn det(T − λI ) = 0. Beweis Es gilt Tv − λv = 0 für irgendeinen v 6= 0 ⇔(T − λI )v = 0 ⇔ ker(T − λI ) 6= {0} ⇔ dim ker(T − λI ) > 0 ⇔ dim Im (T − λI ) < dim V {z } | = Rang (T − λI ) ⇔ det(T − λI ) = 0. Definition Es seien V ein n-endlichdimensionaler Vektorraum über einem Körper K und T : V → V eine lineare Abbildung. Die Abbildung c : K → K mit a11 − λ a12 a13 · · · a1n a21 a22 − λ a23 · · · a2n a a a − λ · · · a 32 33 3n 31 c(λ) = det(T − λI ) = det , .. .. .. .. . . . . an1 an2 an3 · · · ann − λ wobei A = (aij ) die Darstellungsmatrix für T bezuglich einer Basis für T ist, heißt die charakteristische Funktion von T. 148 6 Eigenwerte und Eigenvektoren Proposition Es seien V ein n-endlichdimensionaler Vektorraum über einem Körper K. Die charakteristische Funktion einer linearen Abbildung T : V → V ist ein Polynom vom Grad n mit Koeffizienten aus K. Bemerkung Angesichts der letzten Proposition bezeichnen wir c in der Regel als das charakteristische Polynom von T. Beispiel Berechnen Sie die Eigenwerte der reellen Matrix 3 2 4 A = 2 0 2 4 2 3 sowie die entsprechenden Eigenräume. Lösung Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms 149 6 Eigenwerte und Eigenvektoren c(λ) = det( A − λI3 ) 3−λ 2 4 = det 2 −λ 2 4 2 3−λ −1 − λ 2 4 −λ 2 = det 0 (S1 → S1 − S3 ) 1+λ 2 3−λ −1 2 4 = (1 + λ) det 0 −λ 2 1 2 3−λ −1 2 4 = (1 + λ) det 0 −λ 2 (Z3 → Z3 + Z1 ) 0 4 7−λ −λ 2 = −(1 + λ) det 4 7−λ = −(1 + λ)(λ2 − 7λ − 8) = −(1 + λ)2 (λ − 8), d.h. λ = −1 und λ = 8. Es gilt E−1 = {x ∈ R3 : ( A + I3 )x = 0} 4 2 4 x 0 x y 2 1 2 y = : = 0 . z 4 2 4 z 0 Wir untersuchen also die erweiterte Koeffizientenmatrix: 4240 2 1 2 0 4240 4240 (Z2 → Z2 − 12 Z1 , Z3 → Z3 − Z1 ) →0 0 0 0 0000 Folglich ist 150 6 Eigenwerte und Eigenvektoren x E−1 = y : 4x + 2y + 4z = 0 z 1 −2µ − λ : λ, µ ∈ R = µ λ * 1 −1 + −2 = 1 , 0 , 1 0 und die geometrische Vielfachheit dieses Eigenwerts ist dim E−1 = dim ker( A + I3 ) = 2. Es gilt E8 = {x ∈ R3 : ( A − 8I3 )x = 0} −5 2 4 x 0 x = y : 2 −3 2 y = 0 . z 4 2 −5 z 0 Wir untersuchen also die erweiterte Koeffizientenmatrix: −5 2 4 0 2 −8 2 0 4 2 −5 0 −1 4 −1 0 (Z1 → Z1 + Z3 ) → 2 −8 2 0 4 2 −5 0 −1 4 −1 0 → 0 0 0 0 (Z2 → Z2 + Z1 , Z3 → Z3 + 2Z1 ) 0 18 −9 0 −1 4 −1 0 (Z3 → 21 Z3 , Z3 ↔ Z2 ) → 0 2 −1 0 0 0 0 0 Folglich ist x − x + 4y − z = 0, y : E8 = 2y − z = 0 z λ 1 = λ :λ∈R 2 λ * 1 + 1 , 2 1 151 6 Eigenwerte und Eigenvektoren und die geometrische Vielfachheit dieses Eigenwerts ist dim E8 = dim ker( A − 8I3 ) = 1. Bemerkung Eine lineare Abbildung kann durchaus keine Eigenwerte haben. Die Matrix √ hat die Eigenwerte ± 2, aber 0 2 ∈ R 2× 2 1 0 0 2 ∈ Q 2× 2 1 0 2 hat keine Eigenwerte, √ denn das charakterische Polynom c(λ) = λ − 2 hat die reellen Lösungen ± 2 aber keine rationalen Lösungen. Die Matrix hat die Eigenwerte ±2i, aber 0 4 ∈ C 2× 2 −1 0 0 4 ∈ R 2× 2 −1 0 hat keine Eigenwerte, denn das charakterische Polynom c(λ) = λ2 + 4 hat die komplexen Lösungen ±2i aber keine reellen Lösungen. Lemma Es sei V ein endlichdimensionaler komplexer Vektorraum und T : V → V eine lineare Abbildung. Dann hat T einen Eigenwert. Beweis Es sei n = dim V, so dass das charakteristische Polynom c von T ein Polynom vom Grad n mit komplexen Koeffizienten ist. Dem Fundamentalsatz der Algebra zufolge hat c mindestens eine komplexe Nullstelle. 152 6 Eigenwerte und Eigenvektoren Definitionen Es sei K ein Körper. 1. Eine Matrix M ∈ K n×n heißt diagonal, falls sie die Gestalt m11 0 m22 . . . 0 mnn hat. Eine solche Matrix schreiben wir als diag (m11 , . . . ,mnn ). 2. Es sei V ein endlichdimensionaler Vektorraum über K. Eine lineare Abbildung T : V → V heißt diagonalisierbar, falls es eine Basis für V derart gibt, dass die Darstellungsmatrix von T bezüglich dieser Basis diagonal ist. Proposition Es sei V ein endlichdimensionaler Vektorraum über einem Körper K. Eine lineare Abbildung T : V → V ist genau dann diagonalisierbar, wenn es eine Basis für V aus Eigenvektoren von T gibt. Beweis T ist diagonalisierbar ⇔ Es gibt eine Basis {v1 , . . . ,vn } für V derart, dass die Darstellungsmatrix für T die Form diag(λ1 , . . . ,λn ) hat ⇔ Es gibt eine Basis {v1 , . . . ,vn } für V derart, dass Tvi = λi vi für i = 1, . . . , n ⇔ Es gibt eine Basis {v1 , . . . ,vn } für V aus Eigenvektoren von T Definition Es sei K ein Körper. Eine Matrix A ∈ K n×n heißt diagonalisierbar, falls sie zu einer Diagonalmatrix ähnlich ist, d.h. falls es eine Matrix P ∈ GL(n,K ) deart gibt, dass P−1 AP eine Diagonalmatrix ist. 153 6 Eigenwerte und Eigenvektoren Bemerkung Eine Matrix A ∈ K n×n ist genau dann diagonalisierbar, wenn sie die Darstellungsmatrix einer diagonalisierbaren linearen Abbildung T : K n → K n ist. Folglich ist A ∈ K n×n genau dann diagonalisierbar, wenn es eine Basis für K n aus Eigenvektoren von A gibt. Beispiel Die reelle Matrix 3 2 4 A = 2 0 2 4 2 3 hat die Eigenwerte −1 und 8 mit entsprechenden Eigenräumen * 1 −1 + −2 E− 1 = 1 , 0 , 1 0 * 1 + E8 = 1 . 2 1 1 −1 − 12 Die Eigenvektoren 1 , 0 , 12 sind linear unabhängig und bilden da1 0 1 3 her eine Basis B für R . Die lineare Abbildung R3 → R3 , x 7→ Ax hat die Matrixdarstellung A bezüglich der üblichen Basis 0 0 1 0 , 1 , 0 A= 0 0 1 und die Matrixdarstellung diag(−1, − 1,8) bezüglich der Basis B . Die Basiswechselmatrix von A zu B ist 1 − 2 −1 1 P = 1 0 21 . 0 1 1 Folglich gilt P−1 AP = diag(−1, − 1,8). 154 6 Eigenwerte und Eigenvektoren Lemma Es seien V ein Vektorraum über einem Körper K und λ1 , . . . , λm verschiedene Eigenwerte der linearen Abbildung T : V → V mit entsprechenden Eigenvektoren v1 , . . . , vm . Dann sind v1 , . . . , vm linear unabhängig. Beweis Dies beweisen wir durch Induktion nach m. Das Ergebnis für m = 1 ist trivial. Nun sei das Ergebnis also für m = k richtig. Es seien α1 , . . . , αk+1 Skalare derart, dass α1 v1 + · · · + αk+1 vk+1 = 0. (⋆) Mutiplizieren wir (⋆) mit λ1 , so erhalten wir λ1 α1 v1 + λ1 α2 v2 + · · · + λ1 αk+1 vk+1 = 0. Wenden wir dagegen T auf (⋆), so erhalten wir λ1 α1 v1 + λ2 α2 v2 + · · · + λk+1 αk+1 vk+1 = 0. Somit gilt (λ2 − λ1 )α2 v2 + · · · + (λk+1 − λ1 )αk+1 vk+1 = 0. Nach Induktionsannahme sind aber v2 , . . . , vk+1 linear unabhängig, so dass ⇒ (λ − λ ) α = 0, . . . , (λk+1 − λ1 ) αk+1 = 0, {z } | 2 {z 1} 2 | 6= 0 6= 0 α2 = 0, . . . , αk+1 = 0. Aus (⋆) folgt dann α1 v1 = 0, so dass auch α1 = 0. Somit sind v1 , . . . , vk+1 linear unabhängig. Korollar Es seien V ein Vektorraum über einem Körper K und λ1 , . . . , λm verschiedene Eim genwerte der linearen Abbildung T : V → V. Dann ist ∑ Ei direkt. i =1 155 6 Eigenwerte und Eigenvektoren Korollar Es seien V ein endlichdimensionaler Vektorraum über einem Körper K und T : V → V eine lineare Abbildung, deren Eigenwerte λ1 , . . . , λm sind. Dann ist m ∑ dim Ei ≤ dim V i =1 mit Gleichheit genau dann, wenn T diagonalisierbar ist. Beweis m L i =1 Ei ist ein Unterraum von V ist, und die Vereinigung von Basen für E1 , . . . , Em ist eine Basis für m L i =1 Ei . Folglich gilt dim V ≥ dim mit Gleichheit genau dann, wenn Ist m L i =1 m L i =1 m M Ei i =1 ! m = ∑ dim Ei i =1 Ei = V. Ei = V, so ist die Vereinigung von Basen für E1 , . . . , Em eine Basis für V aus Eigenvektoren von T. Hat V eine Basis B aus Eigenvektoren von T, so folgt aus B ⊆ m L i =1 Ei = V. m L i =1 Ei , dass Bemerkung Insbesondere hat T nicht mehr als dim V verschiedene Eigenwerte. Beispiele 1. Die reelle Matrix 3 2 4 A 1 = 2 0 2 4 2 3 156 6 Eigenwerte und Eigenvektoren hat die Eigenwerte −1 und 8 mit entsprechenden Eigenräumen * 1 −1 + −2 E− 1 = 1 , 0 , 1 0 * 1 + E8 = 12 . 1 Aus dim E−1 + dim E8 = 2 + 1 = 3 folgt, dass A diagonalisierbar ist. 2. Die reelle Matrix 1 1 0 A 2 = 0 1 0 0 0 2 hat die Eigenwerte 1 und 2 mit entsprechenden Eigenräumen * 1 + E1 = 0 , 0 * 0 + E2 = 0 . 1 Aus dim E1 + dim E2 = 1 + 1 < 3 folgt, dass A2 diagonalisierbar ist. Bemerkung Es sei V ein n-dimensionaler Vektorraum über einem Körper K. Zerfällt das charakteristisches Polynom c einer linearen Abbildung T : V → V in einfache Faktoren, d.h. ist c(λ) = (−1)n (λ − λ1 ) . . . (λ − λn ), wobei λ1 , . . . λn verschiedene Skalare sind, so ist T diagonalisierbar, denn in diesem Fall ist dim Ei = 1, i = 1, . . . ,n. Im Allgemeinen ist die Vielfachheit eines Faktors (λ − λ⋆ ) im charakteristischen Polynom lediglich eine obere Schranke für die Dimension des Eigenraums Eλ⋆ . Definition Es seien V ein endlichdimensionaler Vektorraum über einem Körper K und λ⋆ ein Eigenwert der linearen Abbildung T : V → V. Die algebraische Vielfachheit von 157 6 Eigenwerte und Eigenvektoren λ ist die Vielfachheit von (λ − λ⋆ ) als Faktor des charakteristischen Polynoms c von T, d.h. max{i : c(λ) = (λ − λ⋆ )i p(λ) für ein Polynom p }. Proposition Es seien V ein endlichdimensionaler Vektorraum über einem Körper K und λ⋆ ein Eigenwert der linearen Abbildung T : V → V. Dann gilt g ≤ a, wobei g und a die geometrische bzw. algebraische Vielfachheit des Eigenwerts λ sind. Beweis Es sei {v1 , . . . , v g } eine Basis für Eλ⋆ , die wir zu einer Basis {v1 , . . . ,vn } für V ergänzen. Die Darstellungsmatrix für T bezüglich dieser Basis hat die Gestalt λ⋆ 0 λ⋆ .. . 0 λ⋆ A= 0 B C , mit B ∈ K g×(n− g) und C ∈ K (n− g)×(n− g), denn Tvi = λ⋆ vi , i = 1, . . . ,g. Damit ist det( A − λIn ) = (λ⋆ − λ) g det(C − λIn ) = (λ − λ⋆ ) g (−1) g det(C − λIn− g ). Folglich ist a = max{i : c(λ) = (λ − λ⋆ )i p(λ) für ein Polynom p } ≥ g. 158 6 Eigenwerte und Eigenvektoren Beispiel Die charakteristischen Polynome der reellen Matrizen 1 0 1 1 A1 = , A2 = 0 1 0 1 sind beide c ( λ ) = ( λ − 1 )2 . Die entsprechenden Eigenräume sind jedoch R2 1 . und 0 Bemerkung Ein Polynom mit Koeffizienten aus einem Körper K ist ein formaler Ausdruck der Form p = a n x n + a n − 1 x n − 1 + · · · + a1 x + a0 . Dieser Ausdruck definiert eine Abbildung K → K, a 7 → p ( a ). Ist K endlich, so können zwei Polynome dieselbe Funktion darstellen: Es gilt bspw. x3 + 1 = x2 + 1 = x3 + x2 + x + 1 für alle x ∈ Z2 . Diese Zweideutigkeit verschwindet für unendliche Körper: Ist K unendlich, so folgt aus p1 (a) = p2 (a) für alle a ∈ K, dass p1 = p2 ist. Wir haben das folgende Ergebnis über Polynome verwendet: Es seien p ein nichttriviales Polynom mit Koeffizienten aus einem Körper K und p(a) = 0 für ein a ∈ K. Dann gibt es eine eindeutig bestimmte natürliche Zahl n und Polynom q mit p = ( x − a)n q, q(a) 6= 0. 159 7 Skalarprodukträume 7 Skalarprodukträume 7.1 Skalarprodukte und Normen Definitionen 1. Es sei V ein reeller (komplexer) Vektorraum. Ein Skalarprodukt in V ist eine Abbildung V × V → R (V × V → C ), ( x,y) 7→ h x, yi mit den folgenden Eigenschaften. (i) h· , i ist im ersten Argument linear, d.h. hα1 x + α2 y, zi = α1 h x, zi + α2 hy,zi für alle Vektoren x, y, z und alle Skalare α1 , α2 . (ii) Es gilt für alle Vektoren x,y. h x, yi = hy,x i (iii) h x, x i (ist reell und) erfüllt h x, x i ≥ 0 mit Gleichheit genau dann, wenn x = 0 ist. 2. Ein mit einem Skalarprodukt h· ,·i versehener reeller oder komplexer Vektorraum V heißt Skalarproduktraum und wird oft als Paar (V,h· ,·i) bezeichnet. Ist V reell, so handelt es sich um einen euklidischen Raum. Ist V komplex, so handelt es sich um einen unitären Raum. Bemerkungen 1. Ist V reell, so vereinfacht sich (ii) zu h x, yi = hy,x i für alle Vektoren x,y. 160 7.1 Skalarprodukte und Normen 2. Ist V reell, so folgt aus (i) und (ii), dass h· , i auch im zweiten Argument linear ist: hz, α1 x + α2 yi = α1 hz, x i + α2 hz,yi für alle Vektoren x, y, z und alle Skalare α1 , α2 . Das Skalarprodukt ist bilinear. 3. Ist V komplex, so folgt aus (i) und (ii), dass hz, α1 x + α2 yi = ᾱ1 hz, x i + ᾱ2 hz,yi für alle Vektoren x, y, z und alle Skalare α1 , α2 . Das Skalarprodukt ist sesquilinear. 4. Jeder Unterraum eines Skalarproduktraums ist wiederum ein Skalarproduktraum. Beispiele 1. Das kanonische Skalarpodukt im R n wird durch die Formel hx, yi = xT y = x1 y1 + . . . + xn yn definiert und meist mit x.y bezeichnet. 2. Das kanonische Skalarpodukt im C n wird durch die Formel hx, yi = xT ȳ = x1 ȳ1 + . . . + xn ȳn definiert. 3. Es lässt sich ein Skalarprodukt für jeden reellen oder komplexen Vektorraum V konstruieren. Es sei {vi }i ∈ I eine Basis für V (die eventuell mit Hilfe des Lemmas von Zorn konstruiert wird). Die Formel h x, yi = ∑ αi β̄i , i∈ I für x = ∑ αi vi , y = ∑ β i vi i∈ I i∈ I definiert ein Skalarprodukt im V. (Beachte: Alle Summen sind endlich.) 4. Die Formel h p1 , p2 i = Z 1 −1 p1 ( x ) p2 ( x ) dx definiert ein Skalarprodukt für P(R ). 161 7.1 Skalarprodukte und Normen Definition 1. Es sei V ein reeller oder komplexer Vektorraum. Eine Norm in V ist eine Abbildung V → R, x 7→ k x k mit den Eigenschaften (i) k x k ≥ 0 für alle Vektoren x mit Gleichheit genau dann, wenn x = 0 ist, (ii) kαx k = |α|k x k für alle Vektoren x und Skalare α, (iii) k x + yk ≤ k x k + kyk für alle Vektoren x und y (Dreiecksungleichung). 2. Ein mit einer Norm k · k versehener reeller oder komplexer Vektorraum V heißt normierter Raum und wird oft als Paar (V,k · k) bezeichnet. Nun zeigen wir, dass die Formel kxk = q h x, x i eine Norm in einem Skalarproduktraum induziert. Dafür brauchen wir die folgende - auch anderweitig hilfreiche - Ungleichung. Proposition Es sei V ein Skalarproduktraum. Alle Vektoren x, y ∈ V erfüllen die CauchySchwarz-Ungleichung |h x, yi| ≤ k x kkyk. Beweis Für jedes Skalar t gilt 0 ≤ h x + ty, x + tyi = h x,x i + thy,x i + t̄h x,yi + tt̄hy, yi = k x k2 + thy,x i + t̄h x,yi + kyk2 . Es sei r der Betrag und θ das Argument der komplexen Zahl h x, yi, sodass h x, yi = reiθ und hy, x i = re−iθ . Mit t = seiθ für ein beliebiges s ∈ R ergibt die letzte Ungleichung k x k2 + 2sr + s2 kyk2 ≥ 0, 162 7.1 Skalarprodukte und Normen sodass die quadratische Funktion s 7→ k x k2 + 2sr + s2 kyk2 entweder keine Nullstellen oder genau eine Nullstelle hat. Folglich gilt 4r2 − 4k x k2 kyk2 ≤ 0, d.h. |h x, yi|2 ≤ k x k2 kyk2 . Proposition Es sei V ein Skalarproduktraum. Die Formel q k x k = h x, x i definiert eine Norm in V. Beweis (i) Es gilt k x k2 = h x, x i ≥ 0 mit Gleichheit genau dann, wenn x = 0 ist. (ii) Es gilt kαx k2 = hαx, αx i = αᾱh x, x i = |α|2 k x k2 . (iii) Es gilt k x + yk2 = h x + y, x + yi = h x, x i + h x, yi + hy, x i + hy, yi = k x k2 + h x, yi + h x, yi + kyk2 = k x k2 + 2Re h x, yi + kyk2 ≤ k x k2 + 2|h x, yi| + kyk2 ≤ k x k2 + 2k x kkyk + kyk2 (Cauchy-Schwarz-Ungleichung) = (k x k + kyk)2 . Bemerkung Falls die Norm k · k in einem normierten Vektorraum V durch ein Skalarprodukt h· , i induziert wird, erfüllt sie die Parallelogrammidentität k x + yk2 + k x − yk2 = 2(k x k2 + kyk2 ) 163 7.1 Skalarprodukte und Normen für alle x,y ∈ V. Dies folgt nämlich aus den Identitäten k x + yk2 = k x k2 + h x, yi + hy, x i + kyk2 und k x − yk2 = k x k2 − h x, yi − hy, x i + kyk2 . Beispiel Die Maximumsnorm kxk∞ := max{| x1 |, . . . ,| xn |} für R n wird nicht von einem Skalarprodukt induziert. Es ist nämlich ke1 k∞ = max{1,0, . . .} = 1, ken k∞ = max{. . . ,0,1} = 1, ke1 + en k = max{1,0, . . . ,0,1} = 1, ke1 − en k = max{1,0, . . . ,0,1} = 1, sodass die Parallelogrammidentität nicht erfüllt ist. Lemma Die Norm in einem normierten Raum wird genau dann von einem Skalarprodukt induziert, wenn sie die Parallelogrammidentität erfüllt. Notation Die kanonische Norm im R n wird eher mit | · | bezeichnet, d.h. q √ |x| = x.x = x12 + · · · + x2n , x ∈ Rn. Bemerkung Die Norm misst die ‘Länge’ eines Vektors in einem normierten Raum. Ihre Eigenschaften stimmen mit der ‘üblichen’ Eigenschaften der Länge im euklidischen Raum R2 bzw. R3 . 164 7.1 Skalarprodukte und Normen Veranschaulichen wir Vektoren im R2 und R3 als Pfeile in der Ebene bzw. Raum, so können wir die Dreiecksungleichung geometrisch interpretieren: x+y 0 y Die Länge des Vektors x + y ist nicht größer als die Summe der Längen der Vektoren x und y. x Das Skalarprodukt misst dagegen den ‘Winkel’ zwischen zwei nichttrivialen Vektoren in einem euklidischen Raum. Wegen der Cauchy-Schwarz-Ungleichung gilt −1 ≤ h x, yi ≤1 k x kkyk für alle Vektoren x, y 6= 0, und dies führt uns zur folgenden Definition. Definition Der Winkel θ ∈ [0,π ] zwischen zwei Vektoren x, y 6= 0 in einem Skalarproduktraum V wird durch die Formel θ = arccos h x, yi k x kkyk definiert. Bemerkung Auch diese Definition stimmt mit der ‘üblichen’ Definition des Winkels zwischen zwei nichttrivialen Vektoren x, y im euklidischen Raum R2 bzw. R3 überein. Durch Drehung und Spiegelung dürfen wir annehmen, dass x = xe1 und y = ye ist, wobei e ein Einheitsvektor im Unterraum he1 , e2 i mit nichtnegativer zweiter Komponente ist. Der Winkel θ ∈ [0,π ] zwischen diesen Vektoren ist auch der Winkel zwischen e1 und e, sodass e = (cos θ, sin θ ). 165 7.2 Elementare Skalarproduktraumtheorie y e θ e1 Nun gilt aber x e1 .e = 1. cos θ + 0. sin θ = cos θ. |e1 ||e| 7.2 Elementare Skalarproduktraumtheorie Definition Es sei V ein Skalarpoduktraum. 1. Zwei Vektoren u, v ∈ V heißen orthogonal, falls hu, vi = 0. 2. Eine Teilmenge U von V heißt orthogonal, falls hu1 , u2 i = 0 für alle u1 , u2 ∈ U mit u1 6= u2 . 3. Eine orthogonale Teilmenge U von V heißt orthonomal, falls kuk = 1 für alle u ∈ U ist. Bemerkungen 1. 0 ist orthogonal zu jedem Vektor v ∈ V, denn h0, vi = h0 + 0, vi = h0, vi + h0, vi, so dass h0, vi = 0. 166 7.2 Elementare Skalarproduktraumtheorie 2. Nun sei V ein euklidischer Raum. Aus der Formel cos θ = hu, vi kukkvk für den Winkel θ zwischen zwei Vektoren u, v 6= 0 folgt, dass θ = π2 (‘u und v sind senkrecht zueinander’) genau dann, wenn u und v orthogonal sind. 3. Ist U eine orthogonale Teilmenge von U mit u 6= 0 für alle u ∈ U, so ist u :u∈U k uk orthonormal. 4. In einer orthonormalen Teilmenge {ui }i ∈ I von V gilt hui , u j i = δij . Proposition Es sei U eine orthogonale Teilmenge von V mit u 6= 0 für alle u ∈ U. Dann ist U linear unabhängig. Beweis Es sei {v1 , . . . , vn } eine endliche Teilmenge von U mit α1 v1 + · · · + αn vn = 0. Dann ist und folglich hα1 v1 + · · · + αn vn , vi i = h0, vi i α1 h v1 , vi i + · · · + αi h vi , vi i + · · · + α n h v n , vi i = 0 | {z } | {z } =0 =0 für i = 1, . . . ,n. Da jedoch hvi , vi i > 0, ist αi = 0, i = 1, . . . ,n. Definition Es sei B eine Basis für den endlichdimensionalen Skalarproduktraum V. Ist B eine orthonormale Teilmenge von V, so heißt sie Orthonomalbasis. 167 7.2 Elementare Skalarproduktraumtheorie Proposition Es sei {v1 , . . . ,vn } eine Orthonormalbasis für den endlichdimensionalen Skalarproduktraum V. Dann sind die Koeffizienten in der Darstellung v = α1 v1 + · · · + α n v n eines Vektors v ∈ V als lineare Kombination der Basisvektoren durch die Formeln αi = hv, vi i, i = 1, . . . ,n gegeben. Beweis Aus v = α1 v1 + · · · + α n v n folgt hv, vi i = α1 hv1 , vi i + · · · + αi hvi , vi i + · · · + αn hvn , vi i | {z } | {z } | {z } =0 =0 =1 = αi für i = 1, . . . ,n. Korollar Es sei {v1 , . . . ,vn } eine orthonormale Teilmenge eines endlichdimensionalen Skalarproduktraums V. Dann gilt die Identität n v= ∑ hv, vi ivi (1 ) i =1 für alle v ∈ V genau dann, wenn {v1 , . . . ,vn } eine Orthonormalbasis für V ist. Beweis Ist {v1 , . . . ,vn } eine Orthonormalbasis für V, so gilt (1) wegen der letzten Proposition. Nun gilt (1) für alle v ∈ V. Somit ist hv1 , . . . ,vn i = V. Da {v1 , . . . ,vn } linear unabhängig ist, ist sie eine Basis für V. 168 7.2 Elementare Skalarproduktraumtheorie Lemma (Besselsche Ungleichung) Es sei {v1 , . . . ,vn } eine orthonormale Teilmenge eines Skalarproduktraums V und v ∈ V. Dann gilt die Ungleichung n ∑ |hv, vi i|2 ≤ kvk2 i =1 mit Gleichheit genau dann, wenn n ∑ hv, vi ivi . v= i =1 Beweis Für alle Skalare α1 , αn gilt * 0≤ n n i =1 n i =1 v − ∑ αi vi , v − ∑ αi vi + n n n = hv,vi − ∑ αi hvi , vi − ∑ ᾱi hv, vi i + ∑ ∑ αi ᾱ j hvi , v j i | {z } i =1 j =1 i =1 i= = δij n n n i =1 i =1 i =1 = kvk2 − ∑ αi hvi , vi − ∑ ᾱi hv, vi i + ∑ |αi |2 mit Gleichheit genau dann, wenn n v − ∑ αi vi = 0. i =1 Mit αi = hv, vi i ergibt diese Ungleichung n n n i =1 i =1 i =1 0 ≤ kvk2 − ∑ |hv, vi i|2 − ∑ |hv, vi i|2 + ∑ |hv, vi i|2 = d.h. k v k2 ≥ n ∑ |hv, vi i|2 , i =1 n ∑ |hv, vi i|2 , i =1 mit Gleichheit genau dann, wenn n v − ∑ hv, vi ivi = 0. i =1 169 7.2 Elementare Skalarproduktraumtheorie Korollar Es sei {v1 , . . . ,vn } eine orthonormale Teilmenge eines endlichdimensionalen Skalarproduktraums V. Dann gilt die Identität k v k2 = n ∑ |hv, vi i|2 i =1 für alle v ∈ V genau dann, wenn {v1 , . . . ,vn } eine Orthonormalbasis für V ist. Beweis (2) gilt für alle v ∈ V genau dann, wenn n v= ∑ hv, vi ivi (2 ) i =1 für alle v ∈ V, und dies gilt wiederum genau dann, wenn {v1 , . . . ,vn } eine Orthonormalbasis für V ist. Lemma (Gram-Schmidt-Verfahren) Jedes endlichdimensionale Skalarproduktraum hat eine Orthonormalbasis. Beweis Es sei {v1 , . . . ,vn } eine Basis für V. Definiere induktiv f i = vi − h vi , e1 i e1 − · · · − h vi , ei −1 i ei −1 und ei = für i = 1, . . . ,n. 1 f k fi k i Nun zeigen wir durch vollständige Induktion (nach k): f k 6= 0, he1 , . . . , ek i = hv1 , . . . , vk i und hei , e j i = δij für i,j ≤ k. Der Fall k = 1 ist trivial. 170 7.2 Elementare Skalarproduktraumtheorie Nun sei das Ergebnis für k = ℓ richtig. Offensichtlich ist f ℓ+1 eine lineare Kombination von e1 , . . . , eℓ , vℓ+1 und vℓ+1 eine lineare Kombination von e1 , . . . , eℓ , f ℓ+1 . Folglich gilt he1 , . . . , eℓ , f ℓ+1 i = hv1 , . . . ,vℓ , vℓ+1 i. Da v1 , . . . , vℓ+1 eine minimale erzeugende Menge für hv1 , . . . ,vℓ+1 i ist, ist f ℓ+1 6= 0. Somit ist he1 , . . . , eℓ , eℓ+1 i = he1 , . . . , eℓ , f ℓ+1 i = hv1 , . . . ,vℓ , vℓ+1 i. Ferner ist heℓ+1 , e j i = = = = 1 k f ℓ+1 k 1 k f ℓ+1 k 1 k f ℓ+1 k 1 k f ℓ+1 k =0 h f ℓ+1 , f j i * ℓ vℓ+1 − ∑ hvℓ+1 ,ei iei , e j i =1 + ℓ hvℓ+1 , e j i − ∑ hvℓ+1 , ei i hei , e j i | {z } i =1 = δij hvℓ+1 , e j i − hvℓ+1 , e j i ! für j = 1, . . . ,ℓ, und offensichtlich ist heℓ+1 , eℓ+1 i = keℓ+1 k2 = 1. Insgesamt ist also hei , e j i = δij für i,j ≤ ℓ + 1. Bemerkung Ist {v1 , . . . , vk } eine orthonormale Teilmenge von U für ein k ≤ n, so ergibt das Gram-Schmidt Verfahren ei = vi für i = 1, . . . , k. Korollar (Basisergänzungssatz) Es seien V ein endlichdimensionaler Skalarproduktraum mit dim V = n, U ein Unterraum von V und {v1 , . . . ,vm } eine Orthonormalasis für U. Dann gibt es Vektoren vm+1 , . . . , vn ∈ V \ U, so dass {v1 , . . . , vn } eine Orthonormalbasis für V ist. 171 7.2 Elementare Skalarproduktraumtheorie Beweis Ergänze {v1 , . . . ,vm } zu einer Basis {v1 , . . . ,vn } für V und wende das Gram-SchmidtVerfahren auf {v1 , . . . ,vn } an. Beispiel Finden Sie eine Orthonormalbasis für den Unterraum hv1 , v2 , v3 i von R4 , wobei 2 3 1 −2 1 1 v1 = 1 , v2 = 1 , v3 = − 4 , 0 3 1 und ergänzen Sie diese zu einer Orthonormalbasis für R4 . Lösung Zunächst bemerken wir, dass v1 , v2 , v3 linear unabhängig sind. Wir setzen f 1 = v1 , 1 1 1 1 , e1 = f1 = | f1 | 2 1 1 f2 = v2 − (v2 .e1 )e1 1 3 1 1 1 = 1 − 4. 2 1 1 3 1 −1 = −1 , 1 1 1 1 − 1 , e2 = f2 = | f2 | 2 −1 1 172 7.2 Elementare Skalarproduktraumtheorie f3 = v3 − (v3 .e1 )e1 − (v3 .e2 )e2 1 1 2 −2 + 2. 1 1 − 4. 1 −1 = −4 2 1 2 −1 1 1 0 1 1 = −1 , −1 1 1 1 1 , e3 = f3 = | f3 | 2 −1 −1 sodass {e1 , e2 , e3 } eine Orthonormalbasis für hv1 , v2 , v3 i ist. Der Vektor 0 0 v4 = 0 1 liegt nicht in he1 , e2 , e3 i, so dass {e1 , e2 , e3 , v4 } eine Basis für R4 ist. Nun wenden wir das Gram-Schmidt-Verfahren auf diese Basis an. Wir setzen f4 = v4 − (v4 .e1 )e1 − (v4 .e2 )e2 − (v4 .e3 )e3 0 1 1 1 0 1 1 1 1 1 − 1 1 1 1 = 0 − 2 . 2 1 − 2 . 2 − 1 + 2 . 2 − 1 1 1 1 −1 −1 1 1 , = 4 −1 1 −1 1 1 1 , f4 = e4 = | f4 | 2 −1 1 sodass {e1 , e2 , e3 , e4 } eine Orthonormalbasis für R4 ist. 173 7.2 Elementare Skalarproduktraumtheorie Definition Es sei U ein Unterraum eines Skalarproduktraums V. Das orthogonale Komplement von U ist die Menge U ⊥ := {v ∈ V : hv,ui = 0 für alle u ∈ U }. Bemerkungen 1. U ⊥ ist ein Unterraum von V, denn 0 ∈ U ⊥ und das Skalarprodukt ist im ersten Argument linear. 2. U ⊥⊥ = U. 3. V ⊥ = {0}. Gilt nämlich w ∈ V ⊥ , d.h. hw, vi = 0 für alle v ∈ V, so gilt insbesondere hw, wi = 0 und somit auch w = 0. Proposition Es sei U ein endlichdimensionaler Unterraum eines Skalarproduktraums V. Dann gilt V = U ⊕ U⊥. Beweis Es sei {v1 , . . . , vm } eine Orthonormalbasis für U. Für jedes v ∈ V schreiben wir v = uv + wv mit uv = hv,v1 iv1 + · · · + hv, vm ivm , wv = v − uv . 174 7.2 Elementare Skalarproduktraumtheorie Offensichtlich ist u ∈ U und * m hwv , v j i = v − ∑ hv, vi ivi , v j i =1 + m = hv, v j i − ∑ hv, vi i hvi , v j i | {z } i =1 = δij = hv, v j i − hv, v j i =0 für j = 1, . . . , n. Für jedes u = α1 v1 + · · · + α m v m ∈ U gilt dann hwv , ui = m ∑ αi hwv , vi i = 0, i =1 sodass wv ∈ U ⊥ ist. Somit ist V = U + U ⊥ . Für v ∈ U ∩ U ⊥ gilt jedeoch hv, vi = 0 und daher v = 0, d.h. U ∩ U ⊥ = {0}. Folglich ist V = U ⊕ U ⊥ . Definition Es sei U ein Unterraum eines Skalarproduktraums V mit der Eigenschaft, dass V = U ⊕ U⊥. Die eindeutige Projektion P : V → V mit Im P = U und ker P = U ⊥ ist die orthogonale Projektion auf U. Bemerkung Ist U endlichdimensional, so ist Pv = hv,v1 iv1 + · · · + hv, vm ivm , wobei {v1 , . . . ,vm } eine Orthonormalbasis für U ist. 175 7.3 Die adjungierte Abbildung 7.3 Die adjungierte Abbildung Lemma Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine lineare Abbildung. Dann gibt es eine eindeutige lineare Abbildung T ∗ : V → V mit der Eigenschaft hTv, wi = hv, T ∗ wi für alle v, w ∈ V. Beweis Es sei {v1 , . . . ,vn } eine Orthonormalbasis für V und definiere T∗w = n ∑ hTvi ,wivi i =1 für w ∈ V. Somit gilt * hv j , T ∗ wi = n v j , ∑ hTvi ,wivi i =1 + n = j , vi i ∑ hTvi ,wi |hv{z } i =1 = δij = hTv j , wi fïr j = 1, . . . ,n. Für jedes n v= ∑ αjvj ∈ V j =1 gilt dann hv, T ∗ wi = * n ∑ αj vj, T∗ w j =1 + n = ∑ α j hv j , T ∗ wi j =1 n = ∑ α j hTv j wi j =1 = * n T ∑ αjvj j =1 ! ,w + = hTv, wi. 176 7.3 Die adjungierte Abbildung Die Abbildung T ∗ ist linear: Es gilt hv, T ∗ (w1 + w2 )i = hTv, w1 + w2 i = hTv, w1 + hTv, w2 i = hv, T ∗ w1 i + hv,T ∗ w2 i = hv, T ∗ w1 + T ∗ w2 i, so dass hv, T ∗ (w1 + w2 ) − T ∗ w1 − T ∗ w2 i = 0 für alle v, w1 , w2 ∈ V. Folglich ist T ∗ ( w1 + w2 ) − T ∗ w1 − T ∗ w2 = 0 für alle w1 , w2 ∈ V. Dasgleiche Argument zeigt T ∗ (αw) − αT (w) = 0 für alle w ∈ V und alle Skalare α. Nun seien T1∗ , T2∗ : V → V lineare Abbildungen mit der Eigenschaft hTv, wi = hv, T1∗ wi, hTv, wi = hv, T2∗ wi für alle v, w ∈ V. Dann gilt 0 = hTv, wi − hTv, wi = hv, T1∗ wi − hv, T2∗ wi = hv, T1∗ w − T2∗ wi für alle v, w ∈ V. Somit ist T1∗ w − T2∗ w = 0 für alle w ∈ V, d.h. T1∗ = T2∗ . Definition Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine lineare Abbildung. Die im letzten Lemma konstruierte Abbidlung T ∗ : V → V ist die adjungierte Abbildung zu T. 177 7.3 Die adjungierte Abbildung Proposition Es seien V ein endlichdimensionaler Skalarproduktraum und A = (aij ) die Darstellungsmatrix einer linearen Abbildung T : V → V bezüglich einer Orthonormalbasis {v1 , . . . ,vn } für V. Dann ist die Darstellungsmatrix der adjungierten Abbildung T ∗ : V → V bezüglich dieser Basis die Matrix A∗ := (ā ji ). Beweis Es gilt n Tu j = ∑ hTu j , ui iui , j = 1, . . . ,n, i =1 sodass aij = hTu j ,ui i. Nun ist T∗ uj = n ∑ h T ∗ u j , ui i ui , j = 1, . . . ,n, i =1 sodass aij∗ = hT ∗ u j ,ui i = hu j , Tui i = hTui , u j i = ā ji . Bemerkung Ist {e1 , . . . ,en } eine Orthonormalbasis für V, so sind die Skalare hTv, wi und hv, T ∗ wi durch die R n - bzw. C n -Skalarprodukte von Av mit w und v mit A∗ w gegeben, wobei v und w die Darstellungsvektoren von v und w bezüglich {e1 , . . . ,en } sind. Proposition Es seien V ein endlichdimensionaler Skalarproduktraum, S, T : V → V lineare Abbildungen und λ ein Skalar. Dann gilt (i) (T ∗ )∗ = T, (ii) (S + T )∗ = S∗ + T ∗ , (iii) (λT )∗ = λ̄T ∗ , 178 7.3 Die adjungierte Abbildung (iv) (ST )∗ = T ∗ S∗ . Proposition Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine linear Abbildung. Dann gilt (i) (Im T )⊥ = ker T ∗ , (ii) (ker T )⊥ = Im T ∗ , (iii) (Im T ∗ )⊥ = ker T, (iv) (ker T ∗ )⊥ = Im T. Beweis (i) Aus folgt d.h. hv, T ∗ x i = hTv, x i für jedes v ∈ V T∗ x = 0 ⇔ x ∈ T [V ] ⊥ , x ∈ ker T ∗ ⇔ x ∈ (Im T )⊥ . (ii) Aus (i) folgt (Im T ∗ )⊥ = ker(T ∗ )∗ = ker T und somit (Im T ∗ )⊥⊥ = (ker T )⊥ . | {z } = Im T ∗ (iii) und (iv) folgen ebenso aus (i), (ii) mit T ∗ an der Stelle von T. Proposition Es sei V ein endlichdimensionaler Skalarproduktraum. Eine Projektion P : V → V ist genau dann orthogonal, wenn P∗ = P ist. 179 7.3 Die adjungierte Abbildung Beweis Es sei P∗ = P. Da P eine Projektion ist, gilt V = Im P ⊕ ker P. Es ist aber ker P = (Im P∗ )⊥ = (Im P)⊥ , so dass die Projektion orthogonal ist. Nun sei P eine orthogonale Projektion, so das V = Im P ⊕ ker P mit ker P = (Im P)⊥ . Aus P2 = P folgt ( P∗ )2 = P∗ , so dass P∗ ebenfalls eine Projektion ist, und es gilt Im P∗ = (ker P)⊥ = Im P⊥⊥ = Im P und ker P∗ = (Im P)⊥ = ker P. Aus der Eindeutigkeit von Projektionen folgt dann P∗ = P. Bemerkung Es sei V ein Skalarproduktraum und v ∈ V. Die Formel Tv (w) = hw, vi, w ∈ V, definiert ein lineares Funktional auf V, d.h. ein Element T des Dualraums T ′ . Das nächste Lemma besagt, dass die Umkehraussage für einen endlichdimensionalen Skalarproduktraum auch richtig ist. Lemma (Rieszscher Darstellungssatz) Es sei V ein endlichdimensionaler Skalarproduktraum. Zu jedem T ∈ V ′ gibt es einen eindeutigen Vektor v T ∈ V derart, dass T (v) = hv, v T i für alle v ∈ V. 180 7.3 Die adjungierte Abbildung Beweis Es sei {v1 , . . . ,vn } eine Orthonormalbasis für V und definiere n vT = ∑ T ( vi ) vi . i =1 Dann ist hv j , v T = * n v j , ∑ T ( vi ) vi i =1 + n = j , vi i ∑ T (vi ) |hv{z } i =1 = δij = T ( v j ), für j = 1, . . . , n. Für jedes n v= ∑ αjvj ∈ V j =1 gilt dann n T (v) = ∑ α j T (v j ) j =1 n = ∑ α j hv j , v T i j =1 = * n ∑ α j v j , vT j =1 + = hv, v T i. Nun haben v1T , v2T ∈ V die Eigenschaft Tv = hv, v1T i, Tv = hv, v2T i für alle v ∈ V. Dann gilt 0 = hv, v1T i − hv, v2T i = hv, v1T − v2T i für alle v ∈ V. Somit ist v1T − v2T = 0, d.h. v1T = v2T . 181 7.3 Die adjungierte Abbildung Beispiele 1. Jede lineare Abbildung T : R n → R hat die Form Tv = v.t für einen festen Vektor t ∈ R n . 2. Es sei p ∈ Pn (R ) und x0 eine Zahl in (−1,1). Dann ist T p = p( x0 ) ein lineares Funktional auf Pn (R ). Folglich gibt es ein deutiges Polynom q ∈ Pn (R ) derart, dass Z 1 −1 p( x )q( x ) dx = p( x0 ). Proposition Es sei V ein endlichdimensionales Skalarproduktraum, und zu jedem T ∈ V ′ sei v T der nach dem Rieszschen Darstellungssatz eindeutig bestimmte Repräsentant. Dann ist die Abbildung ψ : T 7→ v T eine Bijektion V ′ → V und hat die weiteren Eigenschaften ψ(T1 + T2 ) = ψ(T1 ) + ψ(T2 ), ψ(αT ) = ᾱψ(T ) für alle T, T1 , T2 ∈ V ′ und Skalare α. Beweis ψ : V ′ → V ist offensichtlich bijektiv (die Injektivität folgt aus dem Rieszschen Darstellungssatz, die Surjektivität aus der Bemerkung, dass jedes Element v ∈ V ein Funktional Tv ∈ V ′ durch die Formel Tv (·) = h· ,vi definiert). Ferner gilt hv, ψ(T1 + T2 )i = T1 v + T2 v = hv,v T1 i + hv,v T2 i = hv, v T1 + v T2 i = hv, ψ(T1 ) + ψ(T2 )i und hv, ψ(αT )i = αTv = αhv,v T i = hv, ᾱv T i = hv, ᾱψ(T )i 182 7.3 Die adjungierte Abbildung für alle v ∈ V, so dass ψ(T1 + T2 ) = ψ(T1 ) + ψ(T2 ), ψ(αT ) = ᾱψ(T ) Bemerkung Ist V ein euklidischer Raum, so ist ψ : V ′ → V ein Isomorphismus. Ansonsten ist er ein Anti-Isomorphismus. Proposition Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine lineare Abbildung. Ferner seien T ∗ die adjungierte Abbildung zu T, d.h. die eindeutige Abbildung mit der Eigenschaft hTv,wi = hv, T ∗ wi, v,w ∈ V, und T ′ : V ′ → V ′ die duale Abbildung zu T, d.h. die durch die Formel T ′ f = f T, definierte Abbildung. Dann gilt f ∈ V′ T ∗ = ψT ′ ψ−1 , wobei ψ : V ′ → V der Rieszsche Anti-Isomorphismus ist (so dass ψ−1 (v) = h· , vi). V′ T′ V′ ψ −1 ψ V T∗ V Beweis Es gilt T ′ (ψ−1 (v))(w) = ψ−1 (v)Tw = hTw, vi = hw, T ∗ vi = ψ−1 (T ∗ v)(w) für alle v,w ∈ V, so dass T ′ ψ −1 = ψ −1 T ∗ . 183 7.4 Normale Abbildungen 7.4 Normale Abbildungen Definitionen Es sei V ein endlichdimensionaler Skalarproduktraum. Eine lineare Abbildung T : V → V heißt (i) normal, falls TT ∗ = T ∗ T, (ii) selbstadjungiert, falls T ∗ = T, (iii) orthogonal, falls TT ∗ = I und V reell ist, (iv) unitär, falls TT ∗ = I und V komplex ist. Bemerkung Eine selbstadjungierte oder orthogonale bzw. unitäre Abbildung ist normal. Proposition Es sei V ein endlichdimensionaler Skalarproduktraum. Die folgenden Aussagen über eine linear Abbildung T : V → V sind äquivalent. (i) T ist normal. (ii) hTv, Twi = hT ∗ v, T ∗ wi für alle v,w ∈ V. (ii) k Tvk = k T ∗ vk für alle v ∈ V. Beweis (i) ⇔ (ii): Es gilt ⇔ ⇔ ⇔ ⇔ hTv, Twi = hT ∗ v, T ∗ wi hv, T ∗ Twi = hv, TT ∗ wi hv, T ∗ Tw − TT ∗ wi = 0 T ∗ Tw = TT ∗ w T ∗ T = TT ∗ für alle v,w ∈ V für alle v,w ∈ V für alle v,w ∈ V für alle w ∈ V 184 7.4 Normale Abbildungen (ii) ⇔ (iii): Die Implikation (ii) ⇒ (iii) ist offensichtlich. Ist dagagen (iii) richtig, so folgt aus der Identität 1 h x, yi = k x + yk2 − k x − yk2 + ik x + iyk2 − ik x − iyk2 , x, y ∈ V, 4 dass (ii) ebenfalls richtig ist. Korollar Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine normale Abbildung. 1. Es gilt ker T = ker T ∗ . 2. Ein Vektor v ∈ V ist genau dann Eigenvektor von T zum Eigenwert λ, wenn v Eigenvektor von T ∗ zum Eigenwert λ̄ ist. Beweis 1. Aus der letzten Proposition folgt kTvk = kT ∗ vk für jedes v ∈ V. Folglich ist Tv = 0 genau dann, wenn T ∗ v = 0 ist. 2. Es gilt (λI − T )∗ = λ̄I ∗ − T ∗ = λ̄I − T ∗ , und somit impliziert die erste Aussage ker(λI − T ) = ker(λ̄I − T ∗ ). Proposition Es sei V ein endlichdimensionaler Skalarproduktraum. Die folgenden Aussagen über eine linear Abbildungen T : V → V sind äquivalent. (i) T ist orthogonal bzw. unitär. (ii) T ist skalarprodukttreu, d.h. hTv, Twi = hv, wi für alle v, w ∈ V. (ii) T ist normtreu, d.h. k Tvk = kvk für alle v ∈ V. 185 7.4 Normale Abbildungen Beweis (i) ⇔ (ii): Es gilt hv, wi = hTT ∗ v, wi | {z } = hTv,Twi für alle v,w ∈ V genau dann, wenn TT ∗ = I. (ii) ⇔ (iii): Eine skalarprodukttreue Abbildung ist offensichtlich normtreu. Ist sie dagegen normtreu, so folgt aus der Identität h x, yi = 1 k x + yk2 − k x − yk2 + ik x + iyk2 − ik x − iyk2 , 4 dass sie skalarprodukttreu ist. x, y ∈ V, Korollar Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine orthogonale bzw. unitäre Abbildung. 1. T −1 : V → V ist ebenfalls orthogonal bzw. unitär. 2. Ist λ Eigenwert von T, so ist |λ| = 1. Satz Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine normale Abbildung. Ferner habe T die folgende zusätzliche Eigenschaft, falls V ein euklidischer Raum ist: Das charakteristische Polynom c von T zerfällt in (nicht notwendigerweise verschiedene) einfache Faktoren d.h. es gibt (nicht notwendigerweise verschiedene) Skalare λ1 , . . . , λn derart, dass c(λ) = (−1) n n ∏ ( λ − λi ). i =1 Dann hat V eine Orthonormalbasis aus Eigenvektoren von T und insbesondere ist T diagonalisierbar. 186 7.4 Normale Abbildungen Beweis Diesen Satz beweisen wir durch vollständige Induktion über die Dimension n des Raums V. Der Fall n = 1 ist trivial. Sei nun die Aussage für n = k richtig und betrachte eine normale Abbildung T : V → V, wobei V ein (k + 1)-dimensionaler unitärer Raum ist. Da ihr charakteristisches Polynom in einfache Faktoren zerfällt, hat T einen Eigenwert λ + 0. Es sei v ein dazugehöriger Eigenvektor mit kvk = 1. Mit U = hvi gilt V = U ⊕ U⊥ und dim U ⊥ = k. U ⊥ ist ein T-invarianter Unterraum von V. Für u ∈ U ⊥ gilt nämlich hTu, vi = hu, T ∗ vi = hu, λ0 vi = λ0 hu, vi = 0 und folglich hTu, αvi = 0 für alle Skalare α, sodass Tu ∈ U ⊥ ist. Die Darstellungsmatrix von T bezüglich der Basis {v,u1 , . . . ,uk } für V, wobei {u1 , . . . ,uk } eine Basis für U ⊥ ist, hat die Form λ0 0 , 0 à wobei à die Darstellungsmatrix von T |U ⊥ bezüglich der Basis {u1 , . . . ,uk } für U ⊥ ist. Folglich gilt c(λ) = (λ0 − λ)c̃ (λ), wobei c̃(λ) das charakteristische Polynom von T |U ⊥ ist, so dass c̃ ebenfalls in einfache Faktoren zerfällt. Der Induktionsannahme zufolge gibt es eine orthogonale Basis {v1 , . . . ,vk } für U ⊥ aus Eigenvektoren von T, und {v,v1 , . . . ,vk } ist eine Orthonormalbasis für V aus Eigenvektoren von T. Somit sind alle normalen Abbildungen eines unitären Raums diagonalisierbar. Nun zeigen wir, dass selbstadjungierte Abbildungen eines euklidischen Raums ebenfalls diagonalisierbar sind, indem wir das Kriterium für reelle Räume im letzten Satz verifizieren. 187 7.4 Normale Abbildungen Proposition Es seien V ein endlichdimensionaler euklidischer Raum und T : V → V eine selbstadjungierte Abbildung. Dann zerfällt das charakteristische Polynom c von T in (nicht notwendigerweise verschiedene) einfache Faktoren d.h. es gibt (nicht notwendigerweise verschiedene) reelle Zahlen λ1 , . . . , λn derart, dass n c(λ) = (−1)n ∏ (λ − λi ). i =1 Beweis Wir komplexifizeren V, indem wir Multiplikation mit komplexen Skalaren zulassen – und somit V mit V ⊕ iV ersetzen – und T sowie das Skalarprodukt dementsprechend fortsetzen. Somit verfällt c in einfache Faktoren (λ − λi ), i = 1, . . . ,n, wobei λ1 , . . . , λn komplexe Zahlen sind. Wir zeigen, dass diese Zahlen reell sind. Da λi ein Eigenwert von T ist, gibt es v 6= 0 mit Tv = λi v. Da T selbstadjungiert ist, gilt auch ⇒ ⇒ ⇒ hTv, vi = hv, Tvi hλi v, vi = hv, λi vi λi hv,vi = λ̄i hv,vi (λi − λ̄i ) hv,vi = 0 | {z } 6= 0 und folglich λi = λ̄i , d.h. λi ist reell. Bemerkung Derselbe Beweis zeigt, dass die Eigenwerte einer selbstadjungierten Abbildungen eines unitären Raums reell sind. Korollar Es seien V ein endlichdimensionaler euklidischer Raum und T : V → V eine selbstadjungierte Abbildung. Dann hat V eine Orthonormalbasis aus Eigenvektoren von T und insbesondere ist T diagonalisierbar. 188 7.4 Normale Abbildungen Bemerkung Es seien V ein endlichdimensionaler Skalarproduktraum, T : V → V eine diagonalisierbare normale Abbildung und λ1 , . . . , λm die verschiedenen Eigenwerte von T, sodass V= m M Ei . i =1 Aus der nächsten Proposition folgt, dass die Vereinigung von Orthonormalbasen für E1 , . . . , Em eine Orthonormalbasis für V ist. Proposition Es seien V ein endlichdimensionaler Skalarproduktraum, T : V → V eine diagonalisierbare normale Abbildung und v1 , v2 Eigenvektoren zu verschiedenen Eigenwerten λ1 , λ2 . Dann ist v1 orthogonal zu v2 . Beweis Es gilt λ1 hv1 , v2 i = hλ1 v1 , v2 i = hTv1 , v2 i = hv1 , T ∗ v2 i = hv1 , λ̄2 v2 i = λ2 hv1 , v2 i, sodass (λ1 − λ2 )hv1 , v2 i = 0. | {z } 6= 0 Beispiel Die lineare Abbildung R3 → R3 , x 7→ Ax mit 3 2 4 A = 2 0 2 4 2 3 ist selbstadjungiert, denn ( Ax).y = ( Ax)T y = xT AT y = xT ( Ay) = x.( Ay) 189 7.4 Normale Abbildungen für alle x, y ∈ R3 . Sie hat die Eigenwerte −1 und 8 mit entsprechenden Eigenräumen * 1 −1 + −2 E− 1 = 1 , 0 , 1 0 * 1 + E8 = 12 . 1 Mit Hilfe des Gram-Schmidt-Verfahrens können wir die Orthonormalbasen −1 −4 1 1 2 , √ −2 B−1 = √ 5 3 5 0 5 und 1 2 1 B8 = 3 2 für E−1 bzw. E8 konstruieren. B := B−1 ∪ B8 ist eine Orthonormalbasis für R3 . Die Baselwechselmatrix −1 √ 5 P = √25 0 von A zu B hat folglich die Eigenschaft − √4 3 5 − 3√2 5 5 √ 3 5 2 3 1 3 2 3 P−1 AP = diag (−1, − 1,8). Nun wenden wir uns Matrizen zu. Definition Es sei A eine quadratische reelle oder komplexe Matrix. T 1. Die Matrix A∗ := A heißt die adjungierte Matrix zu A. 2. A ist (i) normal, falls AA∗ = A∗ A, (ii) selbstadjungiert, falls A∗ = A, 190 7.4 Normale Abbildungen (iii) orthogonal, falls sie reell mit AA∗ = I ist, (iv) unitär, falls sie komplex mit AA∗ = I ist. 3. Ferner heißt A symmetrisch, falls sie reell und selbstadjungiert ist (sodass AT = A), und hermitisch, falls sie komplex und selbstadjungiert ist (sodass ĀT = A). Proposition Es sei V ein endlichdimensionaler Skalarproduktraum. Eine lineare Abbildung T : V → V ist genau dann (i) normal, (ii) selbstadjungiert, (ii) unitäre bzw. orthogonal, wenn seine Darstellungsmatrix A bezüglich einer Orthonormalbasis B für V (i) normal, (ii) selbstadjungiert, (ii) unitär bzw. orthogonal ist. Bemerkung Aus folgt hv, wi = vT w̄ hTv, wi = ( Av)T w̄, hv, T ∗ wi = vT ( A∗ w), wobei v, w die Darstellungsvektoren von v, w bezüglich B sind. Somit unterscheiden wir auch in dieser Hinsicht nicht zwischen Matrizen und linearen Abbildungen, wobei wir nun ausschließlich mit Orthonormalbasen arbeiten. Proposition Die folgenden Eigenschaften einer n × n reeller bzw. komplexer Matrix A sind äquivalent. (i) A ist orthogonal bzw. unitär. (ii) Die Spalten von A bilden eine Orthonormalbasis für R n bzw. C n . (iii) Die Spalten von A bilden eine Orthonormalbasis für R n bzw. C n . 191 7.4 Normale Abbildungen Beweis Es gilt ∗ ( A∗ A)ij = riA c jA = (ciA )T c jA = hci , c j i, sodass A∗ A = I genau dann, wenn hci , c j i = δij ist, sowie ∗ ( AA∗ )ij = riA c jA = riA (r jA )T = hri , r j i, sodass AA∗ = I genau dann, wenn hri , r j i = δij ist. Korollar Sind B1 und B2 Orthonormalbasen für einen endlichdimensionalen Skalarproduktraum, so ist die Basiswechselmatrix von B1 zu B2 orthogonal bzw. unitär. Definition Zwei reelle (komplexe) Matrizen A und B heißen kongruent, falls es eine orthogonale (unitäre) Matrix P mit B = P∗ AP gibt. Proposition 1. Die Menge aller orthogonalen n × n Matrizen bildet eine Untergruppe O(n) von GL(n,R ). (Dies ist die orthogonale Gruppe.) 2. Die Menge aller unitären n × n Matrizen bildet eine Untergruppe U(n) von GL(n,C ). (Dies ist die unitäre Gruppe.) Proposition Jede Matrix A ∈ O(n) bzw. U(n) erfüllt | det A| = 1. 192 7.4 Normale Abbildungen Beweis Es gilt | det A|2 = det A.det A = det A. det Ā = det A. det A∗ = det( AA∗ ) = det I = 1. Proposition Die Menge SO(n) = { A ∈ O(n) : det A = 1} ist eine Untergruppe von O(n). (Diese ist die spezielle orthogonale Gruppe.) Schließlich analysieren wir die Struktur der speziellen orthogonalen Gruppe in verschiedenen Dimensionen. 1. Offensichtlich ist SO(1) = {(1)}. 2. Schreiben wir A ∈ SO(2) als A= a b , c d so gilt a2 + c2 = 1, b2 + d2 = 1, ab + cd = 0 und ad − bc = 1. Elementare Rechnungen ergeben dann cos θ − sin θ SO(2) = Rθ = : θ ∈ [0,2π ) . sin θ cos θ Die Matrix Rθ is die Matrixdarstellung einer Drehung der Ebene um den Winkel θ (bezüglich der üblichen Basis für R2 ). Sie ist diagonal für θ = 0 (R0 = I2 ) und θ = π (Rπ = diag (−1, − 1)) und für keine anderen Werte von θ diagonalisierbar. e2 Re1 Re2 θ θ e1 193 7.4 Normale Abbildungen 3. Nun seien A ∈ SO(3) mit (kubischem, reellen) charakteristichem Polynom c. Das Produkt der komplexen Nullstellen von c ist det A, also 1. Alle komplexen Nullstellen haben Betrag 1, denn sie sind Eigenwerte der unitären Abbildung A ∈ C3×3 . Falls c drei reelle Nullstellen hat, sind diese also 1, 1, 1 oder 1, −1, −1. Falls es eine reelle und zwei komplexe Nullstellen hat, sind diese also 1, eiα , e−iα für ein α ∈ (0,π ) ∪ (π,2π ). Somit ist 1 eine Nullstelle von c und folglich ein Eigenwert von A. Es sei n ein dazugehöriger Eigenvektor mit knk = 1. Mit U = hni gilt R3 = U ⊕ U ⊥ und dim U ⊥ = 2. U ⊥ ist ein A-invarianter Unterraum von V. Für u ∈ U ⊥ gilt nämlich Au.n = u.AT n = u.n = 0 und folglich Au.(αn) = 0 für alle α ∈ R, sodass Au ∈ U ⊥ ist. Es sei {e1 , e2 } eine Orthonormalbasis für U ⊥ . Wechseln wir zu dieser Basis, so finden wir, dass A kongruent zur Matrix 1 0 0 B für ein B ∈ SO(2) ist. Folglich ist B = Rθ für ein θ ∈ [0,2π ). Die Matrix 1 0 0 Rθ ist die Matrixdarstellung einer Drehung mit Drehachse n und Drehwinkel θ (bezüglich der Basis {n,e1 ,e2 }). 194 7.4 Normale Abbildungen n θ e2 e1 4. Durch vollständige Induktion können wir das folgende Ergebnis für A ∈ SO(n) beweisen. Ist n = 2m gerade, so gibt es Winkel θ1 , . . . , θm ∈ [0,2π ) derart, dass A kongruent zur Matrix R θ1 0 R θ2 . . . 0 Rθm ist. Ist n = 2m + 1 gerade, so gibt es Winkel θ1 , . . . , θm ∈ [0,2π ) derart, dass A kongruent zur Matrix 1 0 R θ1 .. . 0 Rθm ist. 195