Vorlesungsmanuskript zu Lineare Algebra I Werner Balser Institut für Angewandte Analysis Wintersemester 2007/08 Inhaltsverzeichnis 1 Vektorräume 5 1.1 Lineare Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Einfache Folgerungen aus den Axiomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.3 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.4 Lineare Hülle, lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.5 Erzeugendensystem und Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.6 Existenz von Basen in endlich-dimensionalen Räumen . . . . . . . . . . . . . . . . . . . . 13 1.7 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.8 Wechsel des Skalarenkörpers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.9 Summe von Unterräumen 16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Matrizen 5 19 2.1 Denition und elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2 Das Produkt von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.3 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.4 Zeilen- und Spaltenrang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.5 Elementare Operationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.6 Normalform und Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.7 Zeilenstufenform und Rangberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.8 Invertierbare Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3 Lineare Gleichungssysteme 30 3.1 Das Gauÿsche Eliminationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.2 Struktur der Lösungsmenge 32 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3.3 Berechnen der inversen Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Determinanten 33 35 4.1 Gruppen und Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4.2 Vorzeichen von Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.3 Denition der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.4 Rechenregeln für Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.5 Weitere Eigenschaften von Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.6 Entwicklungssätze 44 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Euklidische und unitäre Räume 46 5.1 Denition des Skalarprodukts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 5.2 Die Norm eines Vektors 47 5.3 Orthogonalität und Winkel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 5.4 Orthogonalsysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 5.5 Beste Approximation, orthogonale Projektion und Fourierkoezienten . . . . . . . . . . . 52 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Lineare Abbildungen 54 6.1 Denition und elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 6.2 Kern und Bild 55 6.3 Lineare Abbildungen und Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 6.4 Isomorphie und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 6.5 Der Dualraum, die duale Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 6.6 Die adjungierte Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 6.7 Längentreue Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 6.8 Denite Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 6.9 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Lineare Abbildungen und Matrizen 65 7.1 Die Darstellungsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 7.2 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 7.3 Ähnliche Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 7.4 Hermitesche, normale und unitäre Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3 7.5 Charakteristisches Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Normalformen und Denitheit von Matrizen 70 75 8.1 Trigonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 8.2 Der Satz von Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 8.3 Hauptachsentransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 8.4 Diagonalisierung normaler Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . 79 8.5 Denite Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 9 Ergänzungen 83 9.1 Kegelschnitte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Drehungen und Spiegelungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 83 85 Kapitel 1 Vektorräume 1.1 Lineare Räume Im Folgenden sei K ein Körper. Wir können uns unter K entweder R oder C vorstellen, auÿer wenn wir ausdrücklich einen anderen Körper voraussetzen. Die meisten der folgenden Resultate gelten aber genauso für einen beliebigen Körper K. Wir nennen K λ ∈ K heiÿt C, wird in der auch den Skalarenkörper, und ein Element manchmal auch ein Skalar. Die genaue Denition eines Körpers, und speziell von R und Vorlesung Analysis I gegeben. Allgemeine Körper werden in der Vorlesung Algebra behandelt. Denition 1.1.1 Eine Menge V, zusammen mit zwei Abbildungen + : V × V −→ V, (v, w) 7−→ v + w, · : K × V −→ V, (λ, v) 7−→ λ · v heiÿt ein linearer Raum oder ein Vektorraum über K, (= λ v), wenn folgende Axiome alle gelten: (V1) ∀ u, v, w ∈ V : (V2) ∃0∈V ∀v∈V : v + 0 = v (Existenz eines Nullvektors) (V3) ∀v∈V ∃ ṽ ∈ V : v + ṽ = 0 (Exist. eines additiven Inversen) (V4) ∀ v1 , v2 ∈ V : (V5) ∀v∈V (V6) ∀ v, w ∈ V , (V7) ∀v∈V , (V8) ∀v∈V : u + (v + w) = (u + v) + w v1 + v2 = v2 + v1 ∀ λ, µ ∈ K : (Kommutativges. der Addition) λ (µ v) = (λ µ) v ∀λ∈K : ∀ λ, µ ∈ K : (Assoz.-Ges. der Multiplik.) λ (v + w) = λ v + λ w (1. Distrib.-Ges.) (λ + µ) v = λ v + µ v (2. Distrib.-Ges.) 1v = v Ist dies der Fall, so heiÿen die Elemente von von einem reellen, für Beispiel 1.1.2 (Assoz.-Ges. der Addit.) K=C V auch Vektoren. Für den Fall K=R spricht man auch von einem komplexen Vektorraum. Beachte für dieses Beispiel sowie die ganze Vorlesung, dass der natürlichen Zahlen bezeichnet. Insbesondere ist anders sein kann, und wir schreiben 0 6∈ N, N0 = N ∪ {0}. Die folgenden Mengen sind alle Vektorräume über K: 5 N = {1, 2, 3, . . .} die Menge was in manchen Büchern und Vorlesungen Kn (a) Die Menge n∈N aller Spaltenvektoren der Länge x1 x2 x = . .. xn x j ∈ K. mit Zahlen Dabei ist für x mit Elementen in K, d. h., die Menge aller (x1 , . . . , xn )T , = wie oben und einen zweiten Spaltenvektor y1 y2 y = . .. yn sowie λ∈K (y1 , . . . , yn )T = Addition und Skalarmultiplikation deniert durch x1 + y1 x2 + y2 x + y = , . . . xn + yn Für n=1 ist Kn praktisch gleich K. Für n=2 λ x1 λ x2 λx = . . . . λ xn bzw. n=3 und K=R kann man Ebene bzw. des Raumes auassen und nennt deshalb auch allgemein die Zahlen des Vektors x. Beachte auch, dass die Schreibweise x = (x1 , . . . , xn )T xk x als Punkt der die Koordinaten ein Spezialfall der sogenannten Transposition einer Matrix ist, welche in Denition 2.3.1 noch genauer behandelt wird. (b) Die Menge C[a, b] aller stetigen Funktionen auf einem festen abgeschlossenen K und der üblichen Addition und Multiplikation. Intervall [a, b], a ≤ b, mit Werten in (c) Die Menge K[t] K[t] aller Polynome in einer Variablen als K adjungiert (d) Die Menge Kn [t] t mit Koezienten in K. Man liest das Symbol t. aller Polynome vom Grad ≤n mit Koezienten in K. (e) Die Menge aller Funktionen auf einem festen, nicht-leeren Denitionsbereich oder allgemeiner, mit Werten in einem festen aber beliebigen Vektorraum (f ) Kartesische Produkte von beliebig vielen Vektorräumen über (g) Die Menge V D mit Werten in über K, K. K. KJ aller Abbildungen f einer nicht-leeren Menge J j ∈ J . Vergleiche hierzu auch Aufgabe 5.1.6. in K mit f (j) 6= 0 höchstens für endlich viele Falls K=R oder =C ist, hat ein Vektorraum V entweder nur ein Element, welches dann der Nullvektor sein muss, oder unendlich viele Elemente, da ja dann K selber bereits eine unendliche Menge ist; vergleiche dazu auch Aufgabe 1.2.5. Es gibt aber auch Körper mit endlich vielen, z. B. zwei, Elementen, und für n solche Körper ist dann z. B. auch K eine endliche Menge. Solche Fälle spielen aber in dieser Vorlesung keine Rolle. Aufgabe 1.1.3 fungen in K n Zeige, dass Kn ein Vektorraum ist, d. h., zeige dass für die oben denierten Verknüp- alle Axiome eines Vektorraumes erfüllt sind. Aufgabe 1.1.4 n ∈ N, keinen Elementen. Berechne die Anzahl der Elemente von Kn bzw. Begründe, warum die Menge der Polynome vom Grad n, bei festem Vektorraum bildet. Aufgabe 1.1.5 Kn [t], für n ∈ N, Sei K ein Körper mit sowie von p≥2 K[t]. 6 Aufgabe 1.1.6 (Vektoren und MAPLE) Begleitend zur Vorlesung werden wir das ComputeralgebraKn , aber auch mit Paket MAPLE benutzen, das, wie auch viele andere solche Systeme, mit Vektoren aus Polynomen symbolisch, d. h. formelmäÿig, rechnen kann. Die Kommandozeilen > restart; > with(LinearAlgebra); > x := Vector([1, 2, 3]); > y := Vector([3, 2, 1]); > z := VectorAdd(x,y); berechnen die Summe der zuvor eingegebenen Vektoren der Version 8 x und y . Finde einen Rechner, auf dem MAPLE in oder höher installiert ist, starte das Paket mit xmaple8 oder einem ähnlichen Kommando, gib dann obige Zeilen ein und beobachte, was passiert. Dabei ist das erste Kommando > restart nicht unbedingt notwendig, aber immer angeraten, da es Reste von etwaigen früheren Befehlen beseitigt und das Programm sozusagen in den Ausgangszustand versetzt. Der zweite Befehl ruft ein Programmpaket zum Thema lineare Algebra auf. Es gibt auch noch ein zweites Paket mit dem Namen linalg, welches sich in etlichen Punkten von diesem hier aufgerufenen Paket unterscheidet. 1.2 Einfache Folgerungen aus den Axiomen Im Folgenden bezeichnet V immer einen Vektorraum über K. Allein mit Hilfe der Axiome kann man weitere Rechenregeln beweisen, die in jedem Vektorraum gelten müssen: Behauptung 1.2.1 In jedem Vektorraum (a) Es gibt nur einen Nullvektor in (b) Für alle v∈V (c) Zu jedem gilt v∈V λv = 0 K gelten folgende Aussagen: V. dabei steht links die Zahl −v = (−1) v ⇐⇒ λ=0 (e) Die Gleichung v + x = w, (f ) Die Gleichung α x = v, Beweis: über gibt es nur ein additives Inverses denn es gilt auch (d) 0 v = 0; V für alle oder mit mit 0, ṽ , das rechts der Nullvektor. wir im Folgenden auch mit −v bezeichnen, v ∈V. v=0 v, w ∈ V , α ∈ K \ {0} (oder beides). besitzt genau eine Lösung und v ∈V, x∈V, nämlich x = w + (−v). besitzt genau eine Lösung, nämlich x = α−1 v . 0 + v = 0̃ + v = v für alle v ∈ V ; zu zeigen ist 0 = 0̃. Durch 0 = 0̃ + 0 = 0 + 0̃ = 0̃, und das war zu zeigen. Zu (b): Sei w = 0 v gesetzt. Mit Hilfe des zweiten Distributivgesetzes folgt w = (0 + 0) v = w + w . Durch Addition eines additiven Inversen von w zu beiden Seiten der Gleichung folgt w = 0. Zu (c): Es gilt für jedes v ∈ V : v + (−1) v = (1 − 1) v = 0 v = 0 nach (b). Also ist (−1) v ein additives Inverses zu v . Sei ṽ ein weiteres solches. Dann folgt unter Verwendung von Kommutativ- und Assoziativgesetz der Vektoraddition: ṽ = ṽ + 0 = ṽ + v + (−1) v = v + ṽ + (−1) v = 0 + (−1) v = (−1) v . Zu (d): Genauso wie bei (b) zeigt man, dass λ 0 = 0 für jedes λ ∈ K. Sei jetzt λ v = 0, und sei o. B. d. A. angenommen, dass λ 6= 0 ist. Dann −1 folgt 0 = λ 0 = (λ−1 λ) v = v , wobei die Axiome (V5) und (V8) verwendet wurden. Die Beweise von (e) und (f ) werden als Übungsaufgabe gestellt. 2 Zu (a): Vorausgesetzt sei Einsetzen von 0 Aufgabe 1.2.2 bzw. 0̃ für v folgt Beweise die Aussagen (e) und (f ) der obigen Behauptung. 7 Bemerkung 1.2.3 −v für das additive Inverse eines Vektors v . w − v und sprechen von der Dierenz der Wir schreiben in Zukunft also immer w + (−v), für v, w ∈ V , schreiben wir Vektoren w und v . In einem Vektorraum V Statt dann auch kurz gibt es also neben der Addition und der Multiplikation mit Skalaren eine dritte, abgeleitete Operation, die Subtraktion. Beachte aber, dass im Allgemeinen weder ein Produkt von Vektoren noch etwa gar ein Quotient deniert ist. Aufgabe 1.2.4 (Allgemeine Distributivgesetze) v, v1 , . . . , vn ∈ V λ n X vk = k=1 Aufgabe 1.2.5 Zeige: Für alle n ∈ N, λ, λ1 , . . . , λn ∈ K und gilt immer n X λ vk , n X k=1 λk v = k=1 Zeige: In einem Vektorraum über oder R n X λk v . k=1 C gibt es entweder nur einen oder unendlich viele Vektoren. Warum ist dies nicht richtig für allgemeine Körper K? 1.3 Unterräume Denition 1.3.1 Eine nichtleere Teilmenge U ⊂V U heiÿt ein Unterraum oder Teilraum, falls abge- schlossen bezüglich der Addition und der Multiplikation mit Skalaren ist, d. h., falls gilt: (U1) ∀ v, w ∈ U : (U2) ∀v∈U v + w ∈ U, ∀λ∈K : λ v ∈ U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und · von U ×U nach U abbilden. Satz 1.3.2 über K; U Sei ein Unterraum eines Vektorraums d. h. also, in Beweis: U V über K. Dann ist U selber wieder ein Vektorraum sind alle Vektorraumaxiome (V1) (V8) erfüllt. Die Gültigkeit von (V1) und (V4) (V8) ist sofort klar, da nur die Menge der Vektoren verkleinert wurde. Da aus (U2) für λ=0 folgt, dass 0∈U ist, gilt auch (V2), und für λ = −1 folgt aus 2 (U2) auch (V3). Aufgabe 1.3.3 Zeige: V selber sowie die Teilmenge sind immer Unterräume von weiter, dass für ein Aufgabe 1.3.4 v∈V {0}, welche also nur aus dem Nullvektor besteht, Man nennt diese beiden auch die trivialen Unterräume von die Menge aller Vielfachen {λ v : λ ∈ K} V. Zeige ebenfalls ein Unterraum ist. Zeige: Die Menge aller Polynome ist ein Unterraum des Vektorraums aller Funktionen mit Denitionsbereich Aufgabe 1.3.5 V. K. Die Vektoren aus R2 bzw. R3 kann man sich in natürlicher Weise als Punkte einer Ebene bzw. des Raumes veranschaulichen. Untersuche, welche Geraden in der Ebene bzw. im Raum Unterräume sind. Lemma 1.3.6 Seien Uj , j ∈ J , V . Dann \ U = Uj Unterräume von j∈J ein Unterraum von V. 8 ist auch ihr Durchschnitt Beweis: Die Gültigkeit von (U1) und (U2) für U ist unmittelbar klar auf Grund der Denition des U nicht leer ist. Dies folgt aber, da nach Satz 1.3.2 Durchschnitts, aber wir müssen noch zeigen, dass jedes Uj selber ein Vektorraum ist und somit den Nullvektor enthalten muss, und dieser ist dann auch Element des Durchschnitts Aufgabe 1.3.7 2 U. Untersuche, ob die Vereinigung zweier Unterräume wieder ein Unterraum ist. 1.4 Lineare Hülle, lineare Unabhängigkeit Denition 1.4.1 vj ∈ V , für j ∈ J 6= ∅. Dabei vj gleich sind, und deshalb sprechen wir statt von der Menge besser von dem System der Vektoren (vj , j ∈ J). Ist J1 ⊂ J , so heiÿt (vj , j ∈ J1 ) Teilsystem von (vj , j ∈ J). Gelegentlich werden wir auch Teilmengen von V als Systeme auassen, was ohne weiteres möglich ist, während umgekehrt ein System im allgemeinen keine Teilmenge von V ist. Für endlich viele j1 , . . . , jn ∈ J und Skalare λ1 , . . . , λn ∈ K heiÿt die Summe Gegeben seien eine beliebige Anzahl von Vektoren soll erlaubt sein, dass auch einige der Vektoren v = n X λ k vj k (1.4.1) k=1 (vj , j ∈ J). Der Nullvektor ist also immer eine Linearkombination, da ja sein können. Die Menge aller Linearkombinationen von (vj , j ∈ J) heiÿt die lineare eine Linearkombination der alle λk gleich 0 L(vj , j ∈ J). Die Vektoren (vj , j ∈ j1 , . . . , jn ∈ J und Zahlen λ1 , . . . , λn ∈ K die Hülle dieser Vektoren, und wir schreiben für diese Menge in Zeichen J) heiÿen linear unabhängig, falls für beliebige Indizes Gleichung n X λ k vj k = 0 (1.4.2) k=1 λk = 0 sind. Ist dies nicht λ1 , . . . , λn , die nicht alle gleich 0 nur dann gilt, wenn alle so, d. h., gilt (1.4.2) für mindestens eine Wahl von j1 , . . . , j n ∈ J sind, so heiÿen die Vektoren linear abhängig. und Bemerkung 1.4.2 Es ist bequem, statt (1.4.1) kürzer v= X λj vj (1.4.3) j∈J zu schreiben. Dabei sollen die λj alle aus dem Körper höchstens endlich viele dieser Skalare von 0 K sein, und es ist wichtig zu beachten, dass verschieden sein dürfen. Wir stellen uns dabei vor, dass die rechts stehende Summe zwar formal unendlich viele Elemente enthalten kann, dass wir aber alle Terme mit λj = 0 ignorieren können, sodass nur eine endliche Summe zu berechnen ist oder sogar nur die leere Summe übrig bleibt, welche per Denition immer den Nullvektor ergibt. Mit dieser Kurzschreibweise zeigt (vj , j ∈ J) dadurch, dass die Gleichung (1.4.3) für sind. Es ist sinnvoll, auch ein leeres System zuzulassen, sich dann die lineare Unabhängigkeit des Systems v=0 nur dann bestehen kann, wenn alle für welches also J = ∅ λj = 0 ist. Dieses soll als linear unabhängig angesehen werden, und entsprechend der Konvention, dass eine leere Summe den Wert 0 haben soll, sehen wir den Nullvektor als die einzige Linearkombination des leeren Systems an. Beispiel 1.4.3 Die Menge K[t] aller Polynome mit Koezienten in K ist ein Vektorraum über K. Jedes Pn j j j=0 aj t ist oenbar eine Linearkombination des Systems der Monome (t , j ∈ N0 ). Nach dem sogenannten Identitätssatz für Polynome, der in der Vorlesung Analysis behandelt wird, ist Polynom p(t) = p(t) = 0 für alle t∈K gleichwertig mit a0 = . . . = an = 0. die Monome linear unabhängig sind. 9 Dies bedeutet dasselbe wie die Aussage, dass Aufgabe 1.4.4 Formuliere die obigen Begrie der Linearkombination und der linearen Unabhängigkeit (v1 , . . . , vn ) noch einmal für den wichtigsten Spezialfall eines endlichen Systems Lösung: Da bei einer Linearkombination auch einige der Zahlen λk = 0 von Vektoren in V. sein dürfen, kann man o. B. d. A. so sagen: Für beliebige Skalare System (v1 , . . . , vn ) λ1 , . . . , λn ∈ K Pn heiÿt k=1 λ k vk eine Linearkombination von (v1 , . . . , vn ). Das heiÿt linear unabhängig, falls die Gleichung n X λk vk = 0 (1.4.4) k=1 λk = 0 sind. Ist dies nicht so, d. h., gilt (1.4.2) für mindestens eine Wahl von λ1 , . . . , λn , 0 sind, so heiÿt das System linear abhängig. Statt das System (v1 , . . . , vn ) ist linear soll es auch erlaubt sein zu sagen die Vektoren v1 , . . . , vn sind linear (un)abhängig. 2 nur gilt, wenn alle die nicht alle gleich (un)abhängig Aufgabe 1.4.5 Zeige: Ein System von unendlich vielen Vektoren ist genau dann linear unabhängig, wenn jedes endliche Teilsystem linear unabhängig ist. Aufgabe 1.4.6 v∈V Zeige: Ein System aus einem Vektor nicht der Nullvektor ist. Zwei Vektoren v1 , v2 ist genau dann linear unabhängig, wenn v sind genau dann linear abhängig, wenn einer der Vektoren ein skalares Vielfaches des anderen ist. Behauptung 1.4.7 Für jedes System (a) Sind die Vektoren (vj , j ∈ J) aus V gelten immer folgende Aussagen: (vj , j ∈ J) linear unabhängig, und ist j ∈ J, vj = vk J1 ⊂ J , so ist auch (vj , j ∈ J1 ) linear unabhängig. (b) Gilt vj = 0 J 6= ∅, (c) Ist für ein oder für j, k ∈ J mit j 6= k , so ist (vj , j ∈ J) (vj , j ∈ J) linear unabhängig, so gibt es zu λj ∈ K, j ∈ J , von denen höchstens endlich und sind die Vektoren eindeutig bestimmte Skalare linear abhängig. v ∈ L(vj , j ∈ J) 6= 0 sind, sodass jedem viele (1.4.3) gilt. (d) Wenn j0 ∈ J Beweis: J mindestens zwei Elemente enthält, ist gibt, für welches vj0 (vj , j ∈ J) genau dann linear abhängig, wenn es ein als Linearkombination der übrigen vj geschrieben werden kann. Zu (a): Folgt sofort aus der Denition der linearen Unabhängigkeit. Zu (b): Setze J1 = {j, k} im zweiten Fall und wende Teil (a) sowie Aufgabe v ∈ L(vj , j ∈ J) kann per Denition als Linearkombination (1.4.1) dargestellt im ersten bzw. J1 = {j} 1.4.6 an. Zu (c): Jedes werden, und dies kann kurz in der Form (1.4.3) geschrieben werden, wobei von den möglicherweise unendlich vielen Skalaren λj v mit P 0 = j∈J (λj − αj ) vj , was auf Grund der linearen Unabhängigkeit j ∈ J gilt αj = λj . Zu (d): Genau dann ist (vj , j ∈ J) linear abhängig, eine Wahl von λj ∈ K, wobei für mindestens ein j0 ∈ J gilt λj0 6= 0. Diese höchstens endlich viele von Koezienten αj nur sein kann, wenn für alle wenn P j∈J 0 verschieden sind. Wenn auch eine zweite solche Darstellung für gilt, so folgt oenbar λ j vj = 0 gilt für Gleichung ist aber äquivalent zu vj 0 = − X j∈J\{j0 } λj vj , λj0 2 was zu zeigen war. Satz 1.4.8 Für ein System (vj , j ∈ J) ist die lineare Hülle L(vj , j ∈ J) ein Unterraum von genau der Durchschnitt aller Unterräume von V , welche alle vj enthalten. 10 V, und zwar Beweis: Sei U der Durchschnitt aller Unterräume, welche alle selber ein Unterraum, und nach Denition folgt, dass Also ist L(vj , j ∈ J) ⊂ U . Umgekehrt L(vj , j ∈ J) = U . U vj enthalten. Nach Lemma 1.3.6 ist alle Linearkombinationen der zeigt man schnell, dass L(vj , j ∈ J) vj selber ein Unterraum ist, und 2 deshalb folgt Aufgabe 1.4.9 Zeige: Drei Vektoren in R2 U enthalten muss. sind immer linear abhängig. Finde zwei Vektoren in R2 , welche linear unabhängig sind. 1.5 Erzeugendensystem und Basis Denition 1.5.1 Vektoren (vj , j ∈ J) aus V heiÿen ein Erzeugendensystem für V , falls jeder Vektor eine Linearkombination der vj ist, d. h., falls L(vj , j ∈ J) = V ist. Wenn die (vj , j ∈ J) zugleich ein Erzeugendensystem und linear unabhängig sind, heiÿen sie auch eine Basis von V . aus V Oenbar ist das leere System Basis von V genau dann, wenn V nur aus dem Nullvektor besteht. Ob es in einem allgemeinen Vektorraum eine Basis gibt, ist zunächst nicht klar und soll noch genauer untersucht werden. In manchen Vektorräumen gibt es aber eine natürliche Basis: Behauptung 1.5.2 Im Vektorraum der Polynome sind die Monome eine Basis. In Kn entsprechen diesen Monomen die Spaltenvektoren ek 0 .. . 0 = 1 ←k , 0 . .. 0 1 ≤ k ≤ n, (1.5.1) an der Stelle Nr. k steht. Diese sind ebenfalls eine Basis, Kn . Allgemeiner sind in KJ wie in Beispiel 1.1.2 (g) diejenigen Funktionen, welche an einer Stelle j ∈ J den Wert 1 annehmen und sonst gleich 0 sind, wobei der Pfeil andeuten soll, dass die einzige 1 und wir nennen diese auch die kanonische Basis von eine Basis. Beachte aber, dass dies nicht so ist, wenn wir die Menge aller Funktionen auf in K J mit Werten betrachten. Aufgabe 1.5.3 Zeige die Richtigkeit der vorstehenden Behauptung. Aufgabe 1.5.4 (Einheitsvektoren und MAPLE) toren in Kn . Führe die Kommandos > restart; > with(LinearAlgebra); > x := UnitVector(1,5); > y := UnitVector(4,5); > z := VectorAdd(x,y,4,-1); 11 MAPLE kennt die oben denierten Einheitsvek- 4 aus und nde insbesondere heraus, was die beiden Parameter und −1 im letzten Kommando bedeuten. Aufgabe 1.5.5 Sei (vj , j ∈ J) ein Erzeugendensystem für V . Zeige: Falls ein j0 ∈ J existiert, für eine Linearkombination der übrigen Vektoren vj ist, so ist auch (vj , j ∈ J \ {j0 }) ein Erzeugendensystem von V . Wir sagen dann auch, dass das Erzeugendensystem (vj , j ∈ J) verkürzbar ist. welches vj0 Eine Basis eines Vektorraums kann also aus endlich, aber auch aus unendlich vielen Vektoren bestehen; dies ist wichtig für den nächsten Abschnitt. Hier zeigen wir noch folgendes Resultat: Proposition 1.5.6 K Für ein nicht-leeres Systems (vj , j ∈ J) von Vektoren in einem Vektorraum V über sind folgende Aussagen äquivalent: (a) Die (vj , j ∈ J) bilden eine Basis von V. (vj , j ∈ J) sind ein unverkürzbares Erzeugendensystem von V ; d. h., sie sind ein Erzeugendensystem von V , und für jede Teilmenge J1 ⊂ J gilt: Wenn (vj , j ∈ J1 ) ebenfalls eine Erzeugendensystem von V ist, so folgt J1 = J . (b) Die (vj , j ∈ J) sind ein unverlängerbares linear unabhängiges System; d. h., sie sind linear unabhängig, und für jede Obermenge J1 ⊃ J gilt: Falls (wj , j ∈ J1 ) ein linear unabhängiges System ist, (c) Die und falls w j = vj (d) Jeder Vektor ist für alle v ∈ V j ∈ J, so folgt J1 = J . (vj , j ∈ J) für welche (1.4.3) lässt sich auf genau eine Weise als eine Linearkombination der schreiben; d. h., es gibt eindeutig bestimmte λ j ∈ K, j ∈ J , nur endlich viele 6= 0, gilt. Beweis: Wir zeigen: (a)=⇒ (b) =⇒ j0 ∈ J \ J1 λj ∈ K, j ∈ J1 mit Zu (a)=⇒ (b): Falls es ein also gäbe es (c) =⇒ (d) =⇒ (a). gäbe, dann müsste vj 0 = X vj0 eine Linearkombination der (vj , j ∈ J1 ) sein, λj vj . j∈J1 Setzt man λj0 = −1 und λj = 0 für j ∈ J \ (J1 ∪ {j0 }), so folgt X λ j vj = 0 , j∈J was der linearen Unabhängigkeit von Zu (b) =⇒ (c): Da das System (vj , j ∈ J) (vj , j ∈ J) widerspricht. ein Erzeugendensystem für V 6= {0} ist, kann es nicht nur aus dem Nullvektor bestehen. Falls es linear abhängig wäre, wäre nach Behauptung 1.4.7 (d) ein Linearkombination der übrigen Vektoren vj , vj0 eine und nach Aufgabe 1.5.5 ergäbe sich ein Widerspruch zu (b). Also ist (vj , j ∈ J) linear unabhängig. Wenn das System verlängerbar wäre, dann gäbe es einen Vektor v ∈ V , der nicht als Linearkombination von (vj , j ∈ J) geschrieben werden könnte, was aber ebenfalls (b) widerspräche. Zu (c) =⇒ (d): Falls ein v ∈ V keine Linearkombination von (vj , j ∈ J) wäre, könnte man diesen Vektor zum System hinzufügen, ohne die lineare Unabhängigkeit zu verlieren. Also ist jedes v eine solche Linearkombination, und aus Behauptung 1.4.7 (c) folgt, dass diese Darstellung eindeutig ist. Zu (d) =⇒ (a): Klar ist, dass (vj , j ∈ J) ein Erzeugendensystem ist. Da jeder Vektor, also auch der Null- vektor, nur auf eine Weise als Linearkombination darstellbar ist, folgt auch die lineare Unabhängigkeit. 2 12 1.6 Existenz von Basen in endlich-dimensionalen Räumen Denition 1.6.1 Ein Vektorraum V über K heiÿt endlich-dimensional, falls er ein Erzeugendensystem aus endlich vielen Vektoren besitzt; falls nicht, nennen wir ihn unendlich-dimensional. Da das leere System aus endlich vielen Vektoren besteht und Erzeugendensystem des Vektorraums ist, welcher nur aus dem Nullvektor besteht, folgt dass dieser endlich-dimensional ist. Aufgabe 1.6.2 Zeige: Der Vektorraum K[x] aller Polynome ist unendlich-dimensional. Die Existenz einer Basis in einem endlich-dimensionalen Raum folgt aus dem nächsten Satz: Satz 1.6.3 (Basisauswahlsatz) Sei V 6= {0} ein Vektorraum über K, und sei (v1 , . . . , vm ) ein ErV , also insbesondere ist V endlich-dimensional. Dann gibt es eine Teilmenge {j1 , . . . , jn } ⊂ {1, . . . , m} so, dass (vj1 , . . . , vjn ) eine Basis von V ist. zeugendensystem von Beweis: (v1 , . . . , vm ) linear unabhängig ist, dann ist es bereits eine Basis, und die {j1 , . . . , jn } = {1, . . . , m}. Falls nicht, ist einer der Vektoren vj eine Linearkombination der übrigen. Durch Änderung der Numerierung können wir erreichen, dass dies für j = n zutrit, und mit Aufgabe 1.5.5 folgt, dass dann (v1 , . . . , vm−1 ) ebenfalls Erzeugendensystem von V ist. Durch Wiederholung dieses Schlusses ergibt sich die Behauptung in endlich vielen Schritten. 2 Falls das System Behauptung gilt für Aufgabe 1.6.4 Zeige, dass die Polynome (t2 − t + 1, t2 + t, t − 1, t) ein Erzeugendensystem für R2 [t] sind, und wähle daraus ein Basis aus. Bemerkung 1.6.5 (Basen in unendlich-dimensionalen Räumen) Auch in unendlich-dimensiona- len Räumen gibt es immer eine Basis. Der Beweis beruht auf dem sogenannten Zornschen Lemma, was zum Auswahlaxiom der Mengenlehre äquivalent ist. In dieser und späteren Vorlesungen spielt die Existenz von Basen in unendlicher Dimension keine groÿe Rolle, und wir lassen deshalb den Beweis hier aus. Aufgabe 1.6.6 (Basen und MAPLE) Basen von Unterräumen von Kn Finde heraus, welche MAPLE-Kommandos geeignet sind, um zu nden. 1.7 Dimension In jedem Vektorraum V 6= {0} gibt es unendlich viele verschiedene Basen, wie sich aus dem folgenden Lemma ergibt: Lemma 1.7.1 (Austauschlemma) V = 6 {0} Vektorraum über K, und sei (vj , j ∈ J) eine Basis v in der Form (1.4.3) geschrieben werden, wobei nicht alle sein können. Wähle ein j0 ∈ J mit λj0 6= 0. Dann ist auch das System, welches aus der Basis Ersetzen von vj0 durch v entsteht, wieder eine Basis von V . V. λj = 0 von durch Sei weiter Beweis: v ∈ V \ {0}; Für ein beliebiges Sei also kann w∈V wollen wir zeigen, dass die Gleichung X w = αv + j∈J\{j0 } 13 αj vj durch eindeutig bestimmte Koezienten α, αj ∈ K erfüllbar ist, von denen höchstens endlich viele nicht verschwinden. Durch Einsetzen von (1.4.3) kann diese Gleichung umgeschrieben werden in die Form w = α λj0 vj0 + X αj + α λj vj . j∈J\{j0 } Da (vj , j ∈ J) eine Basis von V ist, gibt es eindeutig bestimmte w = X βj ∈ K mit βj vj , j∈j und da nach Voraussetzung j ∈ J \ {j0 } Raumes V . α eindeutig nach Aufgabe 1.7.2 λj0 6= 0 ist, können die Beziehungen βj0 = α λj0 und βj = αj + α λj und αj aufgelöst werden. Also ist das neue System ebenfalls eine Basis für des 2 U ein Unterraum von Cn , n ≥ 1, mit folgender Eigenschaft: Für jeden Vektor u = (u1 , . . . , un ) ∈ U ist auch u = (u1 , . . . , un )T in U enthalten. Sei weiter (u1 , . . . , um ) eine Basis von U . Zeige mit Hilfe des Austauschlemmas: Für jedes j = 1, . . . , m kann man den Vektor uj entweder durch u1 + uj oder durch u1 − uj ersetzen, ohne die lineare Unabhängigkeit des Systems zu verlieren. Schlieÿe hieraus, dass es eine Basis von U gibt, welche nur aus reellen Vektoren uj besteht. Sei T Aufgabe 1.7.3 das Polynom Die Monome sind bekanntlich eine Basis von t2 − 1 R[t]. Untersuche, welches Monom durch ersetzt werden kann, so dass wir weiterhin eine Basis von R[t] haben. Satz 1.7.4 (Austauschsatz von Steinitz) Sei V 6= {0} Vektorraum über K, und sei (vj , j ∈ J) eine (w1 , . . . , wm ) ein endliches linear unabhängiges System von Vektoren aus V . Dann gibt es j1 , . . . , jm ∈ J derart, dass das System, welches aus (vj , j ∈ J) durch Ersetzen von vjk durch wk , für 1 ≤ k ≤ m, entsteht, ebenfalls Basis von V ist. Insbesondere sind die jk alle voneinander verschieden, sodass J mindestens m Elemente haben muss. Basis von Beweis: V. Sei weiter Folgt aus dem Austauschlemma mit vollständiger Induktion über zu zeigen. Also sei angenommen, dass der Satz für ein m ≥ 1 m: Für m = 1 ist nichts mehr richtig ist. Für ein linear unabhängiges (w1 , . . . , wm , wm+1 ) wenden wir dann die Induktionshypothese auf (w1 , . . . , wm ) an und können j1 , . . . , jm ∈ J gibt, für welche (nach der Ersetzung) vjk = wk gilt für k = 1, . . . , m. Der Vektor wm+1 kann dann in der Form X wm+1 = λ j vj System somit annehmen, dass es j∈J λj = 0 für alle j ∈ J \ {j1 , . . . , jm }, so wäre wm+1 eine Linearkombination der vjk = wk , was der linearen Unabhängigkeit des Systems (w1 , . . . , wm , wm+1 ) widerspräche. Also gibt es ein jm+1 ∈ J \ {j1 , . . . , jm } mit λjm+1 6= 0. Anwendung des Austauschlemmas auf dieses jm+1 zeigt dann die Gültigkeit der Behauptung auch für m + 1. 2 geschrieben werden. Wäre Korollar zu Satz 1.7.4 Sei V endlich-dimensional. Dann haben zwei Basen von V immer die gleiche Anzahl von Elementen. Beweis: Sei V , und sei (w1 , . . . , wm ) linear unabhängig. Dann folgt m ≤ n aus (w1 , . . . , wm ) ebenfalls eine Basis von V ist, kann man die Bezeichnungen ergibt sich die Behauptung. 2 (v1 , . . . , vn ) Basis von dem Austauschsatz. Wenn vertauschen, und daraus 14 Aufgabe 1.7.5 N) in V Zeige: Genau dann gilt dim V = ∞, wenn es ein abzählbar-unendliches System (vj , j ∈ gibt, welches linear unabhängig ist. Denition 1.7.6 Als Dimension eines Vektorraumes dim V = 0 über K denieren wir ∞ falls V unendlich-dimensional ist, n ∈ N0 falls V eine Basis aus genau dann, wenn V nur aus dem Nullvektor besteht. dim V = Insbesondere ist V Aufgabe 1.7.7 (Dimension und MAPLE) n Vektoren besitzt. Finde selber die Funktion der Kommandos > Dimension bzw. > Dimensions heraus. Aufgabe 1.7.8 Korollar zu Satz 1.7.4 dim V < ∞, Kn , Kn [t] Finde die Dimension der Vektorräume so folgt Ist U ein Unterraum von V, so folgt und K[t]. dim U ≤ dim V . Ist sogar dim U = U =V. Beweis: Falls U unendlich-dimensional ist, gibt es wegen Aufgabe 1.7.5 ein abzählbar-unendliches Sys(uj , j ∈ N) in U , welches linear unabhängig ist, und dies ist selbstverständlich auch in V linear unabhängig. Also gilt die Behauptung in diesem Fall. Im anderen Fall sei (u1 , . . . , um ) eine Basis von U , also insbesondere dim U = m. Für dim V = ∞ ist nichts mehr zu zeigen, also sei n = dim V < ∞ vorausgesetzt. Mit dem Austauschsatz von Steinitz folgt dann m ≤ n, und bei Gleichheit muss (uj , j ∈ N) bereits Basis von V sein, woraus U = V folgt. 2 tem Aufgabe 1.7.9 V Finde ein Beispiel eines Vektorraumes besitzt, so dass Aufgabe 1.7.10 dim U = dim V Sei n ∈ N, V über K, welcher einen echten Unterraum und sei V ein n-dimensionaler Vektorraum über (a) Für m>n sind m Vektoren in V immer linear abhängig. (b) Für m<n sind m Vektoren in V kein Erzeugendensystem von (c) Falls n Vektoren in V V. U 6= ist. K. Zeige: V. linear unabhängig oder ein Erzeugendensystem sind, so bilden sie bereits eine Basis von Sozusagen komplementär zum Basisauswahlsatz ist der folgende Ergänzungssatz, der auch oft angewandt werden kann: Satz 1.7.11 (Basisergänzungssatz) und sei wählen, (v1 , . . . , vm ) ein dass (v1 , . . . , vn ) Beweis: eine Basis von Wähle irgendeine Basis Aufgabe 1.7.12 Sei V ein n-dimensionaler V . Dann linear unabhängiges System in V K, sei 0 ≤ m < n, vm+1 , . . . , vn so ist. (w1 , . . . , wn ) von V und wende den Austauschsatz von Steinitz an! Ergänze den Vektor v = zu einer Basis von Vektorraum über kann man Vektoren 1 1 R2 . 15 ∈ R2 2 Aufgabe 1.7.13 dungen von D n∈N Seien nach und D n eine Menge mit hat die Dimension K Elementen. Zeige: Der Vektorraum aller Abbil- n. 1.8 Wechsel des Skalarenkörpers Jeder Vektorraum über Skalaren nur auf Satz 1.8.1 V Sei R V C ist oenbar auch Vektorraum über ein n-dimensionaler Vektorraum über C, R auf, so hat V die Dimension 2 n, als Vektorraum über Beweis: R, denn dazu muss die Multiplikation mit eingeschränkt werden. Hinsichtlich der Dimension gilt folgendes: wobei sei. Fasst man (vj , j ∈ N). Dieses V über R betrachten, und deshalb gilt die Behauptung in diesem Fall. Im anderen Fall sei (v1 , . . . , vn ) eine Basis von V (über C). Wir zeigen, dass das System (v1 , . . . , vn , i v1 , . . . , i vn ) Basis vonPV über R ist. Dazu sei ein v ∈ V betrachtet. Mit λj = αj + i βj , n αj , βj ∈ R, gilt die Gleichung v = j=1 λj vj genau dann, wenn Sei dim V = ∞ n = ∞ zugelassen 2 ∞ = ∞ sein soll. wobei auch (über C). Dann gibt es ein linear unabhängiges System System bleibt linear unabhängig, wenn wir v = n X αj vj + n X j=1 βj i vj , j=1 2 und das war zu zeigen. Wenn V Vektorraum über zieren. Man kann aber V R ist, kann man zunächst ein v∈V nicht mit einer komplexen Zahl multipli- in kanonischer Weise vergröÿern und so zu einem Vektorraum über C machen; dies geschieht analog zur Konstruktion der komplexen Zahlen: Satz 1.8.2 (Komplexizierung) Sei V ein Vektorraum über R. Dann ist auch V × V = {(v1 , v2 ) : v1 , v2 ∈ V } ein Vektorraum über R, und wir können jedes v ∈ V mit (v, 0) ∈ V × V identizieren, so dass V ein Unterraum von V × V wird. Für α, β ∈ R, und (v1 , v2 ) ∈ V × V sei (α + i β) (v1 , v2 ) = (α v1 − β v2 , β v1 + α v2 ) gesetzt. Dann wird i v = i (v, 0) V ×V zu einem Vektorraum über C, wobei die Paare (0, v) gerade den Vektoren entsprechen. Aufgabe 1.8.3 Beweise den obigen Satz! 1.9 Summe von Unterräumen Denition 1.9.1 Sei V ein Vektorraum über K,und seien A und B beliebige Teilmengen von V. Wir denieren A + B = {a + b : a ∈ A , b ∈ B} (1.9.1) A und B . Besteht A nur aus einem einzigen Vektor a, so schreiben wir statt A + B a + B . Beachte, dass man sich die Menge a + B als die Translation oder Verschiebung von B um den Vektor a vorstellen kann. Ist U ein Unterraum von V sowie v ∈ V , so heiÿt die Menge v + U auch eine lineare Mannigfaltigkeit in V , und wir sagen, dass die Dimension dieser linearen Mannigfaltigkeit gleich der von U ist. als die Summe von auch 16 Satz 1.9.2 U1 ∩ U2 Seien U1 und U2 Unterräume eines Vektorraumes Unterräume von V , und es gilt V über K. Dann sind auch U1 + U2 und dim(U1 + U2 ) + dim(U1 ∩ U2 ) = dim U1 + dim U2 , auch falls einige der Räume unendlich-dimensional sind. Beweis: Dass der Durchschnitt von Unterräumen ebenfalls Unterraum ist, ist in Lemma 1.3.6 gezeigt u, ũ ∈ U1 + U2 . Dann gibt es nach Denition Vektoren u1 , ũ1 ∈ U1 und u2 , ũ2 ∈ U2 u = u1 + u2 und ũ = ũ1 + ũ2 . Also folgt u + ũ = (u1 + ũ1 ) + (u2 + ũ2 ) = û1 + û2 , mit û1 ∈ U1 , û2 ∈ U2 , und somit ist u + ũ ∈ U1 + U2 . Für α ∈ K ist α u = α u1 + α u2 , und daraus folgt genauso α u ∈ U1 + U2 . Um die Dimensionsgleichung zu erhalten, bemerken wir zunächst, dass (U1 ∪ U2 ) ⊂ (U1 + U2 ) gilt. Wenn also einer der beiden Unterräume Uj unendlich-dimensional ist, dann gibt es dort eine Folge von linear unabhängigen Vektoren, und somit ist auch U1 + U2 unendlich-dimensional, und dann gilt die Gleichung. Seien jetzt beide Unterräume endlich-dimensional. Dann ist auch U1 ∩U2 endlichdimensional, und wir wählen eine Basis (v1 , . . . , vν ) von U1 ∩ U2 (beachte, dass der Durchschnitt auch nur aus dem Nullvektor bestehen kann, sodass diese Basis auch leer sein kann, was ν = 0 entspricht. Mit dem Basisergänzungssatz können wir weitere Vektoren u11 , . . . , u1µ1 und u21 , . . . , u2µ2 so wählen, dass (v1 , . . . , vν , u11 , . . . , u1µ1 ) bzw. (v1 , . . . , vν , u21 , . . . , u2µ2 ) Basis von U1 bzw. U2 ist. Wir zeigen nun, dass (v1 , . . . , vν , u11 , . . . , u1µ1 , u21 , . . . , u2µ2 ) Basis von U1 +U2 ist (woraus die Behauptung durch Abzählen der Basisvektoren folgt): Jeder Vektor aus U1 +U2 ist von der Form u = u1 +u2 , und uj ist Linearkombination der gewählten Basis von Uj . Also ist das angegebene System ein Erzeugendensystem von U1 + U2 . Für worden. Seien jetzt mit die lineare Unabhängigkeit setzen wir an 0 = ν X αj vj + j=1 µ1 X βk u1k + k=1 µ2 X γ` u2` = v + u1 + u2 . `=1 v + u1 ∈ U1 und u2 ∈ U2 . Wegen −u2 = v + u1 folgt aber, dass v + u1 ∈ U2 , also sogar im U1 ∩ U2 ist. Daher muss gelten βk = 0 für k = 1, . . . , µ1 . Wegen der linearen Unabhängigkeit (v1 , . . . , vν , u21 , . . . , u2µ2 ) folgt dann aber, dass auch alle αj und γ` verschwinden müssen. 2 Dann ist Durchschnitt von Denition 1.9.3 Seien U1 und U2 Unterräume eines Vektorraumes V über K, und sei U1 ∩ U2 = {0}. Dann nennen wir die Summe U1 + U2 auch eine direkte Summe und schreiben U1 ⊕ U2 . In diesem Fall gilt also die Gleichung dim(U1 ⊕ U2 ) = dim U1 + dim U2 , u ∈ U1 ⊕ U2 gibt es genau ein Paar u1 ∈ U1 und u2 ∈ U2 mit u = u1 + u2 . Entsprechend denieren wir die Summe U1 + . . . + Um endlich vieler Unterräume U1 , . . . , Um von V als die Menge aller u = u1 + . . . + um mit uj ∈ Uj , 1 ≤ j ≤ m, und nennen die Summe direkt und schreiben dann und zu jedem U1 ⊕ . . . ⊕ Um , wenn für uj ∈ Uj die Gleichung 0 = u1 + . . . + um nur dann bestehen kann, wenn u1 = . . . = um = 0 ist. Beachte auch die Analogie zur linearen Unabhän- gigkeit. Aufgabe 1.9.4 Untersuche, wann die Summe zweier eindimensionaler Unterräume von V eine direkte Summe ist. Aufgabe 1.9.5 über • K, und sei Sind Sei m ∈ N, seien U1 , . . . , Um Unterräume eines endlich-dimensionalen Vektorraumes V U = U1 + . . . + Um . Zeige: Genau dann ist diese Summe direkt, wenn folgendes gilt: (j) (u(j) 1 , . . . , usj ) Basen für Uj , für jedes j = 1, . . . , m, so ist das System (2) (m) (1) (2) (m) (u(1) 1 , . . . , us1 , u1 , . . . , us2 , . . . , u1 , . . . , usm ) , also sozusagen die Vereinigung dieser Basen, eine Basis für 17 U. Aufgabe 1.9.6 Sei m ∈ N, seien U1 , . . . , Um Unterräume eines Vektorraumes V über K, und sei U = U1 + . . . + Um . Zeige: Genau dann ist diese Summe direkt, wenn es zu jedem u ∈ U eindeutig bestimmte uj ∈ Uj gibt, für welche u = u1 + . . . + um ist. Aufgabe 1.9.7 U1 + . . . + Um . Sei m ∈ N, seien U1 , . . . , Um Unterräume eines Vektorraumes V U die lineare Hülle der Vereinigung aller Uj ist. über K, und sei U = Zeige, dass Aufgabe 1.9.8 Finde selbst eine mögliche Denition für die Summe, bzw. die direkte Summe, einer beliebigen Anzahl von Unterräumen eines Vektorraums. 18 Kapitel 2 Matrizen 2.1 Denition und elementare Eigenschaften Denition 2.1.1 Seien n, m ∈ N. Eine Abbildung {1, . . . , m} × {1, . . . , n} −→ K , (j, k) 7−→ ajk (2.1.1) kann man sich als ein rechteckiges Zahlenschema A = a11 a21 .. . am1 veranschaulichen. Dieses Schema heiÿt eine ajk heiÿen die Elemente von A, a12 a22 ... ... . . . am2 ... m × n-Matrix, a1n a2n . . . amn oder eine Matrix vom Typ und wir schreiben manchmal auch kurz A = ajk . m × n. Die Zahlen m × 1-Matrizen Die sk = heiÿen die Spalten von werden die Zeilen von A, A die a1k a2k .. , . amk 1 × n-Matrizen zj = aj1 , aj2 , . . . , ajn , 1 ≤ k ≤ n, 1 ≤ j ≤ m, genannt. Also hat eine Matrix vom Typ m×n gerade m Zeilen und n Spalten. Im Fall n = m sprechen wir von einer quadratischen Matrix. Die Menge der m × n-Matrizen wird auch m×n mit K bezeichnet. Zwei Matrizen A und B vom gleichen Typ m × n werden addiert, indem man zu jedem Element von A das an der gleichen Stelle stehende Element von B hinzuzählt. Anders ausgedrückt heiÿt das: A = ajk , Eine Matrix A B = bjk wird mit einem Faktor λ∈C =⇒ A + B = ajk + bjk . multipiziert, indem man jedes ihrer Elemente mit λ mal- nimmt. Satz 2.1.2 n, m ∈ K n m. Für der Dimension ist Km×n mit den oben eingeführten Verknüpfungen ein Vektorraum über 19 K Beweis: Da diese Matrixmenge eigentlich Abbildungen der Form (2.1.1) sind, ist die Vektorraumeigen- schaft klar wegen Beispiel 1.1.2. Da der Denitionsbereich der Abbildungen nm Elemente umfasst, folgt 2 die Behauptung mit Aufgabe 1.7.13. Aufgabe 2.1.3 in Kn . n, m ∈ N. Seien m×n Gib eine Basis in K an und vergleiche mit der kanonischen Basis Km×n aus? Wir bezeichnen diesen auch als Nullmatrix. Wie sieht der Nullvektor in Aufgabe 2.1.4 (Eingabe von Matrizen in MAPLE) MAPLE kennt auch Matrizen. Die Befehlsfol- ge > restart; > with(LinearAlgebra); > A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]); > B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]); > C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]); deniert z. B. drei Matrizen A, B, C , mit welchen dann auch gerechnet werden kann; siehe dazu die noch folgenden Aufgaben. Untersuche selber, ob man die Angabe der Zeilen- und/oder Spaltenzahl auch weglassen kann, und was geschieht, wenn die eingegebenen Zeilen zu kurz oder zu lang, zu wenige oder zu viele sind. Aufgabe 2.1.5 Entscheide, welche der folgenden Matrizen addiert werden können, und berechne gege- benenfalls ihre Summe. A = 1 −1 D = 1 2 −1 , 2 B = 1 0 0 0 , E = Multipliziere alle diese Matrizen mit dem Faktor 1 2 1 2 , , C = F = −1 1 −1 −2 −1 −2 , . λ = 2. Aufgabe 2.1.6 (Matrixaddition mit MAPLE) Die folgende Sequenz von MAPLE-Kommandos ad- diert die entsprechenden Matrizen: > restart; > with(LinearAlgebra); > A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]); > B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]); > C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]); > A1 := Add(A,B); > A2 := Add(A,C); > A3 := Add(A,B,2,3); Finde heraus, welche Bedeutung die optionalen Parameter 2 und 3 im letzten Kommando haben. Finde auch einen Weg, wie man mit Hilfe von MAPLE eine Matrix mit einer Zahl multipliziert. 20 2.2 Das Produkt von Matrizen Denition 2.2.1 Wir setzen für a1 , . . . , an , b1 , . . . , bn ∈ C b1 n X a1 , . . . , an ... = aj bj . j=1 bn Das heiÿt: Für eine Zeile und eine Spalte gleicher Länge ist jeweils ein Produkt deniert, und das Ergebnis A und B Matrizen sind, und wenn die A dieselbe Länge wie die Spalten von B haben, dann ist das Produkt A B die Matrix C = cjk , für die cjk gerade das Produkt der j -ten Zeile von A mit der k -ten Spalte von B ist. Mit anderen Worten: Ist b11 b12 . . . b1s a11 a12 . . . a1n b21 b22 . . . b2s a21 a22 . . . a2n , B = . A = . . . , . . . . . . . .. . . . . . bn1 bn2 . . . bns am1 am2 . . . amn so ist A B = cjk mit n X cjk = ajν bνk , 1 ≤ j ≤ m, 1 ≤ k ≤ s. dieser Operation ist ein Skalar. Allgemein denieren wir: Wenn Zeilen von ν=1 Aufgabe 2.2.2 Zeige für k -ten B, Spalte von Aufgabe 2.2.3 die A, B, C wie oben: Die k -te Spalte von C ist gleich dem Produkt j -te Zeile von C ist das Produkt der j -ten Zeile von A mit B . von A mit der Berechne die Produkte folgender Matrizen: 1 −1 −2 , 0 Lösung: 1 0 1 0 −1 −1 2 0 −1 1 1 3 −b a+b a 2 . Das Ergebnis ist 0 −3 bzw. −a + 2 a+6 2b + a 3a + 2b . 2 Aufgabe 2.2.4 (Matrixmultiplikation mit MAPLE) > restart; > with(LinearAlgebra); > A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]); > B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]); > C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]); > V1 := VandermondeMatrix([1,2,3,4]); 21 MAPLE kann auch Matrizen multiplizieren: > V2 := VandermondeMatrix([a,b,c,d]); > A3:=MatrixMatrixMultiply(A,B); > A4:=MatrixMatrixMultiply(A,C); > A4:=MatrixMatrixMultiply(C,A); > A5:=MatrixMatrixMultiply(V1,V2); Wie steht es mit der Gültigkeit des Kommutativgesetzes bei der Matrixmultiplikation? Beachte, dass MAPLE auch mit Matrizen umgehen kann, deren Elemente nicht Zahlen sondern Variablen sind, und dass das System auch sogenannte Vandermondesche Matrizen kennt, die später noch eine Rolle spielen werden. Beispiel 2.2.5 Für 0 1 A = 0 0 , x11 x21 X = x12 x22 gilt oenbar AX = A2 = A A = 0 . und daraus folgt 0 x11 0 x12 , XA = x12 x22 0 0 Das bedeutet, dass eine Matrixgleichung , AX = B im Allgemeinen keine Lösung haben wird, und wenn doch, braucht die Lösung nicht eindeutig bestimmt zu sein. Weiter sieht man, dass für Matrizen A und X AX die Produkte und XA beide deniert sein können, aber im Allgemeinen verschieden ausfallen. Mit anderen Worten heiÿt das, dass für die Matrixmultiplikation im Allgemeinen kein Kommutativgesetz gilt. Aufgabe 2.2.6 Berechne und vergleiche A = AB 0 1 0 0 und BA für , B = 1 0 0 0 2.3 Rechenregeln Denition 2.3.1 m × n-Matrix a11 a12 a21 a22 A = . . . .. . am1 am2 Für eine beliebige ... ... ... a1n a2n . . . amn heiÿt A = die zu A a11 a21 .. . am1 a12 a22 ... ... . . . am2 ... a1n a2n . . . amn konjugiert komplexe Matrix. Weiter nennen wir AT = a11 a12 .. . a1n a21 a22 ... ... . . . a2n 22 ... am1 am2 , . . . amn . welche die Zeilen von ponierte zu A. A als Spalten enthält und umgekehrt, die transponierte Matrix oder kurz die Trans- Für eine quadratische Matrix A = a11 a21 .. . an1 a12 a22 ... ... . . . an2 ... a1n a2n . . . ann a11 , . . . , ann die Diagonalelemente von A. Falls ajk = 0 ist für alle k < j , d. h., wenn alle Elemente unterhalb der Diagonalen verschwinden, dann heiÿt A eine obere Dreiecksmatrix. Falls heiÿen die Zahlen ajk = 0 ist für alle k > j , dann sprechen wir von einer unteren Dreiecksmatrix. Falls sogar beides gilt, d. h., falls alle Elemente auÿer evtl. den Diagonalelementen verschwinden, dann heiÿt A eine dagegen Diagonalmatrix. Wenn A eine Diagonalmatrix mit den Diagonalelementen λ1 , . . . , λ n ist, schreiben wir manchmal A = Die n × n-Matrix diag [λ1 , . . . , λn ] . I = 1 0 0 0 1 0 0 0 1 ... ... ... 0 0 0 . . . . . . . . . .. . . . . 0 0 0 ... 1 also die Diagonalmatrix, deren Diagonalelemente alle gleich 1 , sind, heiÿt Einheitsmatrix. Wenn man das sogenannte Kronecker-Delta 0 1 δjk = einführt, kann man sagen, dass I die Elemente Aufgabe 2.3.2 (Matrizen und MAPLE) δjk für für j= 6 k j=k hat. Finde MAPLE-Kommandos zur Berechnung der transpo- nierten Matrix sowie zur einfachen Eingabe von Diagonalmatrizen und der Einheitsmatrix, welche in Englisch identity matrix heiÿt und deshalb in dieser Vorlesung auch mit ratur ist aber auch das Symbol E I bezeichnet wird. In der Lite- üblich. Satz 2.3.3 (Rechenregeln für Matrizen) Für feste Zahlen n, m, r, s ∈ N gelten die folgenden Aussa- gen: (a) A ∈ Km×n , B ∈ Kn×r , λ ∈ K =⇒ (b) A ∈ Km×n , B, C ∈ Kn×r =⇒ (c) A, B ∈ Km×n , C ∈ Kn×r =⇒ m×n , B∈K n×r λ (A B) = (λA) B = A (λB). A (B + C) = A B + A C . (A + B) C = A C + B C . r×s (d) A∈K , C∈K (e) A ∈ Km×n , I = [δjk ] ∈ Kn×n =⇒ (f ) I = [δjk ] ∈ Kn×n , A ∈ Kn×r =⇒ (g) A, B ∈ Km×n =⇒ (h) A ∈ Km×n , B ∈ Kn×r =⇒ =⇒ (A B) C = A (B C). A I = A. I A = A. (A + B)T = AT + B T . (A B)T = B T AT . Aufgabe 2.3.4 Beweise den oben stehenden Satz. Aufgabe 2.3.5 Zeige: Wenn man eine Matrix nalmatrix Zeile von Λ = diag[λ1 , . . . , λn ] multipliziert, A mit dem Faktor λk malnimmt. A passender Gröÿe von rechts bzw. links mit einer Diago- so erhält man das Produkt, indem man die 23 k -te Spalte bzw. 2.4 Zeilen- und Spaltenrang Denition 2.4.1 Spaltenraum von Beispiel 2.4.2 Km Sei A; A ∈ Km×n . Die lineare Hülle der Zeilen bzw. Spalten von A heiÿt Zeilenraum bzw. die Dimension dieser Räume heiÿt Zeilenrang bzw. Spaltenrang von Für eine Matrix, deren erste Spalten die ersten s A. Vektoren der kanonischen Basis von sind, während evtl. weitere Spalten nur noch Nullen enthalten, liest man ab dass ihr Zeilen- und Spal- tenrang beide gleich s sind. Im Folgenden soll gezeigt werden, dass die Werte von Zeilen- und Spaltenrang für beliebige Matrizen immer übereinstimmen. Aufgabe 2.4.3 Zeige: Für jede Matrix m. Zeilenrang höchstens gleich A ∈ Km×n ist der Spaltenrang von Aufgabe 2.4.4 Finde den Zeilen- und Spaltenrang der Einheitsmatrix. Aufgabe 2.4.5 Zeige: Für Linearkombination der A höchstens gleich n, der Finde einfache Beispiele dafür, dass diese Abschätzungen scharf sind. A ∈ Km×n und x ∈ Kn ist A x ein Vektor des Spaltenraums, also Spalten von A. Finde selber eine analoge Aussage für die Zeilen von A. eine 2.5 Elementare Operationen Denition 2.5.1 Sei n ∈ N, n ≥ 2. Jede der folgenden drei Arten von quadratischen n-reihigen Matrizen n: heiÿt eine Elementarmatrix der Gröÿe λ ∈ K \ {0} und 1 ≤ j ≤ n sei Ej (λ) die Diagonalmatrix, deren ist, während die übrigen Diagonalelemente gleich 1 sind. (a) Für λ 1 ≤ j < k ≤ n sei Pjk = Pkj j -ten und k -ten Spalte entsteht. (b) Für (c) Für 1 ≤ j, k ≤ n, j 6= k , sei Seien matrizen der Gröÿe n n≥2 Ejk die (j, k), Matrix mit Einsen überall auf der Diagonalen und einer sowie Nullen in allen übrigen Positionen. A ∈ Kn×m . und Zeige, dass die Multiplikation von links mit Elementar- folgenden Zeilenoperationen für A A entspricht: (a) Ej (λ) A (b) Pjk A entsteht aus A durch Vertauschen der Zeilen Nr. (c) Ejk A entsteht aus A durch Addition der Zeile Nr. entsteht aus Diagonalelement gleich die Matrix, welche aus der Einheitsmatrix durch Vertauschen der zusätzlichen Eins in der Position Aufgabe 2.5.2 j -tes durch Multiplikation der Elemente in der k j und j -ten Zeile mit dem Faktor λ. k. zur Zeile Nr. j. Benutze Regel (h) aus Satz 2.3.3, um herauszunden, welche Wirkung eine Multiplikation von rechts mit Elementarmatrizen der Gröÿe Denition 2.5.3 m hat. Für eine Matrix A heiÿt jede der Operationen, welche nach Aufgabe 2.5.2 der Multi- plikation von links bzw. rechts mit einer Elementarmatrix passender Gröÿe entspricht, eine elementare Zeilen- bzw. Spaltenoperation für trix B B aus A A. Beachte, dass jede solche Operation umkehrbar ist. Wenn eine Ma- durch endlich viele dieser elementaren Zeilen- und Spaltenoperationen entsteht, dann heiÿt äquivalent zu A. 24 Aufgabe 2.5.4 Wir wollen im Folgenden jede Hintereinanderausführung von endlich vielen elementaren Zeilen- oder Spaltenoperationen als erlaubt bezeichnen. Überprüfe durch eine Kombination von Operationen des Typs (a),(c), dass auch die Addition eines Vielfachen einer Zeile bzw. Spalte zu einer anderen Zeile bzw. Spalte eine erlaubte Operation ist. Aufgabe 2.5.5 (Elementare Operationen mit MAPLE) Finde selber die Befehle in MAPLE, wel- che den oben eingeführten elementaren Zeilen- und Spaltenoperationen entsprechen. Denition 2.5.6 (Äquivalenzrelationen) Sei eine nicht-leere Menge X gegeben. Eine Teilmenge R ⊂ x1 ∈ X zu einem x2 ∈ X in Relation steht, wenn das Paar (x1 , x2 ) zu R gehört. Eine solche Relation auf X heiÿt eine Äquivalenzrelation, falls für beliebige x, x1 , x2 , x3 ∈ X gilt: X ×X heiÿt eine Relation auf X. Wir sagen dass ein (R) (x, x) ∈ R (S) (x1 , x2 ) ∈ R =⇒ (x2 , x1 ) ∈ R (T) (x1 , x2 ) ∈ R (Reexivität) und (Symmetrie) (x2 , x3 ) ∈ R =⇒ (x1 , x3 ) ∈ R (Transitivität) (x1 , x2 ) ∈ R schreiben wir auch x1 ∼ x2 und sagen in Worten: x1 ist äquivalent zu x2 . Für x ∈ X Ax = {x̃ ∈ X : x ∼ x̃ }. Wir nennen ein solches Ax eine Äquivalenzklasse. Ein beliebiges Element Statt sei einer Äquivalenzklasse heiÿt auch ein Repräsentant dieser Äquivalenzklasse. Aufgabe 2.5.7 Ax Zeige: Ist auf eine Zerlegung von Aufgabe 2.5.8 X; X 6= ∅ eine Äquivalenzrelation gegeben, so bilden die Ax ∩ Ay 6= ∅ folgt Ax = Ay , und ∪x∈X Ax = X . Äquivalenzklassen d. h., aus Zeige: Auf der Menge Km×n aller Matrizen fester Gröÿe hat der oben eingeführte Begri der Äquivalenz die drei Eigenschaften einer Äquivalenzrelation. Satz 2.5.9 Der Spaltenrang einer Matrix ist invariant gegenüber elementaren Spaltenoperationen; der Zeilenrang einer Matrix ist invariant gegenüber elementaren Zeilenoperationen. Beweis: Es genügt, die Aussage für Spalten zu beweisen, da dann durch Übergang zur transponierten a1 , . . . , an ∈ Km , und sei U = L(a1 , . . . , an ) der Spaltenraum von A. Das Vertauschen von Vektoren in (a1 , . . . , an ) ändert nichts daran, dass diese Spaltenvektoren ein Erzeugendensystem für U sind, und gleiches gilt für Multiplikation einer Spalte mit einem von 0 verschiedenen Faktor. Wir wollen nun dasselbe zeigen für den Fall der Ersetzung der Spalte ak durch die Summe ak + aj , für j 6= k : Jeder Vektor u ∈ U kann dargestellt werden als Pn u = ν=1 αν aν . Setzt man ( αν (ν 6= j) βν = αj − αk (ν = j) Matrix auch die für Zeilen folgt. Sei A eine Matrix mit den Spalten so folgt βk (ak + aj ) + X βν aν = αk (ak + aj ) + (αj − αk ) aj + ν6=k Lemma 2.5.10 Seien αν aν = u . ν6=j,k 2 Dies war zu zeigen. BA X A, B nicht gröÿer als der von so, dass das Matrixprodukt A. 25 BA deniert ist. Dann ist der Spaltenrang von Beweis: Sei C = B A. Sind a1 , . . . , an bzw. c1 , . . . , cn die Spalten von A bzw. C , so gilt nach Aufgabe 2.2.2 Pn ck =P B ak für 1 ≤ k ≤ n. Nach den Rechenregeln für Matrizen folgt aus 0 = k=1 λk ak die Gleichung n 0 = k=1 λk ck . Daraus schlieÿen wir: Wenn ein Teilsystem der Spalten von A linear abhängig ist, so ist dasselbe Teilsystem der Spalten von C ebenfalls linear abhängig. Also kann der Spaltenrang von C nicht gröÿer sein als der von A. 2 Aufgabe 2.5.11 der von A A, B , Gib ein Beispiel für Matrizen für die der Spaltenrang von BA echt kleiner als ist. Satz 2.5.12 Der Spaltenrang einer Matrix ist invariant gegenüber elementaren Zeilenoperationen; der Zeilenrang einer Matrix ist invariant gegenüber elementaren Spaltenoperationen. Beweis: Zeilenoperationen entsprechen der Multiplikation von links mit Elementarmatrizen. Also kann der Spaltenrang wegen Lemma 2.5.10 bei Zeilenoperationen nicht zunehmen. Da Zeilenoperationen reversibel sind, folgt sogar, dass der Spaltenrang bei elementaren Zeilenoperationen gleich bleibt. Die Aussage 2 für den Zeilenrang folgt wieder durch die Betrachtung der transponierten Matrizen. 2.6 Normalform und Rang einer Matrix Satz 2.6.1 (Normalform unter Äquivalenz) Jede Matrix der Form B = wobei I eine Einheitsmatrix der Gröÿe I 0 0 0 A ∈ Km×n ist äquivalent zu einer Matrix , 0 ≤ s ≤ min{m, n} ist, während die Nullen für Nullmatrizen s = 0 so zu interpretieren ist, dass B die s = m einige der Nullmatrizen in B als leer anzusehen sind. s mit entsprechender Gröÿe stehen; dabei ist zu beachten, dass Nullmatrix ist, während für Beweis: s=n Die Umformung von A bzw. auf die Form B geschieht durch Anwenden des folgenden Algorithmus, in dem die nach jeder Umformung enstandene Matrix der Einfachheit halber weiterhin mit A bezeichnet sein soll: (a) Falls A die Nullmatrix ist, ist B = A, also s = 0, und der Algorithmus ist beendet. A nicht die Nullmatrix ist, so können wir durch evtl. Vertauschen von Zeilen und/oder Spalten a11 6= 0 ist. Danach können wir die erste Zeile oder Spalte mit einem Faktor multiplizieren, so dass sogar a11 = 1 gilt. (b) Falls erreichen, dass anschlieÿend a11 = 1 können wir Vielfache der ersten Zeile von allen folgenden subtrahieren, so dass aj1 = 0 ist für alle j = 2, . . . , m. Danach können wir Vielfache der ersten Spalte von allen folgenden subtrahieren, so dass danach a1k = 0 ist für alle k = 2, . . . , n. Beachte, dass dabei die (c) Im Fall danach Elemente der ersten Spalte nicht mehr verändert werden. (d) Falls m = 1 oder n = 1 ist, ist der Algorithus beendet. Sonst wenden wir dieselben Schritte sinngemäÿ auf die kleinere Matrix a22 . . . ... am2 ... a2n . . . amn an; diese Schritte verändern die erreichte Form der ersten Zeile und Spalte von 26 A nicht. Beachte für das Folgende, dass dieser Algorithmus auch die Berechnung von Zeilen- und Spaltenrang 2 einer Matrix gestattet. Korollar zu Satz 2.6.1 Beweis: Der Zeilenrang und der Spaltenrang einer Matrix A stimmen immer überein. Zeilen- und Spaltenrang sind beide invariant unter Zeilen-, aber auch unter Spaltenoperationen, und durch diese kann A auf die Form Zeilen- und Spaltenrang für B B wie im Satz 2.6.1 gebracht werden. Nach Beispiel 2.4.2 stimmen überein, und somit gilt dasselbe auch für Denition 2.6.2 (Rang einer Matrix) 2 A. Der gemeinsame Wert von Zeilen- und Spaltenrang einer Ma- trix wird im Folgenden als Rang der Matrix bezeichnet, und wir schreiben auch rang A für den Rang einer A. Matrix Proposition 2.6.3 (Rechenregeln für den Rang) (a) ∀ A ∈ Km×n : rang A ≤ min{n, m}. (b) ∀ A ∈ Km×n : rang A = (c) ∀ A ∈ Km×n , B ∈ Kn,r : Beweis: von A T rang A . rang (A B) ≤ min{rang A, rang B}. Zu (a): Klar nach Denition von Rang bzw. Zeilen- und Spaltenrang. Zu (b): Der Spaltenrang ist gleich dem Zeilenrang von AT und umgekehrt, und daraus folgt die Behauptung. Zu (c): In Lemma 2.5.10 wurde gezeigt, dass der Spaltenrang einer Matrix bei Multiplikation von links mit einer beliebigen anderen Matrix nicht zunehmen kann, und daher folgt rang (A B) der Transponierten und Anwenden von (b) folgt dann rang (A B) rang A T = rang A, = ≤ rang B . Durch Betrachten T = rang (B T AT ) ≤ 2 rang (A B) und daraus folgt die Behauptung. 2.7 Zeilenstufenform und Rangberechnung Denition 2.7.1 wenn die ersten k k Sei A eine beliebige Matrix. Wir sagen: Die Einträge in dieser Zeile gleich 0 ist, der folgende Eintrag von Null verschieden ist. Dabei darf erste Element der j -ten j -te Zeile von A hat k führende Nullen, sind und, im Falle dass die Länge der Zeile gröÿer als k=0 sein, was dann bedeutet, dass das Zeile nicht verschwindet. Die Matrix heiÿt in Zeilenstufenform, falls jede ihrer Zeilen entweder nur Nullen enthält oder mehr führende Nullen als die Vorgängerzeile hat. Bei einer Matrix in Zeilenstufenform kann es vorkommen, dass die letzten Zeilen nur noch Nullen enthalten. Streicht man diese, so sind die übrigen Zeilen linear unabhängig. Mit anderen Worten: Der Rang einer Matrix in Zeilenstufenform ist gleich der Anzahl der nicht-trivialen Zeilen der Matrix. Daher genügt es zur Berechnung des Ranges von A die Matrix durch Zeilenoperationen so lange umzuformen, bis eine Zeilenstufenform erreicht ist. Dies kann folgendermaÿen geschehen: 1. Setze j = 1. 2. Finde das kleinste k ` ≥ j existiert mit a`k 6= 0; falls kein solches k existiert, so j und `, sodass danach ajk 6= 0 ist. Dies bedeutet, dass die höherer Nummer mindestens k − 1 führende Nullen enthalten. für welches ein brich ab. Sonst vertausche die Zeilen Zeile j genau, und die Zeilen mit 3. Subtrahiere Vielfache der j -ten von allen folgenden Zeilen, um zu erreichen, dass diese Folgezeilen alle mindestens eine führende Null mehr besitzen als die Zeile Nr. 27 j. 4. Erhöhe j um Aufgabe 2.7.2 1 und fahre fort mit Schritt 2. Berechne die Ränge der Matrizen 1 A = −1 1 1 0 B = 1 1 1 2 , 3 Aufgabe 2.7.3 (Rangberechnung mit MAPLE) 0 1 0 2 . −1 0 0 1 Führe die nachfolgenden MAPLE-Befehle aus: > restart; > with(LinearAlgebra); > A := Matrix(3,5, [[1,0,0,1,-1], [1,1,-1,2,0], [2,-1,-1,0,0]]); > Rank(A); Interpretiere das Resultat, und variiere die Sequenz so, dass sie die Ränge der Matrizen aus der vorangegangenen Aufgabe löst. 2.8 Invertierbare Matrizen Denition 2.8.1 reihige Matrix mit GL(n, K) B n-reihige Matrix A heiÿt invertierbar, falls es eine quadratische nB A = I ist. Die Menge aller invertierbaren n-reihigen Matrizen wird Eine quadratische gibt, für welche bezeichnet. Diese Bezeichnung ist die Abkürzung für die englische Bezeichnung general linear group. Satz 2.8.2 (a) A A Für jede quadratische n-reihige Matrix ist invertierbar genau dann, wenn rang A A gilt: =n ist, also wenn alle Spalten, oder alle Zeilen, von linear unabhängig sind. (b) Sei (c) Aus B so, dass BA=I BA=I und gilt. Dann gilt auch CA=I folgt A B = I. B = C. Beweis: Zu (a): Falls I = B A gilt, folgt mit Satz 2.6.3 (c) und der Denition des Rangs, dass n = ≤ min{rang B, rang A} ≤ n, und somit ist n = rang A = rang B . Umgekehrt: Ist rang A = n, so sind die Zeilen von A linear unabhängig und deshalb eine Basis im Raum aller Zeilenvektoren der Länge n (denn dieser Raum ist nach Satz 2.1.2 ein n-dimensionaler Vektorraum über K). Also ist jeder Zeilenvektor eine Linearkombination der Zeilen von A, und deshalb gibt es Zeilenvektoren zj (der Länge N ) mit eTj = zj A, j = 1, . . . , n. Fasst man diese Zeilenvektoren zu einer Matrix B zusammen, so folgt I = B A. Zu (b): Im Beweis von (a) wurde bereits gezeigt, dass aus I = B A folgt rang B = n. Daher ist auch B nach (a) invertierbar, und somit gibt es ein C mit C B = I . Durch Multiplikation von rechts mit A folgt hieraus A = C B A = C . Zu (c): Aus I = B A = C A folgt durch Multiplikation von rechts mit B unter Beachtung von A B = I , dass B = C (A B) = C ist. 2 rang I Aufgabe 2.8.3 Aus Satz 2.8.2 und Satz 2.6.1 folgt: Eine Matrix A ist genau dann invertierbar, wenn sie äquivalent zur Einheitsmatrix ist. Schlieÿe hieraus, dass eine invertierbare Matrix ein Produkt von endlich vielen Elementarmatrizen ist. 28 Denition 2.8.4 Nach Satz 2.8.2 gibt es zu jedem und wir nennen dieses B die inverse Matrix zu A A ∈ GL(n, K) eine eindeutige Matrix oder kürzer Inverse von A B mit B A = I, A−1 für und schreiben auch diese Matrix. Satz 2.8.5 (Rechenregeln für Inverse) A A−1 = A−1 A = I . (a) ∀ A ∈ GL(n, K) : (b) A ∈ GL(n, K) =⇒ AT ∈ GL(n, K), (c) A, B ∈ GL(n, K) =⇒ A B ∈ GL(n, K), Beweis: (AT )−1 = (A−1 )T . und und Aufgabe 2.8.6 von A (A−1 )T AT = (A A−1 )T = I T = I , ) (A B) = B −1 (A−1 A) B = B −1 B = I . Zu (a): Folgt aus Satz 2.8.2 (b). Zu (b): Folgt aus Satz 2.3.3 (h) benutzt wurde. Zu (c): Folgt aus −1 (A B)−1 = B −1 A−1 . Zeige: Wenn ist gleich A (B −1 A −1 invertierbar ist, dann ist auch A. 29 A−1 wobei 2 invertierbar, und die inverse Matrix Kapitel 3 Lineare Gleichungssysteme 3.1 Das Gauÿsche Eliminationsverfahren Denition 3.1.1 Im Folgenden seien stets eine Matrix A = a11 a21 .. . am1 a12 a22 ... ... . . . am2 ... a1n a2n . . . amn ∈ Km×n T m T und ein Vektor b = (b1 , b2 , . . . , bm ) ∈ K fest gewählt. Für einen weiteren Vektor x = (x1 , x2 , . . . , xn ) ∈ n K ist die Gleichung A x = b äquivalent mit den m linearen Gleichungen in n Unbekannten x1 , . . . , xn a11 x1 + a12 x2 + . . . + a1n xn = b1 , a21 x1 + a22 x2 + . . . + a2n xn = b2 , . . . . . . am1 x1 + am2 x2 + . . . + amn xn Deshalb nennen wir Ax = b . . . = bm . auch ein (inhomogenes) lineares Gleichungssystem. Die Matrix Koezientenmatrix des Gleichungssystems, und b A heiÿt auch heiÿt Inhomogenitätenvektor. Die Gleichung heiÿt die zugehörige homogene Gleichung oder homogenes Gleichungssystem. Wir schreiben auch x, welche die Gleichung A x = b A x = 0. Jedes x ∈ L(A) \ {0} heiÿt für die Menge aller Vektoren der homogenen Gleichung erfüllen, und L(A) Ax = 0 L(A, b) für die Lösungsmenge eine nicht-triviale Lösung des homogenen m Gleichungssystems. Wir nennen das inhomogene System universell lösbar, wenn es für jedes b ∈ K ein m x ∈ L(A, b) gibt. Wir sagen, dass das inhomogene System für ein b ∈ K eindeutig lösbar ist, wenn es genau ein x ∈ L(A, b) gibt. Die Matrix (A, b) = a11 a21 .. . am1 heiÿt die erweiterte Matrix des Gleichungssystems a12 a22 ... ... . . . am2 a1n a2n . . . ... amn b1 b2 . . . bm A x = b. Bemerkung 3.1.2 (Gauÿsches Eliminationsverfahren) Es ist leicht einzusehen, dass die Lösungsmenge L(A, b) bei elementaren Zeilenoperationen für die erweiterte Matrix unverändert bleibt. Da z. B. das Vertauschen zweier Spalten von A einer Vertauschung der entsprechenden Unbekannten entspricht, 30 Ax = b wollen wir uns beim Berechnen der Lösungen von auf Zeilenoperationen beschränken; beachte aber, dass diese immer auf die erweiterte Matrix anzuwenden sind. Wir gehen dabei folgendermaÿen vor: 1. Falls A=0 ist, breche ab. Sonst weiter mit 2. A mit der niedrigsten Nummer, welche nicht nur Nullen enthält; ihre Nummer ajk 6= 0 ist. Vertausche in der erweiterten Matrix die Zeile Nr. j mit der ersten. Subtrahiere danach Vielfache der ersten von allen folgenden Zeilen, um in der k -ten Spalte alle Elemente mit Nummern (j, k), 2 ≤ j ≤ m, zu 0 zu machen. Ist dies geschehen, hat die 2. Suche die Spalte von sei gleich k, und j sei so, dass neue erweiterte Matrix die Form 0 0 . .. 0 wobei ã1k 6= 0 ... ... ... 0 0 ã1k 0 . . . . . . 0 0 ã1,k+1 . . . ã1n b̃1 , b̃ à ist. Danach wenden wir dieselben Schritte 1. und 2. auf die kleinere Matrix (Ã, b̃) wieder an. Das oben beschriebene Verfahren führt in endlich vielen Schritten zu einer Endmatrix (Â, b̂) in Zeilen- stufenform, und wir können folgendes ablesen: (a) Da wir nur Zeilenoperationen benutzt haben, ist rang A (b) Eventuell enthalten einige der untersten Zeilen von = rang  (Â, b̂) und rang (A, b) = rang (Â, b̂). nur noch Nullen; diese sind für die Be- stimmung der Lösungsmenge ohne Bedeutung und können deshalb weggelassen werden. Die Anzahl der verbliebenen Gleichungen ist dann gleich rang (A, b). (c) Wenn danach in der untersten Zeile von (Â, b̂) nur rechts im Inhomogenitätenteil eine von 0 verschie- dene Zahl steht, ergibt sich ein Widerspruch und die Lösungsmenge ist deshalb leer. Dies geschieht oenbar genau dann, wenn der Rang von (d) Wenn rang A A kleiner als der Rang der erweiterten Matrix (A, b) ist. = rang (A, b)) ist, ist in der letzten Zeile von  mindestens ein Element von 0 verschie- den. Wir können daher in der untersten Gleichung alle der Unbekannten bis auf eine beliebig wählen und dann die Gleichung nach der verbleibenden Unbekannten auösen. Setzt man die erhaltenen Unbekannten in die darüberstehenden Gleichungen ein, kann man danach mit der vorausgehenden Gleichung genauso verfahren. (e) Da die Anzahl der so zu lösenden Gleichungen gleich rang A für n − rang A Unbekannte beliebige freie = rang (A, b)) ist, können wir insgesamt Parameter einsetzen, während die übrigen bestimmt sind, aber natürlich von der Wahl dieser Parameter abhängen. Insgesamt kann man auf diese Weise die allgemeine Lösung des Gleichungssystems ermitteln. Sie kann leer sein oder nur aus einem Vektor bestehen, kann aber auch einen oder mehrere freie Parameter enthalten. Wir wollen dies noch in einigen Beispielen deutlicher sehen. Aufgabe 3.1.3 Löse 2 x1 x1 Aufgabe 3.1.4 + x2 x2 − x2 − x3 + x3 − x3 = = = 0, 1, −2 . Löse 2 x1 x1 + x2 x2 − x2 − x3 + x3 − 2 x3 31 = 0, = 1, = −2 . Aufgabe 3.1.5 Löse 2 x1 x1 − + − + x2 x2 − x2 x3 x3 2 x3 = = = 0, 1, −3/2 . Aufgabe 3.1.6 (Lösen von linearen GLS mit MAPLE) Führe folgende MAPLE-Kommandos aus: > restart; > with(LinearAlgebra); > A := Matrix(3,5, [[1,0,0,1,-1], [1,1,-1,2,0], [2,-1,-1,0,0]]); > b := Vector(3, [0,1,0]); > LinearSolve(A,b); Interpretiere das Resultat, und variiere die Sequenz so, dass sie die linearen Gleichungssysteme aus den vorangegangen Aufgaben löst. 3.2 Struktur der Lösungsmenge Wir wissen bereits, wie man ein lineares Gleichungssystem löst, wollen aber nun allgemeine Aussagen über die Lösungsmenge machen. Satz 3.2.1 (Struktur der Lösungsmenge) (a) xp ∈ L(A, b) , xh ∈ L(A) (b) x1 , x2 ∈ L(A, b) (c) x1 , x2 ∈ L(A), α, β ∈ K =⇒ =⇒ Für A und b wie in obiger Denition gilt: xp + xh ∈ L(A, b). x1 − x2 ∈ L(A). =⇒ α x1 + β x2 ∈ L(A). L(A) ist ein Unterraum von Kn , und falls L(A, b) 6= ∅ ist, gilt für jedes x0 ∈ L(A, b), dass L(A, b) = x0 + L(A) ist. Dies wiederum heiÿt, dass L(A, b) eine lineare Mannigfaltigkeit ist und die gleiche Dimension wie der Unterraum L(A) hat. In anderen Worten bedeutet das: Die Menge Beweis: Zu (c): Zu (a): A (xp + xh ) = A xp + A xh = b + 0 = b. A (α x1 + β x2 ) = α A x1 + β A x2 = 0. Satz 3.2.2 Beweis: von Kn Es ist stets Zu (b): dim L(A) = n − rang A. In Kapitel 6 werden wir sehen, dass die Matrix nach Km A (x1 − x2 ) = A x1 − A x2 = b − b = 0. 2 A eine sogenannte lineare Abbildung von deniert, und ihr Rang ist gleich der Dimension des Bildes dieser Abbildung; deshalb folgt die Behauptung aus der allgemeinen Gleichung in Satz 6.2.2 (b). Man kann aber die Gültigkeit der Behauptung auch aus dem Gauÿschen Eliminationsverfahren zur Berechnung der Lösungen ablesen: Die allgemeine Lösung des homogenen Systems enthält davon gleich 1 und die übrigen gleich Die allgemeine Lösung von (x1 , . . . , xs ) 0, s = n − rang A freie Parameter. Wählt man einen s linear unabhängige Vektoren x1 , . . . , x2 ∈ L(A). so erhält man A x = 0 ist L(A). eine Linearkombination dieser Lösungen, also ist das System 2 sogar eine Basis von 32 Satz 3.2.3 Ein inhomogenes lineares Gleichungssystem ist genau dann lösbar, wenn der Rang der Ko- ezientenmatrix gleich dem der erweiterten Matrix ist. Beweis: Dies folgt bereits aus dem Gauÿschen Eliminationsverfahren, kann aber auch folgendermaÿen bewiesen werden: Klar ist, dass rang A ≤ x ∈ Kn existiert, für welches A x = b A, und deshalb kann der Rang von (A, b) nicht gröÿer als der von A sein. Umgekehrt, falls rang A = rang (A, b) ist, dann muss b eine Linearkombination n der Spalten von A sein, und deshalb gibt es ein x ∈ K mit A x = b. 2 b ist, dann ist Satz 3.2.4 rang (A, b) ist. Falls ein eine Linearkombination der Spalten von Es gelten folgende Aussagen: (a) Genau dann hat das homogene Gleichungssystem eine nicht-triviale Lösung, wenn rang A (b) Genau dann ist das inhomogene Gleichungssystem universell, also für jedes rang A =m ist, d. h., wenn Lösung von Beweis: ist. lösbar, wenn ist. (c) Genau dann ist das inhomogene Gleichungssystem für jedes n=m b ∈ Km <n Ax = b b ∈ Km eindeutig lösbar, wenn rang A = A quadratisch und invertierbar ist. Ist dies der Fall, so ist die eindeutige −1 gegeben als x = A b. 2 Folgt aus den vorangegangenen Resultaten. 3.3 Berechnen der inversen Matrix A ∈ Kn×n Die Berechnung der inversen Matrix einer Matrix derselben Gröÿe, für welche Spalte von schen Basis von Kn Aufgabe 3.3.1 X X k = 1, . . . , n besteht in dem Aunden einer Matrix ist. Dies gilt nach Aufgabe 2.2.2 genau dann, wenn für A x = ek löst, wobei ek den k -ten Vektor der kanoniX mit dem Gauÿschen Eliminaionsverfahren n×2n berechnet werden. Dies geschieht am eektivsten so, dass man die Matrix (A, I) ∈ K durch elementare Zeilentransformationen solange umformt, bis die Form (I, X) erreicht ist; dies lässt sich genau dann erreichen, wenn A tatsächlich invertierbar ist. Ist diese Form dann erzielt, so ist die Matrix X gerade die Inverse zu A. Um einzusehen, dass dies richtig ist, beachte dass die Lösungsmenge einer Matrixgleichung der Form A X = B mit Matrizen A, X , B passender Gröÿe bei elementaren Zeilenumformungen von (A, B) nicht geändert wird. die k -te AX = I das lineare Gleichungssystem bezeichnet. Also können die Spalten von Zeige: Eine zweireihige quadratische Matrix a c d −b −c a A = mit ∆ = a d − b c 6= 0 b d ist invertierbar, und es gilt A−1 = 1 ∆ . Finde eine einfache Weise, sich diese Formel einzuprägen. Wir werden im nächsten Kapitel sehen, dass die Zahl ad−bc gerade die Determinante von A ist. Beachte aber, dass es für gröÿere Matrizen keine so elementare Formel für die inverse Matrix gibt. Aufgabe 3.3.2 Berechne die inverse Matrix zu 1 A = 1 0 0 1 1 33 1 −1 . 1 Aufgabe 3.3.3 (Inverse Matrix mit MAPLE) Die folgende Sequenz von MAPLE-Kommandos be- rechnet inverse Matrizen: > restart; > with(LinearAlgebra); > A := Matrix(5, 5, [ [1, 0, 0, 1, -1], [1, 1, -1, 2, 0], [2, -1, -1, 0, 0], [-1, 1, 0, 2, 1], [-1, 2, 3, 1, 0] ]); > MatrixInverse(A); > B := Matrix(2, 2, [ [1, 1], [-1, -1] ]); > MatrixInverse(B); Interpretiere das Resultat, und variiere die Sequenz so, dass sie die Inverse der Matrix aus der vorangegangenen Aufgabe berechnet. Aufgabe 3.3.4 Zeige: Eine obere bzw. untere Dreiecksmatrix re Diagonalelemente alle von A ist genau dann invertierbar, wenn ih- 0 verschieden sind, und dann ist die inverse Matrix ebenfalls eine obere −1 bzw. untere Dreiecksmatrix. Die Diagonalelemente von A sind dabei gerade die Kehrwerte der Diagonalelemente von A, und die Auÿerdiagonalelemente können rekursiv, d. h., nacheinander, berechnet werden. Aufgabe 3.3.5 (Dreiecksmatrixinversion mit MAPLE) Die folgende Sequenz > restart; > with(LinearAlgebra); > A := Matrix(5, 5, [ [a_11, a_12, a_13, a_14, a_15], [0, a_22, a_23, a_24, a_25], [0, 0, a_33, a_34, a_34], [0, 0, 0, a_44, a_45], [0, 0, 0, 0, a_55] ]); > MatrixInverse(A); veranlasst MAPLE, die Inverse einer Dreiecksmatrix mit fünf Zeilen und Spalten formelmäÿig anzugeben. Wo liegt hier eigentlich eine Schwäche von MAPLE versteckt? 34 Kapitel 4 Determinanten 4.1 Gruppen und Permutationen Denition 4.1.1 Eine Menge G, zusammen mit einer Abbildung, auch Verknüpfung oder Operation genannt, : G × G −→ G, ◦ (g1 , g2 ) 7−→ g1 ◦g2 , heiÿt eine Gruppe, wenn folgende Axiome gelten: (G1) ∀ g1 , g2 , g3 ∈ G : (G2) ∃e∈G ∀g∈G : e (G3) ∀ g ∈ G ∃ g̃ ∈ G : g̃ ◦g = e g1 ◦(g2 ◦g3 ) = (g1 ◦g2 )◦g3 ◦ (Assoziativgesetz) g = g (Existenz eines Einselements) (Existenz eines Inversen) Da in den Axiomen das Einselement bzw. das Inverse auf der linken Seite steht, spricht man auch genauer von einer Linkseins und einem Linksinversen. Falls zusätzlich noch gilt (G4) ∀ g1 , g2 ∈ G : g1 ◦ g2 = g2 ◦ g1 (Kommutativgesetz) dann sprechen wir von einer kommutativen oder abelschen Gruppe. Die Anzahl der Elemente einer Gruppe G heiÿt auch die Ordnung der Gruppe. σ : {1, . . . , n} −→ {1, . . . , n} heiÿt Permutation der Zahlen 1, . . . , n. Die Menge 1, . . . , n heiÿt die symmetrische Gruppe Sn . Für σ1 , σ2 ∈ Sn heiÿt die Hinterσ1 ◦σ2 auch das Produkt von σ1 , σ2 ; beachte genau die Reihenfolge, da die Hinterein- Eine bijektive Abbildung aller Permutationen von einanderausführung anderausführung von Abbildungen im Allgemeinen nicht kommutativ ist. Bemerkung 4.1.2 Man kann zeigen, dass in jeder Gruppe eine Linkseins immer eine Rechtseins ist, d. h., aus (G2) folgt g ◦e = g für alle g ∈ G. Genauso ist ein Linksinverses stets auch Rechtsinverses. Auÿerdem gibt es nur ein Einselement und zu jedem g ∈ G nur ein Inverses. Der Beweis soll hier ausgelassen werden, wird aber in der Vorlesung Algebra behandelt. Für das Inverse zu g schreibt man auch g −1 . Man fasst also die Verknüpfung in einer Gruppe üblicherweise als eine Art von Multiplikation auf und spricht deshalb von einer multiplikativen, oder einer multiplikativ geschriebenen Gruppe. Manchmal ist es aber sinnvoller, die Verknüpfung ◦ als Addition + zu schreiben, was insbesondere dann häug, aber leider nicht immer, geschieht, wenn die Gruppe abelsch ist. 35 Aufgabe 4.1.3 Zeige: In jeder Gruppe Aufgabe 4.1.4 Sei (a) Für jedes G g∈G g1 , g2 ∈ G (b) Für Aufgabe 4.1.5 I gilt die Regel (g1 ◦g2 )−1 = g2−1 ◦g1−1 für alle g1 , g2 ∈ G. eine Gruppe. Zeige: (g −1 )−1 = g . gilt gilt Sei G g1−1 = g2−1 ⇐⇒ g1 = g2 . eine beliebige nicht-leere Menge. Zeige, dass die Menge aller Bijektionen von sich bezgl. der Hintereinanderausführung eine Gruppe bilden. Zeige für den Fall, dass Elemente hat, dass diese Gruppe nicht bijektiv ist. Bestimme für den Fall, dass die Anzahl der verschiedenen Bijektionen von Beispiel 4.1.6 n-reihigen I I I I auf mindestens drei eine endliche Mange ist, in sich, also die Ordnung der Gruppe aller Bijektionen. Jeder Vektorraum ist bezgl. der Addition eine abelsche Gruppe. Die Menge GL(n, K) der n ≥ 2 ist invertierbaren Matrizen ist eine Gruppe bezüglich der Matrixmultiplikation, und für Sn ist ebenfalls eine Gruppe bezüglich der Hintereinanderist sie nicht kommutativ; vergleiche hierzu Aufgabe 4.1.5. diese Gruppe nicht kommutativ. Die Menge n≥3 ausführung, und für Beispiel 4.1.7 Eine Permutation σ ist durch die Festlegung aller ihrer Bilder σ(1), . . . , σ(n) eindeutig festgelegt. Wir schreiben deshalb etwa σ = Ist z. B. n = 4, 1 σ(1) 2 σ(2) ... ... n σ(n) so ist das Produkt von σ1 und σ2 1 2 2 3 3 4 4 1 σ 1 ◦σ 2 = In jeder Gruppe (a) Die Zuordnung Beweis: σ(1), σ(2), . . . , σ(n) . g0 ∈ G g 7−→ g , σ2 = 1 2 2 3 1 1 2 2 3 4 4 3 , gleich (b) Ist ein = und wählt man σ1 = Satz 4.1.8 3 1 4 4 G gilt: −1 ist eine bijektive Abbildung von fest gewählt, so ist auch die Abbildung . G in sich selber. g 7−→ g0 ◦g bijetiv von G Zu (a): Unter Benutzung von Aufgabe 4.1.4 schlieÿen wir wie folgt: Es gilt in G. (g −1 )−1 = g , woraus g̃ = g0 ◦g 2 −1 −1 die Surjektivität folgt, und wegen g1 = g2 ⇐⇒ g1 = g2 folgt die Injektivität. Zu (b): Es ist −1 genau dann, wenn g = g0 ◦g̃ ist, und daher gilt die Behauptung. Aufgabe 4.1.9 alle j = 1, . . . , n Zeige durch Induktion über gilt, dann folgt n: Wenn für eine Permutation σ ∈ Sn immer j ≤ σ(j) für σ(j) = j . Aufgabe 4.1.10 (Permutationen und MAPLE) MAPLE kann mit Permutationen arbeiten. Aller- [a1 , a2 , . . . , as ] bedeutet a1 auf a2 , a2 auf a3 u. s. w., und as wieder auf a1 abildet. Wenn alle ak verschiedene Zahlen aus {1, . . . , n} sind, dann nennt man [a1 , a2 , . . . , as ] einen Zykel. Wenn man vereinbart, dass alle a ∈ {1, . . . , n}, die in der Liste [a1 , a2 , . . . , as ] nicht auftreten, auf sich selber abgebildet werden, dann legt jeder solche Zykel eine Permutation aus Sn fest. Man überlegt sich jetzt leicht, dass dings wird hier die Darstellung durch elementfremde Zykeln benutzt: Das Symbol hier eine Abbildung, welche 36 jede Permutation durch endlich viele paarweise disjunkte Zykeln deniert werden kann. Z. B. bedeutet in [ [1, 2, 3], [4, 5] ] die Permutation, welche die 1 auf die 2, die 2 auf die 3, die 3 auf 5, und die 5 auf die 4 abbildet. Dies ist also ein Element von S5 , kann aber auch als Element von Sn mit n ≥ 6 aufgefasst werden, da ja die Regel gilt, dass alle Zahlen k , die in den Zykeln nicht vorkommen, also hier alle k ≥ 6, auf sich selber abgebildet werden. Die Befehle MAPLE das Symbol die 1, die 4 auf die > restart; > with(group); > mulperms([ [1,2,3], [4,5] ], [ [2,3], [1,5] ]); berechnen das Produkt der beiden angegebenen Permutationen. 4.2 Vorzeichen von Permutationen Denition 4.2.1 σ ∈ Sn . Ein Zahlenpaar (j, k), 1 ≤ j < k ≤ n, heiÿt eine Inversion oder ein σ(j) > σ(k) ist. Die Anzahl solcher Fehlstände sei m(σ). Wir setzen das Vorzeichen oder Signum sgn (σ) gleich 1, bzw. gleich −1, wenn die Anzahl aller Inversionen von σ gerade, m(σ) bzw. ungerade, ist. Anders ausgedrückt ist also sgn (σ) = (−1) Eine Permutation τ ∈ Sn heiÿt eine Transposition, falls ein Zahlenpaar (j, k), 1 ≤ j < k ≤ n, existiert, welches durch τ vertauscht wird, während alle anderen Zahlen von τ festgelassen werden; d. h. genauer Fehlstand von σ, Sei wenn τ (j) = k , Die identische Abbildung Beispiel 4.2.2 (1, 2, 4, 3) τ (k) = j , τ (`) = ` id : {1, . . . , n} −→ {1, . . . , n} Die identische Permutation id ∀ ` 6= j, k , 1 ≤ ` ≤ n . heiÿt auch identische Permutation. besitzt keinen Fehlstand, also ist sgn (id) gibt es genau einen Fehlstand, nämlich das Paar Aufgabe 4.2.3 (Vorzeichen und MAPLE) (3, 4). Deshalb ist sgn (σ) = 1. = −1. Für σ = Das Vorzeichen einer Permutation kann mit Hilfe von MAPLE indirekt berechnet werden, da für elementfremde Zykeln die sogenannte Parität gleich dem Vor- zeichen ist und mit dem Kommando > parity berechnet werden kann. Überprüfe dies mit der Sequenz > restart; > with(group); > parity([ [2,3], [1,5] ]); > parity([ [1,2,3], [4,5] ]); Satz 4.2.4 (Regeln für das Vorzeichen) (a) sgn (σ) = Y 1≤j<k≤n (b) ∀ σ1 , σ2 ∈ Sn : (c) ∀ σ ∈ Sn : σ(j) − σ(k) j−k sgn (σ1 ◦σ2 ) sgn (σ −1 Für alle n≥2 . = sgn (σ1 ) sgn (σ2 ). ) = sgn (σ). 37 und alle σ, τ ∈ Sn gilt: Beweis: Zu (a): Nach Denition von Y (σ(j) − σ(k)) m(σ) gilt Y = 1≤j<k≤n (σ(j) − σ(k)) 1≤j<k≤n 1≤j<k≤n σ(j)<σ(k) Y Y (σ(j) − σ(k)) (σ(j) − σ(k)) j>k j<k σ(j)<σ(k) σ(j)<σ(k) Y (−1)m(σ) = (σ(j) − σ(k)) σ(j)>σ(k) (−1)m(σ) = Y (σ(j) − σ(k)) 1≤σ(j)<σ(k)≤n Y (−1)m(σ) = (j − k) , 1≤j<k≤n woraus die Behauptung folgt. Zu (b): Unter Verwendung von (a) zeigt man sgn (σ ◦τ ) Y σ(τ (j)) − σ(τ (k)) τ (j) − τ (k) τ (j) − τ (k) j−k = j<k = sgn (τ ) Y σ(τ (j)) − σ(τ (k)) τ (j) − τ (k) j<k = = = sgn (τ ) j<k j<k τ (j)<τ (k) τ (j)>τ (k) Y σ(τ (j)) − σ(τ (k)) τ (j) − τ (k) sgn (τ ) Y σ(τ (j)) − σ(τ (k) τ (j) − τ (k) j<k j>k τ (j)<τ (k) τ (j)<τ (k) Y sgn (τ ) τ (j)<τ (k) Zu (c): Mit (b) folgt Y σ(τ (j)) − σ(τ (k)) τ (j) − τ (k) Y σ(τ (j)) − σ(τ (k)) τ (j) − τ (k) σ(τ (j)) − σ(τ (k) = τ (j) − τ (k) 1 = sgn (id) = sgn (σ) sgn (σ −1 ), Zeige: Alle Transpositionen Aufgabe 4.2.6 Berechne das Vorzeichen der Permutationen Lösung: Fehlstände, und deshalb ist sgn σ2 σ1 (1, 2), = −1. Satz 4.2.7 σ ∈ Sn hat nur den Fehlstand Zu jeder Permutation 2 und daraus folgt die Behauptung. Aufgabe 4.2.5 τ ∈ Sn sgn (σ) sgn (τ ) . haben Vorzeichen also ist sgn σ1 −1, und es gilt σ1 = (2, 1, 3, 4) = −1. Für σ2 und sind τ −1 = τ . σ2 = (2, 3, 4, 1). (1, 4), (2, 4) existieren endlich viele Transpositionen und τ1 , . . . , τm ∈ Sn (3, 4) 2 mit σ = τ1 ◦ . . . ◦τm . Beweis: Wir benutzen Induktion über n: Für n = 1 ist nichts zu zeigen. Sei jetzt n ≥ 2, und sei k = σ(n). Falls k < n ist, gibt es eine Transposition τ , welche n und k vertauscht. Falls k = n ist, sei τ = id gesetzt. Die Permutation σ̃ = τ ◦σ erfüllt dann σ̃(n) = n und kann deshalb auch als Permutation in Sn−1 angesehen werden. Nach Induktonshypothese gibt es dann τ1 , . . . , τj ∈ Sn−1 mit σ̃ = τ1 ◦ . . . ◦τj . Wenn wir die τk zu Permutationen in Sn machen, indem wir τk (n) = n setzen, folgt die Behauptung. 2 38 4.3 Denition der Determinante Denition 4.3.1 Für A ∈ Kn×n heiÿt die Zahl X sgn (σ) a1σ(1) a2σ(2) · . . . · anσ(n) det A = n∈N und σ∈Sn die Determinante von Beispiel 4.3.2 A. n = 1 Für ist A = [a] und det A = a. n = 2 Für gibt es zwei Permutationen in S2 , nämlich σ1 = id = (1, 2) , Das Vorzeichen von σ2 ist −1, und deshalb folgt a11 a21 det Im Fall n=3 hat S3 σ2 = (2, 1) . a12 a22 = a11 a22 − a12 a21 . sechs Elemente, nämlich σ1 = id = (1, 2, 3) σ4 = (1, 3, 2) σ2 = (2, 3, 1) , σ5 = (2, 1, 3) , σ3 = (3, 1, 2) , σ6 = (3, 2, 1) , wobei die ersten bzw. letzten drei Permutationen das Vorzeichen a11 det a21 a31 a12 a22 a32 a13 a23 a33 24 bzw. −1 haben. Deshalb ist a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 . = Diese Formel heiÿt auch Sarrussche Regel. Für für die Determinante bereits 1 n = 4 enthält die in der Denition stehende Formel Terme und ist für die Berechnung ungeeignet! Wir werden aber einen eektiven Algorithmus zur Berechnung der Determinante kennen lernen, und auch für n=3 werden wir Determinanten ausschlieÿlich mit diesem Algorithmus berechnen. Aufgabe 4.3.3 Berechne die Determinante der Matrizen A = Aufgabe 4.3.4 1 −1 1 2 1 B = 0 0 , 0 1 −1 1 . 0 2 Nach Denition ist die Determinante eine endliche Summe von Termen, die bis auf ein Vorzeichen von der Form a1σ(1) a2σ(2) · . . . · anσ(n) sind. Zeige, dass dieses Produkt auch in der Form aσ−1 (1) 1 aσ−1 (2) 2 · . . . · aσ−1 (n) n geschrieben werden kann. Leite daraus ab, dass in jedem solchen Produkt genau ein Element aus jeder Zeile, aber auch aus jeder Spalte, von Aufgabe 4.3.5 A steht. Beweise die Formel a11 det 0 0 a12 a22 0 a13 a23 a33 = a11 a22 a33 und überlege, ob eine analoge Formel auch für gröÿere Matrizen gilt. 39 Lösung: n sei A Da a21 = a31 = a32 = 0 sind, folgt die Behauptung aus der Sarrusschen Regel. Für beliebiges ajk = 0 ist sobald j > k ist. Das bedeutet, dass in der Denition der Determinante nur stehen bleiben, für die immer j ≤ σ(j) ist. Dies ist aber nach Aufgabe 4.1.9 nur für die so, dass solche Terme identische Permutation der Fall, und deshalb ist a11 0 det . .. 0 a12 a22 ... ... . . . .. 0 ... a1n a2n . . . ann . = a11 a22 · . . . · ann . 2 Aufgabe 4.3.6 Überprüfe mit Hilfe der Denition folgende Regel für Determinanten: Falls eine Zeile oder eine Spalte einer quadratischen Matrix Aufgabe 4.3.7 A nur Nullen enthält, ist det A = 0. Zeige allein mit der Denition der Determinante, dass a11 0 det . .. 0 a12 a22 ... ... . . . .. an2 ... a1n a2n . . . ann . = a11 det a22 ... a2n . . . .. . . . an2 ... . . ann 4.4 Rechenregeln für Determinanten a1 , . . . , an ∈ Kn die Spalten einer Matrix A, und wir schreiben n n auch det[a1 , . . . , an ] an Stelle von det A. Dadurch wird det eine Abbildung von K × . . . × K (mit n n Faktoren) nach K. Eine solche Abbildung heiÿt auch eine n-stellige Form auf K . Für die folgenden Rechenregeln seien Satz 4.4.1 (Rechenregeln für Determinanten) Für a, b, a1 , . . . , an ∈ Kn und λ, µ ∈ K gilt: τ ∈ Sn gilt det[aτ (1) , . . . , aτ (n) ] = − det[a1 , . . . , an ]. In Worten ausgedrückt heiÿt das: Beim Vertauschen zweier Spalten wechselt die Determinante das Vorzeichen. (a) Für Transpositionen (b) det[λ a + µ b, a2 , . . . , an ] = λ det[a, a2 , . . . , an ] + µ det[b, a2 , . . . , an ]. Diese Eigenschaft besagt in Worten, dass die Determinante linear in der ersten Spalte ist. Beweis: Zu (a): Nach Denition ist det[aτ (1) , . . . , aτ (n) ] = X sgn (σ) a1σ(τ (1)) · . . . · anσ(τ (n)) σ∈Sn = − X sgn (σ ◦τ ) a1σ(τ (1)) · . . . · anσ(τ (n)) . σ∈Sn Da nach Satz 4.1.8 (b) mit σ auch σ ◦τ einmal die Gruppe Sn durchläuft, folgt die Behauptung. Zu (b): Folgt direkt aus der Denition der Determinante. Denition 4.4.2 2 Aussage (b) des vorstehenden Satzes besagt, dass die Determinante linear in der ersten Spalte ist, und wegen (a) gilt Gleiches für jede andere Spalte. Man sagt kurz dass die Determinante eine Multilinearform ist. Wegen Satz 4.4.1 (a) nennt man die Determinante auch alternierend. 40 Satz 4.4.3 (a) Falls Für jedes A A ∈ Kn×n gilt: eine obere oder untere Dreiecksmatrix ist, dann ist ihre Determinante gleich dem Produkt ihrer Diagonalelemente. (b) det A = det AT , Beweis: det I = 1. Zu (a): Wurde für obere Dreiecksmatrizen in Aufgabe 4.3.5 bewiesen und folgt für untere aus (b). Zu (b): Nach Denition der Determinante ist det AT = X sgn (σ) Y σ aσ(j)j = σ j = X sgn (σ −1 ) Y σ −1 und da nach Satz 4.1.8 (a) mit σ X Y auch σ −1 sgn (σ)ajσ −1 (j) j ajσ−1 (j) , j die Gruppe Sn 2 durchläuft, folgt die Behauptung. Wegen ihrer Wichtigkeit formulieren wir noch einmal folgende Regeln für Determinanten, die sich sofort aus Satz 4.4.1 ergeben: Korollar zu Satz 4.4.1 (a) Wenn B aus A Für jedes A ∈ Kn×n gilt: durch Vertauschen zweier Spalten entsteht, so ist (b) Entsteht B aus A (c) Entsteht B aus A, det B = − det A. durch Multiplikation einer Spalte mit einem Faktor λ ∈ C, so ist det B = λ det A. indem man ein Vielfaches einer Spalte zu einer anderen adddiert, so ist det B = det A. Wegen Satz 4.4.3 (b) gelten die Regeln (a) (c) auch für die Zeilen an Stelle der Spalten von Aufgabe 4.4.4 A. Zeige: Wenn eine quadratische Matrix zwei gleiche Zeilen oder zwei gleiche Spalten ent- hält, dann ist ihre Determinante gleich 0. Bemerkung 4.4.5 (Berechnung einer Determinante) Mit Hilfe der obigen Rechenregeln kann man auch gröÿere Determinanten relativ leicht berechnen. Dabei benutzt man folgenden Algorithmus, welcher wie beim Lösen von linearen Gleichungssystemen abläuft und wieder als Gauÿsches Eliminationsverfahren A bezeichnet wird: Falls die erste Spalte von Spalte der Matrix j=1 A ein Element aj1 6= 0 nur Nullen enthält, ist und vertausche die j -te det A = 0. Sonst suche in der ersten A mit der ersten, auÿer falls Zeile von ist. Danach ziehe Vielfache der ersten Zeile von allen anderen ab, so dass alle anderen Elemente der ersten Spalte durch Nullen ersetzt werden. Durch diese Schritte wird aus B = und für diesen Fall gilt det A = det B b11 0 .. . 0 b12 b22 b13 b23 . . . . . . bn2 bn3 A eine Matrix B der Form ... ... b1n b2n . , . . bnn ... falls wir keine Zeilen vertauschen mussten bzw. det A = − det B sonst. Wegen Aufgabe 4.3.7 gilt det B = b11 det b22 ... b2n . . . .. . . . bn2 ... . Das bedeutet, dass wir die Berechnung der Determinante von . bnn A auf die Berechnung einer Determinante einer kleineren Matrix zurückgeführt haben! Diese Determinante kann wieder nach dem gleichen Schema berechnet werden. 41 Aufgabe 4.4.6 Berechne die Determinante der Matrix A = Bemerkung 4.4.7 0 1 0 1 2 0 . −1 0 1 1 −1 0 0 1 2 −1 In dem oben eingeführten Verfahren zur Berechnung einer Determinante kann man auch die entsprechenden Operationen für Spalten verwenden, wenn dies vorteilhaft erscheint. Auÿerdem folgt aus der Denition, dass die Determinante eine ganze Zahl ist, falls die Elemente der Matrix ganzzahlig sind. Dies kann zur Kontrolle der Rechnung genutzt werden. Aufgabe 4.4.8 (Determinanten mit MAPLE) Führe die folgenden MAPLE-Kommandos aus: > restart; > with(LinearAlgebra); > A := Matrix(5, 5, [ [1, 0, 0, 1, -1], [1, 1, -1, 2, 0], [2, -1, -1, 0, 0], [-1 ,1, 0, 2, 1], [-1, 2, 3, 1, 0] ]); > Determinant(A); > B := Matrix(2,2, [[a,b], [c,d]]); > Determinant(B); > C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]); > Determinant(C); Verwende ähnliche Sequenzen zur Berechnung der Determinante der Matrix aus der vorangegangenen Aufgabe. 4.5 Weitere Eigenschaften von Determinanten Die wichtigste Anwendung der Determinante besteht in folgender Charakterisierung der Invertierbarkeit von Matrizen: Proposition 4.5.1 Beweis: Eine Matrix A ∈ Kn×n det A 6= 0 Elementare Zeilen- und Spaltentransformationen verändern den Rang von die Determinante sich höchstens um von kann man ist genau dann invertierbar, wenn A 0 A ist. nicht, während verschiedene Faktoren ändert. Mit diesen Transformationen auf obere Dreiecksgestalt bringen, und eine Dreiecksmatrix dann invertierbar, wenn alle Diagonalelemente von 0 Satz 4.5.2 (Determinantenmultiplikationssatz) ist nach Aufgabe 3.3.4 genau Für zwei quadratische gilt immer det(A B) = det A det B . 42 A verschieden sind. Daraus folgt die Behauptung. n-reihige Matrizen A und 2 B Beweis: < n, ist, folgt rang (A B) < n, und deshalb folgt mit der det(A B) = det B = 0 ist. Also gilt die Behauptung in diesem Fall. Falls B invertierbar ist, folgt aus Aufgabe 2.8.3, dass B ein Produkt von endlich vielen Elementarmatrizen ist. Daher genügt es, einen Beweis für den Fall zu geben, dass B selber eine Elementarmatrix ist; der allgemeine Fall folgt dann durch Induktion. Für eine Elementarmatrix B überprüft man aber die Behauptung mit den Rechenregeln für Determinanten. 2 Falls B nicht invertierbar, also rang B vorstehenden Proposition dass Aufgabe 4.5.3 Zeige für jede invertierbare Matrix Lemma 4.5.4 (Dreieckig geblockte Matrizen) und A12 vom Typ n1 × n2 . die Regel Seien A11 det A−1 = (det A)−1 . n1 × n1 , A22 vom Typ A11 0 A12 A22 n2 × n2 = det A11 det A22 Durch elementare Zeilentransformationen, angewandt auf Matrix so umgeformt werden, dass A11 und A22 [A11 , A12 ] und A22 , kann die linke obere Dreiecksgestalt haben, ohne dass die Blockdrei- ecksform der Gesamtmatrix verändert wird. Daraus folgt die Behauptung. Aufgabe 4.5.5 vom Typ Dann gilt det Beweis: A 2 Formuliere selber Verallgemeinerungen von obigem Lemma auf den Fall von oberen Blockdreiecksmatrizen mit mehr als zwei Diagonalblöcken, und beweise diese Aussagen mit Induktion. Was kann man für untere Blockdreiecksmatrizen sagen? Behauptung 4.5.6 (Vandermondesche Determinante) Für alle λ1 , . . . , λ n ∈ K gilt die Gleichung: det 1 λ1 λ21 1 λ2 λ22 λn−1 1 λn−1 2 . . . ... ... ... . . . 1 λn λ2n . . . ... Y = λk − λj . 1≤j<k≤n λn−1 n Insbesondere heiÿt das, dass die linksstehende Matrix, auch Vandermondesche Matrix genannt, genau dann invertierbar ist, wenn alle λj verschieden sind. Vergleiche diese Art von Matrix auch mit Aufga- be 2.2.4. Beweis: λj gleich sind, hat die linksstehende Matrix zwei gleiche Spalten, und deshalb ist 0. Also gilt die Gleichung für diesen Fall, und wir können jetzt annehmen dass alle λj verschieden sind, also höchstens ein λj = 0 ist. Auÿerdem erkennt man, dass die Gleichung bei Vertauschen von Spalten der Matrix, also Umnumerierung der λj , richtig bleibt, und deshalb können wir sogar annehmen, dass λj 6= 0 für j = 2, . . . , n gilt. Ersetzt man jetzt λ1 durch eine Variable t, so erkennt man aus der Denition der Determinante, dass die Vandermondesche Determinante ein Polynom p(t) vom Grade n − 1 ist, welches nach der Vorüberlegung die Werte λ2 , . . . , λn als Nullstellen hat. Deshalb Falls zwei der ihre Determinante gleich folgt durch Abdividieren dieser Nullstellen p(t) = c (λ2 − t) · . . . · (λn − t) mit c ∈ K \ {0}. Für t=0 ergibt sich durch Anwenden von Lemma 4.5.4 c λ2 · . . . · λn λ2 λ22 = det . .. λ2n−1 43 ... ... λn λ2n . . . ... λn−1 n . Durch Teilen der folgt, dass c (j −1)-ten Spalte der rechtsstehenden Matrix durch den Faktor λj (6= 0) für j = 2, . . . , n n − 1 Skalare λ2 , . . . , λn ist, und über n folgt deshalb die Behauptung. 2 gleich dem Wert der Vandermondeschen Deteminante der durch Induktion Aufgabe 4.5.7 (Vandermonde-Matrizen und MAPLE) Führe folgende MAPLE-Befehle aus: > restart; > with(LinearAlgebra); > A := VandermondeMatrix([1,2,3,4]); > Determinant(A); > B := VandermondeMatrix([a,b,c,d]); > det := Determinant(B); > factor(det); Vergleiche mit der obigen Behauptung. Wo liegt hier eine kleine Schwäche von MAPLE? 4.6 Entwicklungssätze Denition 4.6.1 die aus A ein Minor von A. Aufgabe 4.6.2 ment Ajk n ≥ 2, und sei A eine n-reihige quadratische Matrix. Die Determinante der Matrix, j -ten Zeile und der k -ten Spalte entsteht, wird mit djk bezeichnet und heiÿt j+k Zahl Ajk = (−1) djk heiÿt dann das algebraische Komplement zu ajk . Die Zeige durch geeignetes Vertauschen von Zeilen und Spalten: Das algebraische Komple- ist die Determinante derjenigen Matrix, welche man durch Ersetzen der durch den j -ten Satz 4.6.3 (a) Sei durch Streichen der n X k -ten Spalte von A kanonischen Basisvektor enthält. Wie heiÿt die entsprechende Aussage für Zeilen? Für jedes A = [ajk ] ∈ Kn×n gilt A`k a`j = δjk det A für 1 ≤ j, k ≤ n. aj` Ak` = δjk det A für 1 ≤ j, k ≤ n. `=1 (b) n X `=1 Beweis: Benutzt man die Linearität der Determinante in jeder ihrer Spalten sowie Aufgabe 4.6.2, so sieht man dass die j -te Pn `=1 A`k a`j die Determinante der Matrix ist, die man aus Spalte erhält. Ist verschwindet; ist j = k, j 6= k , A durch Ersetzen der k -ten durch so enthält diese Matrix zwei gleiche Spalten und ihre Determinante so ist diese Matrix gleich A. Also gilt (a). Aussage (b) wird genauso durch Betrachten der Zeilen, oder aber durch Transposition bewiesen. 2 Die folgenden beiden Ergebnisse sind direkte Konsequenzen bzw. Umformulierungen des letzten Satzes: 44 Korollar zu Satz 4.6.3 Falls det A 6= 0, A−1 = A invertierbar ist, gilt A11 A21 . . . An1 A12 A22 . . . An2 .. . . . . . . . A1n A2n . . . Ann also 1 det A . Mit anderen Worten: Die Matrix aus den algebraischen Komplementen von nierten der inversen Matrix multipliziert mit A ist gleich dem Transpo- det A. Korollar zu Satz 4.6.3 (Entwicklungssatz nach einer Zeile bzw. Spalte) Sei A eine quadratische n-reihige Matrix mit n ≥ 2, und sei ein det A = n X k ∈ {1, . . . , n} ausgewählt. Dann gelten die Gleichungen (−1)j+k ajk djk = j=1 Bemerkung 4.6.4 n X (−1)j+k akj dkj . j=1 Wir haben nur Minoren der Gröÿe (n − 1) × (n − 1) betrachtet. Wenn man mehrere Zeilen und Spalten einer Matrix streicht und dann die Determinante der Restmatrix bildet, so erhält man die übrigen Minoren niedrigerer Gröÿe. Auch für solche gibt es einen Entwicklungssatz für die Determinante, den man z. B. bei Gawronski [2] nachlesen kann. Aufgabe 4.6.5 Berechne mit Hilfe des Entwicklungssatzes die Determinante von A = Aufgabe 4.6.6 (Cramersche Regel) und sei det A 6= 0. Sei −1 0 0 1 1 A 1 0 0 1 1 0 0 1 −1 0 0 3 0 4 0 1 0 1 0 −1 xk xk = dieses Vektors x . n-reihige Matrix mit den Spalten ak , A x = b für jedes b ∈ Kn eindeutig lösbar. eine quadratische Dann ist das lineare Gleichungssystem Zeige: Die Koordinaten sind gegeben durch 1 det[a1 , . . . , ak−1 , b, ak+1 , . . . , an ] det A 45 ∀ k = 1, . . . , n . Kapitel 5 Euklidische und unitäre Räume 5.1 Denition des Skalarprodukts Denition 5.1.1 Sei V ein Vektorraum über K. Eine Abbildung h · , · i : V × V −→ K , heiÿt ein Skalarprodukt oder inneres Produkt auf (S1) ∀v∈V : hv, vi ≥ 0 ; (S2) ∀ v1 , v2 ∈ V : (S3) ∀ v, v1 , v2 ∈ V : (S4) ∀ v1 , v2 ∈ V, λ ∈ K : (v1 , v2 ) 7−→ hv1 , v2 i ∈ K V, wenn folgende Regeln gelten: hv, vi = 0 ⇐⇒ v = 0 hv1 , v2 i = hv2 , v1 i . hv, v1 + v2 i = hv, v1 i + hv, v2 i hv1 , λ v2 i = λ hv1 , v2 i Falls ein solches Skalarprodukt auf V . . . gegeben ist, nennt man V im Falle von K = R auch euklidi- schen Raum, im anderen Fall einen unitären Raum. In beiden Fällen spricht man auch von einem PräHilbertraum oder einem Raum mit Skalarprodukt. Bemerkung 5.1.2 Aus den Axiomen folgt sofort die weitere Regel ∀ v1 , v2 ∈ V, λ ∈ K : hλ v1 , v2 i = λ hv1 , v2 i . Im Fall K=R ist ein Skalarprodukt immer eine reelle Zahl, und dann bedeutet (S2) einfach hv2 , v1 i für alle v1 , v2 ∈ V . Beispiel 5.1.3 hv1 , v2 i = V = {0} ist die Nullabbildung ein inneres Produkt. Falls V igendein U von V wieder ein Raum mit Skalarprodukt, wenn T man einfach die Restriktion des Skalarproduktes auf U ×U betrachtet. Für Vektoren x = (x1 , . . . , xn ) , y = T n (y1 , . . . , yn ) ∈ R ist n X hx, yi = xk yk = xT y Auf dem Vektorraum Raum mit Skalarprodukt ist, so ist jeder Unterraum k=1 ein inneres Produkt, das sogenannte kanonische Skalarprodukt in hx, yi = n X xk yk = xT y k=1 46 Rn . In Cn ist das entsprechende kanonische innere Produkt. Wenn nichts anderes gesagt ist, betrachten wir in Folgenden immer dieses kanonische Skalarprodukt. Für zwei Funktionen inneres Produkt durch f, g ∈ C[a, b] Kn im ist ein kanonisches b Z hf, gi = f (x) g(x) dx a gegeben, wobei der Querstrich wegfallen kann, falls die Werte der Funktionen reell sind. Häug gebraucht werden aber auch gewichtete innere Produkte von Funktionen. Dabei ist eine feste Gewichtsfunktion gegeben, die bis auf endlich viele Punkte positiv und stetig auf Z [a, b] k ist, und man setzt b hf, gi = f (x) g(x) k(x) dx . a [a, b] integrierbaren Funktionen erhält hf, f i = 0 sein kann ohne dass f (x) = 0 Auf der Menge der über man durch die obigen Festsetzungen keine inneren Produkte, da ist für alle Aufgabe 5.1.4 Sei Aufgabe 5.1.5 Für V ein Vektorraum mit innerem Produkt. Zeige A ∈ Kn×n das kanonische Skalarprodukt in gelten, und gib ein Beispiel für Aufgabe 5.1.6 f (j) 6= 0 Sei J hx, yiA = xT A y sei K A, n gesetzt, für alle x ∈ [a, b]. h0, vi = hv, 0i = 0 x, y ∈ Kn . Für für alle A=I v ∈V. ist also hx, yiA A . Überprüfe, welche der Regeln für ein inneres Produkt für jedes für welches nicht alle Regeln erfüllt sind. eine nicht-leere Menge, und sei j ∈ J. höchstens für endlich viele Zeige, dass hf, gi = X KJ die Menge aller Abbildungen f von J in K mit KJ ein Vektorraum über K ist, und dass durch f (j) g(j) j∈J ein inneres Produkt auf Satz 5.1.7 Sei V KJ deniert wird. ein Raum über K mit einer Basis hv1 , v2 iJ = (vj , j ∈ J), X (1) und sei für vk = (k) P j∈J αj vj (2) αj αj . j∈J Dann ist Beweis: h · , · iJ ein inneres Produkt auf W. 2 Kann einfach mit der Denition des inneren Produktes nachgeprüft werden! Aufgabe 5.1.8 Zeige, dass man in jedem endlich-dimensionalen Vektorraum ein inneres Produkt de- nieren kann. 5.2 Die Norm eines Vektors Im Folgenden sei V Denition 5.2.1 immer ein Raum mit Skalarprodukt. Für jedes v∈V heiÿt kvk = die Norm oder Länge von v. Für v1 , v2 ∈ V heiÿt p hv, vi kv1 − v2 k 47 auch Abstand zwischen v1 und v2 . Aufgabe 5.2.2 (a) Falls (b) Falls Zeige für beliebige K=R ist, gilt K=C ist, gilt v1 , v2 ∈ V : hv1 , v2 i = k(v1 + v2 )/2k2 − k(v1 − v2 )/2k2 . hv1 , v2 i = k(v1 + v2 )/2k2 − k(v1 − v2 )/2k2 + i k(v1 + i v2 )/2k2 − i k(v1 − i v2 )/2k2 . Satz 5.2.3 (Cauchy-Schwarzsche Ungleichung) Für v1 , v2 ∈ V hv1 , v2 i ≤ kv1 k kv2 k , v1 und das Gleichheitszeichen gilt genau dann, wenn und v2 gilt immer linear abhängig sind. Beweis: Für v2 = 0 ist die Behauptung korrekt, da nach Aufgabe 5.1.4 hv, 0i = 0 ist für alle v ∈ V . v2 6= 0. Falls v1 , v2 linear abhängig sind, muss v1 = α v2 für ein α ∈ K gelten, und dann 2 folgt |hv1 , v2 i| = |α hv2 , v2 i| = |α| kv2 k , kv1 k = |α| kv2 k, und deshalb gilt die Ungleichung mit dem Gleichheitszeichen. Falls die Vektoren linear unabhängig sind, ist v1 − λ v2 6= 0 für alle λ ∈ K. Dann folgt mit den Regeln eines Skalarproduktes 0 < hv1 −λ v2 , v1 −λ v2 i = hv1 , v1 i−λ hv1 , v2 i−λ hv2 , v1 i+λ λ hv2 , v2 i. 2 Wählt man speziell λ = hv2 , v1 i/kv2 k , so folgt hieraus Sei jetzt 0 < kv1 k2 − 2 |hv1 , v2 i|2 |hv1 , v2 i|2 |hv1 , v2 i|2 + kv2 k2 = kv1 k2 − , 2 4 kv2 k kv2 k kv2 k2 2 woraus die behauptete Ungleichung mit dem < -Zeichen folgt. Korollar zu Satz 5.2.3 (Eigenschaften der Norm) Für die Abbildung v 7−→ kvk gilt immer (N1) ∀v∈V : kvk ≥ 0 , (N2) ∀v∈V , λ∈K: (N3) ∀ v1 , v2 ∈ V : kvk = 0 ⇐⇒ v = 0 (Denitheit) kλ vk = |λ| kvk (Homogenität) kv1 + v2 k ≤ kv1 k + kv2 k (Dreiecksungleichung) Beweis: 2 Aus obigem Satz und den Rechenregeln für ein Skalarprodukt folgt kv1 + v2 k = hv1 + v2 , v1 + v2 i = hv1 , v1 i + hv1 , v2 i + hv2 , v1 i + hv2 , v2 i ≤ kv1 k2 + 2 kv1 k kv2 k + kv2 k2 = (kv1 k + kv2 k)2 , und das ist die Dreiecksungleichung. Die anderen beiden Behauptungen folgen unmittelbar aus den Eigenschaften eines 2 Skalarproduktes. Aufgabe 5.2.4 Benutze die Cauchy-Schwarzsche Ungleichung bzw. die Dreiecksungleichung, um folgen- des zu beweisen: Für alle a1 , . . . , an , b1 , . . . , bn ∈ C n n X X aj bj ≤ |aj bj | ≤ j=1 n X j=1 gilt immer n X j=1 |aj + bj | 2 1/2 |aj |2 n 1/2 X j=1 ≤ n X j=1 48 |aj | 2 |bj |2 1/2 j=1 1/2 + n X j=1 |bj |2 1/2 . , Aufgabe 5.2.5 Mit `2 bezeichnet man die Menge aller komplexen Zahlenfolgen a = (a1 , a2 , a3 , . . .) mit P∞ 2 der Eigenschaft, dass die Reihe j=1 |aj | konvergiert. Benutze die Ungleichungen aus der vorangegangenen Aufgabe, um zu zeigen: (a) `2 ist ein Vektorraum über (b) Deniert man für Folgen C. a = (a1 , a2 , a3 , . . .), b = (b1 , b2 , b3 , , . . . , ) ∈ `2 ha, bi = ∞ X aj bj , j=1 so ist die Reihe immer absolut konvergent, und Der Raum `2 h·, ·i ek , welche an der k -ten Cn ange- 1 und an den übrigen lauter Nullen stehen Cn . Finde heraus, warum diese Folgen keine Stelle eine haben, entsprechen den Vektoren der kanonischen Basis von `2 `2 . ist unendlich-dimensional und kann als natürliche Verallgemeinerung der Räume sehen werden. Die Folgen Basis von ist ein Skalarprodukt auf bilden. Denition 5.2.6 V ein Vektorraum über K. Eine beliebige Abbildung k · k : V −→ R heiÿt immer V , wenn die drei Axiome (N1) (N3) erfüllt sind. Wenn auf V eine solche Norm gegeben ist, nennt man V auch normierten Raum. Ein Raum mit Skalarprodukt ist also immer auch ein normierter Raum, aber nicht unbedingt umgekehrt, denn auf V kann eine Norm gegeben sein, welche Sei dann eine Norm auf nicht von einem Skalarprodukt herrührt. 5.3 Orthogonalität und Winkel Denition 5.3.1 Zwei Vektoren v1 , v2 in einem Raum über K mit Skalarprodukt V heiÿen orthogonal, hv1 , v2 i = 0 ist. Zwei nicht-leere Teilmengen A, B ⊂ V heiÿen zueinander orthogonal, falls jeder ⊥ Vektor aus A zu jedem aus B orthogonal ist. Ist A ⊂ V nicht-leer, so heiÿt die Menge A aller Vektoren aus V , welche zu allen Vektoren aus A orthogonal sind, das orthogonale Komplement von A. In anderen ⊥ ⊥ Worten: A ist die gröÿte Teilmenge von V , so dass A und A zueinander orthogonal sind. Falls K = R, also das Skalarprodukt von Vektoren immer reell ist, gibt es zu v1 , v2 ∈ V \ {0} genau einen Winkel ϕ ∈ [0, π] mit hv1 , v2 i , cos ϕ = kv1 k kv2 k und wir nennen dieses ϕ den Winkel zwischen v1 und v2 . Oenbar sind die Vektoren genau dann orthogo2 3 nal, wenn der Winkel zwischen ihnen gleich π/2 ist. Falls V = R oder = R ist, stimmt diese Denition falls eines Winkels mit der Anschauung überein, was aber hier keine Rolle spielt. Beachte jedenfalls, dass für K=C zwar kein Winkel zwischen zwei Vektoren deniert ist, dass aber der Begri der Orthogonalität trotzdem sinnvoll ist. Satz 5.3.2 ⊥ Sei V ein Raum über (a) A (b) (A⊥ )⊥ ⊃ A. (c) L(A) ∩ A⊥ = {0}. Beweis: ist ein Unterraum von Zu (a): Es ist immer K mit Skalarprodukt, und sei A⊂V nicht leer. Dann gilt: V. 0 ∈ A⊥ , also ist A⊥ 6= ∅. Weiter folgt aus den Rechenregeln für das ⊥ A erfüllt sind. Teil (b) ist klar nach PmDenition von A . Zu (c): Sei u ∈ L(A), dann gibt es u1 , . . . , um ∈ A und α1 , . . . , αm ∈ K mit u = j=1 αj uj . Also folgt Pm ⊥ ⊥ für v ∈ A , dass hv, ui = j=1 αj hv, uj i = 0 ist, weil v zu allen uj orthogonal ist. Wenn u auch zu A gehört, können wir v = u wählen und erhalten hu, ui = 0, also u = 0. 2 Skalarprodukt, dass die Unterraumaxiome für ⊥ 49 Aufgabe 5.3.3 (Orthogonalität und MAPLE) Finde diejenigen MAPLE-Kommandos im Paket LiKn zu tun haben. nearAlgebra, welche etwas mit Winkel, Norm und/oder Orthogonalität in 5.4 Orthogonalsysteme Denition 5.4.1 Ein System (vj , j ∈ J) von Vektoren in einem Raum V über K mit Skalarprodukt heiÿt ein Orthogonalsystem, falls keiner der Vektoren der Nullvektor ist, und wenn ∀ j, k ∈ J : hvj , vk i = 0 falls j 6= k . kvj k = 1 für alle j ∈ J , dann sprechen wir von einem Orthonormalsystem. Beachte, dass das leere System immer ein Orthonormalsystem ist. Falls (vj , j ∈ J) zusätzlich noch eine Basis von V sind, sprechen wir von einer Orthogonalbasis bzw. einer Orthonormalbasis von V . Falls zusätzlich gilt Beispiel 5.4.2 Kn In ist die kanonische Basis eine Orthonormalbasis. Der Vektorraum ebenfalls eine Orthonormalbasis, nämlich das leere System. In `2 sind die Folgen malsystem, aber keine Basis; vergleiche hierzu Aufgabe 5.2.5. Allgemein sind in die Funktionen fk Aufgabe 5.4.3 mit Sei V fk (j) = δkj j, k ∈ J für ein Raum über K Ein Orthogonalsystem Orthonormalsystem ist, und falls v= KJ V = {0} besitzt zwar ein Orthonor- wie in Aufgabe 5.1.6 eine Orthonormalbasis. (vj , j ∈ J), und sei in V ein inneres Produkt eine Orthonormalbasis ist. mit einer Basis wie in Satz 5.1.7 eingeführt. Zeige, dass dann Lemma 5.4.4 ek (vj , j ∈ J) (vj , j ∈ J) ist immer linear unabhängig. Falls (vj , j ∈ J) sogar ein P j∈J αj vj ist, wobei nur endlich viele αj von 0 verschieden sind, so folgt kvk2 = X |αj |2 . (5.4.1) j∈J Beweis: λν kvjν k2 Pn Pn Pn j1 , . . . , jn ∈ J . Aus 0 = k=1 λk vjk folgt 0 = hvjν , k=1 λk vjk i = k=1 λk hvjν , vjk i = jedes ν = 1, . . . , n, und da vjν 6= 0 ist, folgt hieraus λν = 0. Das ist die lineare Unabhängig- Seien für keit. Mit den Regeln für das Skalarprodukt folgt weiter kvk2 = X X αj αk hvj , vk i , j∈J k∈J und wegen hvj , vk i = δjk 2 folgt daraus (5.4.1). Satz 5.4.5 (Gram-Schmidtsches Orthogonalisierungsverfahren) Sei V K mit Skalarprodukt, sei (w1 , . . . , wn ) ein linear unabhängiges (v1 , . . . , vn ) durch folgende Rekursionsgleichungen deniert: ein Raum über sei das System ṽk = wk − k−1 X hvj , wk i vj , vk = j=1 wobei für k=1 die leere Summe wie üblich als 0 1 ṽk , kṽk k zu interpretieren ist. Dann ist 50 V, und 1 ≤ k ≤ n, normalsystem, und L(v1 , . . . , vk ) = L(w1 , . . . , wk ) System in ∀ k = 1, . . . , n . (v1 , . . . , vn ) ein Ortho- Beweis: Wir zeigen per Induktion, dass das System (v1 , , . . . , vk ) immer ein Orthonormalsystem ist, und L(v1 , . . . , vk ) = L(w1 , . . . , wk ) gilt für alle k = 1, . . . , n. Dies ist sicher richtig für k = 1, und wenn für irgendein k ≥ 1 stimmt, dann folgt für alle ν = 1, . . . , k : dass es hvν , ṽk+1 i = hvν , wk+1 i − k X hvj , wk+1 i hvν , vj i = 0 , j=1 hvν , vj i = δνj . Also ist (v1 , . . . , vk+1 ) ein Orthonormalsystem und somit linear unabhängig. Auvk+1 ∈ L(w1 , . . . , wk+1 ), und daher folgt L(v1 , . . . , vk+1 ) ⊂ L(w1 , . . . , wk+1 ). Da aber die Dimensionen der linearen Hüllen beide gleich k + 1 sind, folgt sogar die Gleichheit. 2 denn ÿerdem gilt Aufgabe 5.4.6 Orthogonalisiere die Vektoren 1 w1 = 1 , 1 1 w2 = 0 , 1 Das heiÿt genauer: Berechne die drei Vektoren v1 , v2 , v3 Aufgabe 5.4.7 (Orthogonalisieren mit MAPLE) um Vektoren in Kn 1 w3 = 1 . 0 aus dem obigen Satz. Verwende den MAPLE-Befehl > GramSchmidt, zu orthogonalisieren. Aufgabe 5.4.8 Sei reellen Vektoren uj u∈U U Cn , und sei (u1 , . . . , um ) eine Basis von U , welche nur aus besteht; eine solche Basis existiert nach Aufgabe 1.7.2, falls mit jedem u ∈ U auch ein Unterraum von ist. Schlieÿe mit dem Gram-Schmidtschen Orthogonalisierungsverfahren, dass es dann sogar eine Orthonormalbasis von Bemerkung 5.4.9 U gibt, welche nur aus reellen Vektoren uj besteht. Das Gram-Schmidtsche Orthogonalisierungsverfahren kann nicht nur auf endlich vie- (wj , j ∈ N) angewandt werden. L(v1 , . . . , vk ) = L(w1 , . . . , wk ) für alle le, sondern auch auf eine Folge, also abzählbar unendlich viele, Vektoren Man erhält dann wieder eine Folge k ∈ N. (vj , j ∈ N) mit der Eigenschaft Wenn man das Orthogonalisierungsverfahren anwendet, muss man auch nicht unbedingt wissen, ob die zu orthogonalisierenden Vektoren linear unabhängig sind: Genau dann, wenn im Vektor ṽk wk von den vorhergehenden Vektor wk verkürzen. der Nullvektor ist, war man das System um diesen Korollar zu Satz 5.4.5 k -ten Schritt der Vektoren linear abhängig, und dann kann Ein endlich-dimensionaler Raum mit Skalarprodukt V besitzt immer eine Orthonormalbasis. Beweis: Falls V = {0} ist, ist das leere System Orthonormalbasis. Sonst sei (w1 , . . . , wn ) eine BaV . Mit Satz 5.4.5 erhält man dann ein Orthonormalsystem (v1 , . . . , vn ) mit L(v1 , . . . , vn ) = L(w1 , . . . , wn ) = V , und das war zu zeigen. 2 sis von Aufgabe 5.4.10 (Orthogonalpolynome) Betrachte irgendein Skalarprodukt auf dem Raum C[t] aller (pj , j ∈ N0 ) von Polynomen, hat, und diese Polynome sind bis auf einen konstanten Faktor eindeutig bestimmt. Polynome mit komplexen Koezienten. Zeige: Es gibt ein Orthogonalsystem wobei pj den Grad j Überprüfe für das Skalarprodukt Z 1 hp, qi = p(t) q(t) dt , −1 dass diese zugehörigen Orthogonalpolynome die Darstellung pj (t) = 1 dj 2 (t − 1)j 2j j! dtj 51 ∀ j ∈ N0 haben. Diese Orthogonalpolynome heiÿen auch Legendresche Polynome. Es gibt viele andere wichtige Beispiele von Orthogonalpolynomen für andere innere Produkte auf C[t], die in der Physik und/oder Technik eine wichtige Rolle spielen. 5.5 Beste Approximation, orthogonale Projektion und Fourierkoezienten Denition 5.5.1 zu v∈V Sei einen Vektor V ein Raum u0 ∈ U gibt, über K mit Skalarprodukt, und sei U ein Unterraum von V. Falls es für welchen kv − u0 k ≤ kv − uk ∀u∈U, dann heiÿt u0 beste Approximation für V in dem Unterraum U . Falls es zu v ∈ V einen Vektor u0 ∈ U ⊥ gibt, für welchen v − u0 ∈ U ist, dann nennen wir u0 orthogonale Projektion von v auf den Unterraum U. U Wir werden beweisen, dass für endlich-dimensionales sowohl eine orthogonale Projektion als auch eine beste Approximation existieren und sogar übereinstimmen. Satz 5.5.2 (Beste Approximation) V ein v ∈V: Sei (a) Für Raum mit Skalarprodukt, und seien α1 , . . . , αn ∈ K ist kv − Pn k=1 αk = v1 , . . . , v n αk vk k ein Orthogonalsystem in V. Dann gilt für jedes genau dann minimal, wenn hvk , vi hvk , vi = hvk , vk i kvk k2 ∀ k = 1, . . . , n . (5.5.1) (b) Es gilt die Besselsche Ungleichung n X |hvk , vi|2 ≤ kvk2 . kvk k2 (5.5.2) k=1 (c) Genau dann gilt die Parsevalsche Gleichung n X |hvk , vi|2 = kvk2 , kvk k2 (5.5.3) k=1 wenn v ∈ L(v1 , . . . , vn ) ist, und dann ist v = n X hvk , vi k=1 Beweis: kvk k2 vk . Es folgt mit den Regeln eines Skalarproduktes: 0 ≤ kv − n X αk vk k2 = kvk2 − k=1 n X αk hv, vk i − k=1 + n X αk hvk , vi k=1 n X n X αj αk hvj , vk i j=1 k=1 = kvk2 − n X |hvk , vi|2 /kvk k2 + k=1 n 2 X αk kvk k − hvk , vi/kvk k . k=1 52 αk = hvk , vi/kvkP k2 für k = 1, . . . , n, so folgt (b). Falls n 2 v ∈ L(v1 , . . . , vn ) ist, gibt es α1 , . . . , αn derart, dass 0 = kv − k=1 αk vk k ist, und dann folgt aus (a) 2 und (b), dass αk = hvk , vi/kvk k für k = 1, . . . , n gilt. Also muss die Parsevalsche Gleichung gelten. Falls Daraus liest man (a) ab. Setzt man speziell umgekehrt die Parsevalsche Gleichung gilt, folgt wegen n n X X hvk , vi 2 2 v = kvk − |hvk , vi|2 /kvk k2 = 0 v − k kvk k2 k=1 k=1 dass v ∈ L(v1 , . . . , vn ) 2 ist. Aufgabe 5.5.3 (Orthogonale Projektion mit MAPLE) Finde selber heraus, was die folgenden Be- fehle mit der Berechnung der besten Approximation zu tun haben: > restart; > with(LinearAlgebra); > A := Matrix(3, 2, [[1,1],[1,1],[-1, 0]]); > a := Vector([1, 2, 3]); > x := LeastSquares(A,a); Denition 5.5.4 Für ein v∈V Sei (vj , j ∈ J) ein beliebiges Orthogonalsystem in einem Raum mit Skalarprodukt nennt man die Zahlen hvj , vi ∀j∈J kvj k2 die Fourierkoezienten von v bzgl. des Orthogonalsystems Korollar zu Satz 5.5.2 (Orthogonale Projektion) ein endlich-dimensionaler Unterraum von (a) V. V. (vj , j ∈ J). Sei V ein Raum mit Skalarprodukt, und sei U in U gleich der orthogonalen Projektion von v Dann gilt: V = U ⊕ U ⊥. (b) Für jedes auf (c) Ist v∈V ist die beste Approximation von u1 , . . . , un U, eine Orthogonalbasis von so ist u = n X huk , vi k=1 die orthogonale Projektion von Beweis: v U. Sei j = 1, . . . , n. v ∈ V Daher ist v auf kuk k2 uk (5.5.4) U. u wie in (5.5.4). Dann folgt huj , ui = huj , vi, also hv − u, uj i = 0 v − u ∈ U ⊥ , und da dies für jedes v ∈ V gilt, folgt V = U + U ⊥ . Dass die und für alle Summe direkt ist, folgt bereits aus Satz 5.3.2. Also gilt (a), aber auch (c). Behauptung (b) folgt direkt aus dem 2 Satz über die beste Approximation. Aufgabe 5.5.5 Überprüfe, dass die Vektoren v1 = (1, 0, 1)T , v2 = (0, 1, 0)T ein Orthogonalsystem in mit dem kanonischen Skalarprodukt bilden. Berechne die orthogonale Projektion von den von v1 , v2 aufgespannten Unterraum. 53 v = (1, 1, 0) T R3 auf Kapitel 6 Lineare Abbildungen Wenn nichts anderes gesagt wird, seien im Folgenden Körper V und W zwei beliebige Vektorräume über demselben K. 6.1 Denition und elementare Eigenschaften Denition 6.1.1 W, Eine Abbildung T : V −→ W , v 7−→ T (v) = T v heiÿt lineare Abbildung von V nach oder einfach linear, falls folgendes gilt: (L1) ∀ v1 , v2 ∈ V : (L2) ∀ λ ∈ K, v ∈ V : T (v1 + v2 ) = T v1 + T v2 . (Additivität) T (λ v) = λ T v . (Homogenität) Beide Aussagen zusammen sind oenbar äquivalent zu der einen Aussage (L) ∀ λ1 , λ2 ∈ K , v1 , v2 ∈ V : T (λ1 v1 + λ2 v2 ) = λ1 T v1 + λ2 T v . V nach W L(V, V ) = L(V ) geschrieben. Abbildungen in L(V ) heiÿen auch Endomorphismen in Beispiel 6.1.2 Folgende Abbildungen sind linear: Die Menge aller linearen Abbildungen von wird mit L(V, W ) bezeichnet. Falls W =V ist, sei V. A ∈ Km×n und x ∈ Kn ist A x ∈ Km , und aus Satz 2.3.3 (a), (b) folgt, dass die Abbildung x 7−→ A x linear ist. Also legt jede Matrix A in kanonischer Weise eine lineare Abbildung fest, die wir der Einfachheit halber meistens ebenfalls mit A bezeichnen. (a) Für (b) Für beliebige Vektorräume V, W über K ist die Nullabbildung ist auch die identische Abbildung oder die Identität v 7−→ 0 immer linear. Für W =V linear. (v1 , . . . , vn ) eine Basis von V . Dann Pn gibt es nach Propositiv ∈ V eindeutig bestimmte Zahlen αk ∈ K mit v = k=1 αk vk . Die Abbildung n v 7−→ Pn(α1 , . . . , αn ) von V nach K ist linear und injektiv. Da für α1 , . . . , αn ∈ K der Vektor v = j=1 αj vj zu V gehört, ist die Abbildung sogar surjektiv. Wir nennen sie auch die Koordinatenabbildung zur Basis (v1 , . . . , vn ). (c) Sei V v 7−→ v endlich-dimensional, und sei on 1.5.6 zu jedem (d) Für V = W = K[t] also ein Endomorphismus. Für nach p 7−→ p 0 , die jedem Polynom seine Ableitung zuordnet, linear, Rb beliebige a < b ist die Abbildung p 7−→ a p(t) dt linear von K[t] ist die Abbildung K. 54 Satz 6.1.3 Für jedes T ∈ L(V, W ) λj ∈ K (a) Für jede Wahl von gilt: und vj ∈ V , j = 1, . . . , n, T n X λj vj = j=1 (b) Stets gilt T (0) = 0, (c) Falls ein System abhängig in gilt n X λj T (vj ) . j=1 wobei links bzw. rechts der Nullvektor von (vj , j ∈ J) linear abhängig in V V bzw. W steht. ist, dann ist das System (T (vj ), j ∈ J) linear W. Beweis: also ist gibt es Wegen Zu (a): Folgt durch Induktion über n aus der Denition der linearen Abbildung. Zu (b): 0 = 0+0, T (0) = T (0) + T (0), und daraus folgt T (0) = 0. Zu (c): Nach Denition der linearen PnAbhängigkeit j1 , . . . , jn ∈ J und λ1 , . . . , λn P ∈ K, wobei nicht alle λk verschwinden, so dass 0 = k=1 λk vjk ist. n (a) und (b) folgt hieraus 0 = λ T v , woraus sich die Behauptung ergibt. 2 k j k k=1 Aufgabe 6.1.4 Funktionen f : D −→ R, mit D ⊂ R, kann man sich über ihren Graphen in R2 ver- anschaulichen. Finde heraus, wie man an diesem Graphen erkennt, ob eine solche Funktion eine lineare Abbildung in obigem Sinne ist. 6.2 Kern und Bild Denition 6.2.1 Für T ∈ L(V, W ) heiÿen Kern T = {v ∈ V : T v = 0} der Kern von T , und Bild T = {w ∈ W : ∃ v ∈ V mit T v = w} das Bild von T . Für A ⊂ V sei T (A) = {T v : v ∈ A} gesetzt. Insbesondere ist also T (V ) = Bild T . Satz 6.2.2 Für jedes T ∈ L(V, W ) gilt: (a) Kern T ist ein Unterraum von dim (b) Kern T (c) Genau dann ist (d) Falls W T + dim V, Bild T ist ein Unterraum von Bild T W. = dim V . injektiv, wenn Kern T = {0}. endlich-dimensional ist, dann ist T genau dann surjektiv, wenn dim Bild T = dim W ist. Beweis: Zu (a): Für v1 , v2 ∈ Kern T und λ1 , λ2 ∈ K gilt T (λ1 v1 + λ2 v2 ) = λ1 T v1 + λ2 T v2 = 0, da T v1 = T v2 = 0 ist. Also folgt λ1 v1 +λ2 v2 ∈ Kern T . Für w1 , w2 ∈ Bild T gibt es v1 , v2 ∈ V mit T vj = wj , und für λ1 , λ2 wie oben folgt λ1 w1 + λ2 w2 = T (λ1 v1 + λ2 v2 ) ∈ Bild T . Zu (b): Falls dim Kern T = ∞ ist, muss auch V unendlich-dimensional sein, und es ist nichts zu zeigen. Falls dim Bild T = ∞ ist, gibt es ein abzählbar-unendliches System (wj , j ∈ N) in Bild T , welches linear unabhängig ist, und zu jedem j ∈ N existiert ein vj ∈ V mit T vj = wj . Nach Satz 6.1.3 (c) muss (vj , j ∈ N) in V linear unabhängig sein, und deshalb ist auch dim V = ∞, so dass nichts mehr zu zeigen ist. Seien jetzt Kern T und Bild T beide endlichdimensional, und sei (v1 , . . . , vn ) bzw. (w1 , . . . , wm ) Basis von Kern T bzw. Bild T . Zu jedem wj existiert ein Urbild in V , welches wir mit vn+j bezeichnen. Der Beweis von (b) ist erbracht, wenn wir nachweisen, Pn+m dass (v1 , . . . , vn+m ) eine Basis von V ist. Dazu seien λj ∈ K so, dass 0 = j=1 λj vj gilt. Dann folgt Pm wegen T vj = 0 für j = 1, . . . , n, dass 0 = λ w ist. Wegen der linearen Unabhängigkeit von j=1 n+j j Pn (w1 , . . . , wm ) folgt hieraus λk = 0 für k = n + 1, . . . , n + m. Also ergibt sich 0 = j=1 λj vj , woraus aber wegen der linearen Unabhängigkeit von (v1 , . . . , vn ) folgt, dass auch λk = 0 für k = 1, . . . , n gilt. Das zeigt insgesamt die lineare Unabhängigkeit von (v1 , . . . , vn+m ). Sei jetzt v ∈ V , und sei w = T v . Dann gibt es 55 Pm Pm Pm α1 , . . . , αm ∈ K mit w = j=1 αj wj . Für ṽ = v − j=1 αj vn+j folgt dann T ṽ = w − j=1 αj wj = 0, Pn und somit ist ṽ ∈ Kern T . Daher gibt es β1 , . . . , βn ∈ K mit ṽ = j=1 βj vj , und somit ist gezeigt, dass (v1 , . . . , vn+m ) ein Erzeugendensystem für V ist. Die Beweise der Teile (c) und (d) stellen wir als Übungsaufgabe. 2 Aufgabe 6.2.3 Beweise die Teile (c), (d) der vorausgegangenen Satzes. Aufgabe 6.2.4 Bestimme Kern und Bild der Abbildungen aus Beispiel 6.1.2. Denition 6.2.5 Die Dimension des Bildes von T ∈ L(V, W ) heiÿt auch der Rang von T . Für w ∈ W T −1 (w) für die Menge aller v ∈ V mit T v = w. Also besteht T −1 (w) aus allen Lösungen −1 der Gleichung T v = w , und T (0) ist gerade der Kern von T . Beachte aber, dass diese Bezeichung nicht etwa impliziert, dass T injektiv oder sogar bijektiv ist! schreiben wir Aufgabe 6.2.6 TA von Matrix n K A. Satz 6.2.7 m×n Eine Matrix A ∈ K legt nach Beispiel 6.1.2 durch m in K fest. Zeige dass der Rang dieser linearen Abbildung Sei T ∈ L(V, W ), (a) Genau dann ist (b) Für w∈ und sei T −1 (w) 6= ∅, Bild T ist T −1 (w) w∈W wenn x 7−→ A x eine TA dasselbe ist lineare Abbildung wie der Rang der fest gewählt. Dann gilt: w ∈ Bild T ist. eine lineare Mannigfaltigkeit; genauer: Ist v0 ∈ T −1 (w) beliebig ausge- wählt, so ist T −1 (w) = v0 + Insbesondere ist die Dimension von Beweis: T −1 (w) Kern T . immer gleich der Dimension von Kern T . T −1 (w). Für (b) sei v ∈ Kern T ; dann ist T (v0 + v) = T v0 + T v = w + 0 = w, und deshalb ist v + v0 ∈ T −1 (w). Umgekehrt sei v ∈ T −1 (w), dann ist T (v − v0 ) = T v − T v0 = w − w = 0, also v − v0 ∈ Kern T . 2 Aussage (a) ist klar nach Denition von Aufgabe 6.2.8 Vergleiche die Ergebnisse dieses Abschnittes mit denen aus Abschnitt 3.2 über die Struk- tur der Lösungsmenge eines linearen Gleichungssystems. 6.3 Lineare Abbildungen und Basen Besonders in unendlich-dimensionalen Vektorräumen ist es nicht sofort klar, ob und wieviele lineare Abbildungen es gibt. Wir wollen die Frage für den Fall beantworten, dass wir eine Basis des Urbildraums V kennen und zeigen, dass eine lineare Abbildung durch Angabe ihrer Bilder der Basisvektoren eindeutig festgelegt ist, dass man aber andererseits diese Bilder beliebig vorgeben kann. Satz 6.3.1 (Existenz von linearen Abbildungen) J) beliebig ist. Dann gibt es genau T vj = wj 56 (vj , j ∈ J) eine Basis von V , und sei (wj , j ∈ der gleichen Gröÿe wie die Basis, aber sonst Sei W , welches also von ein T ∈ L(V, W ) mit ein System von Vektoren aus ∀ j∈J. (6.3.1) Beweis: P v ∈ V gegeben, so gibt es eindeutig bestimmte αj ∈ K mit v = j∈J αj vj , wobei nur endlich viele αj nicht gleich 0 sind. Wenn T ∈ L(V, W ) und (6.3.1) erfüllt ist, dann muss gelten T v = P P . Umgekehrt denieren wir jetzt eine Abbildung T von V nach W durch j T vj = j∈J α j∈J αj wjP P P T v = j∈J αj wj . Für ṽ = j∈J α̃j vj ∈ V und α, β ∈ K gilt dann α v + β ṽ = j∈J α αj + β α̃j vj , P und deshalb folgt T (α v + β ṽ = j∈J α αj + β α̃j wj = α T v + β T ṽ . Also ist die Abbildung T linear. 2 Ist Aufgabe 6.3.2 Zeige: Ist Denition 6.3.3 dim V = n < ∞ und dim W = m < ∞, Eine bijektive lineare Abbildung so folgt dim L(V, W ) = n m. T : V −→ W heiÿt ein Isomorphismus. Falls V und W auch isomorph. Falls W = V solcher Isomorphismus existiert, so heiÿen die Vektorräume ein ist, sagen wir statt Isomorphismus auch Automorphismus. Korollar zu Satz 6.3.1 Unter den Voraussetzungen von Satz 6.3.1 ist die lineare Abbildung dann ein Isomorphismus. wenn (wj , j ∈ J) eine Basis von W T genau ist. Beweis: Sei (wj , j ∈ J) eine Basis. Dann gibt es zu w ∈ W eindeutig bestimmte αj ∈ K mit w = P αj wj , wobei nur endlich viele αj nicht gleich 0 sind. Also gibt es genau ein v ∈ V , und zwar j∈JP v = j∈J αj vj , für welches w = T v gilt. Deshalb ist T ein Isomorphismus. Umgekehrt, wenn T ein Isomorphismus ist, gibt es zu jedem w ∈ W genau ein Urbild v ∈ V mit T v = w . Zu diesem v gibt es P eindeutig bestimmte αj ∈ K mit v = j∈J αj vj , wobei nur endlich viele αj nicht gleich P P0 sind, und es folgt w = α w . Daher ist (w , j ∈ J) ein Erzeugendensystem. Setzt man 0 = j j∈J j j j∈J αj wj und beachtet dass T v = 0 genau für v = 0 gilt, so folgt analog die lineare Unabhängigkeit des Systems (wj , j ∈ J). 2 Beispiel 6.3.4 Basis von V. Sei V ein n-dimensionaler Vektorraum über K, und sei das System (v1 , . . . , vn ) eine Die Koordinatenabbildung v= n X α j vj 7−→ (α1 , . . . , αn )T j=1 n ist nach Aufgabe 6.1.2 ein Isomorphismus von V auf K . Also ist jeder n-dimensionale Vektorraum zu n K isomorph, und die Koordinatenabbildung heiÿt auch kanonischer Isomorphismus. Beachte aber, dass man erst von dem kanonischen Isomorphismus sprechen kann, nachdem man eine Basis für V gewählt hat. Proposition 6.3.5 Eine Hintereinanderausführung zweier linearer Abbildungen ist ebenfalls linear. Die Umkehrabbildung eines Isomorphismus ist wieder ein Isomorphismus. Beweis: Für Seien U, V, W Vektorräume u1 , u2 ∈ U , λ1 , λ2 ∈ K gilt dann T (λ1 v1 + λ2 v2 ) Also ist T ∈ L(U, W ). Sei jetzt über K, und seien T1 ∈ L(U, V ), T2 ∈ L(V, W ), sowie T = T2 ◦T1 . = T2 T1 (λ1 v1 + λ2 v2 ) = T2 λ1 T (v1 ) + λ2 T (v2 ) = λ1 T2 T1 (v1 ) + λ2 T2 T1 (v2 ) = λ1 T (v1 ) + λ2 T (v2 ) . T ∈ L(V, W ) ein Isomorphismus, also bijektiv. Für gilt dann T (λ1 v1 + λ2 v2 ) = λ1 T (v1 ) + λ2 T (v2 ) . 57 v1 , v2 ∈ V , λ1 , λ2 ∈ K w1 = T (v1 ), w2 = T (v2 ), also v1 = T −1 (w1 ), v2 = T −1 (w2 ), −1 Anwendung von T auf beide Seiten Mit folgt aus dieser Gleichung durch T −1 (λ1 w1 + λ2 w2 ) = λ1 v1 + λ2 v2 = λ1 T −1 (w1 ) + λ2 T −1 (w2 ) . Also ist T −1 2 linear. Aufgabe 6.3.6 Überprüfe, dass der Begri der Isomorphie eine Äquivalenzrelation auf der Menge aller Vektorräume ist. Satz 6.3.7 K. Sei V ein Raum über Für einen Isomorphismus K mit Skalarprodukt, und T ∈ L(V, W ) denieren wir sei hw1 , w2 iT = hT −1 w1 , T −1 w2 i Dann ist Beweis: T h · , · iT Für −1 für w2 und T h · , · iT . ein inneres Produkt auf W ein zu V isomorpher Vektorraum über ∀ w1 , w2 ∈ W . W. ∈ W und λ ∈ K gilt wegen der Linearität von T −1 , dass T −1 (w1 + w2 ) = T −1 w1 + (λ w2 ) = λ T −1 w2 ist, und daraus folgen leicht die vier Axiome des inneren Produktes 2 w1 , w2 −1 6.4 Isomorphie und Dimension Satz 6.4.1 Für beliebige Vektorräume (a) Falls es ein injektives V (c) Falls dim V = dim W < ∞ Beweis: W T ∈ L(V, W ) (b) Falls und V isomorph sind, folgt ist, sind und W über dem gleichen Körper gibt, folgt K gilt: dim W ≥ dim V . dim V = dim W . V und W isomorph. T ∈ L(V, W ) injektiv, und sei (vj , j ∈ J) ein linear in V . Pn unabhängiges System Pn j1P , . . . , jn ∈ J und λ1 , . . . , λn ∈ K, dass 0 = k=1 λk T vjk = T k=1 λk vjk n genau dann gilt, wenn 0 = k=1 λk vjk ist, denn der Kern von T besteht nur aus dem Nullvektor. Daraus folgt, dass alle λk = 0 sein müssen. Also ist das System der Bilder (T vj , j ∈ J) linear unabhängig in W . Wenn V unendlich-dimensional ist, gibt es ein abzählbar-unendliches System in V , und dann auch in W , und somit ist auch W unendlich-dimensional. Im anderen Fall gibt es in V eine Basis (v1 , . . . , vn ), mit n = dim V , und dann ist (T v1 , . . . , T vn ) jedenfalls linear unabhängig in W . Also ist dim W ≥ n. −1 Zu (b): Sei T ∈ L(V, W ) ein Isomorphismus. Dann folgt aus (a), dass dim W ≥ dim V ist. Da T ∈ L(W, V ) ebenfalls injektiv ist, folgt auch die umgekehrte Ungleichung. Zu (c): Wähle Basen von V und W ; diese enthalten nach Voraussetzung gleich viel Vektoren. Aus dem Korollar zu Satz 6.3.1 folgt dann die Behauptung. 2 Zu (a): Sei ein Dann folgt für beliebige Wegen der Wichtigkeit formulieren wir noch folgende direkte Konsequenz dieses Satzes: Korollar zu Satz 6.4.1 Zwei endlich-dimensionale Vektorräume über K sind genau dann isomorph, wenn sie dieselbe Dimension haben. Aufgabe 6.4.2 Sei dim V = dim W < ∞. Zeige: Wenn ein ist es bereits ein Isomorphismus. 58 T ∈ L(V, W ) surjektiv bzw. injektiv ist, dann 6.5 Der Dualraum, die duale Abbildung Denition 6.5.1 Für jeden Vektorraum V über K heiÿt L(V, K), also die Menge aller linearen Abbil- in den Körper K, der zu V (algebraisch) duale Raum, oder kurz der Dualraum zu V , und ∗ ∗ wir schreiben V für diesen Raum. Jedes f ∈ V heiÿt auch lineares Funktional oder Linearform auf V . ∗ ∗ ∗ ∗ Für ein T ∈ L(V, W ) und f ∈ W ist f ◦T ∈ V . Die Abbildung f 7−→ f ◦T bildet also W nach V ab ∗ und wird mit T bezeichnet und die zu T duale Abbildung genannt. dungen von V Aufgabe 6.5.2 Lemma 6.5.3 Beweis: Für Sei V endlich-dimensional. Zeige: Für jedes Für jedes T ∈ L(V, W ) f1 , f2 ∈ W ∗ und v ∈ V \{0} gibt es ein f ∈ V ∗ ist die duale Abbildung α1 , α2 ∈ V T∗ gilt nach Denition von linear, also mit f (v) 6= 0. T ∗ ∈ L(W ∗ , V ∗ ). T∗ T ∗ (α1 f1 + α2 f2 ) = (α1 f1 + α2 f2 )◦T = α1 T ∗ f1 + α2 T ∗ f2 , 2 und das war zu zeigen. Satz 6.5.4 Wenn V endlich-dimensional ist, gilt dim V = dim V ∗ , und insbesondere sind V und V∗ isomorph. Beweis: dim V = 0 ist, wenn also V nur aus dem Nullvektor besteht, dann ist die einzige V in K die Nullabbildung. Also gilt in diesem Fall die Behauptung. Sei jetzt 1 ≤ dim V = n < ∞, und sei (v1 , . . . , vn ) eine Basis von V . Aus Satz 6.3.1 folgt die Existenz von ∗ f1 , , . . . , fn ∈ V ∗ mit der Eigenschaft fk (vP j ) = δjk für 1 ≤ j, k ≤ n. Für ein beliebiges f ∈ V seien dann n f (vj ) = αj für j = 1, . . . , n. Für g = f − j=1 αj fj folgt dann f (vk ) = 0 für k = 1, . . . , n, und deshalb ∗ ist g die Nullabbildung. Also ist (f1 , . . . , fn ) Erzeugendensystem von V . Für die lineare Unabhängigkeit Pn Pn sei 0 = j=1 αj fj , d. h. genauer, 0 = j=1 αj fj (v) für alle v ∈ V . Einsetzen von vk zeigt dann 0 = λk , ∗ und daher ist (f1 , . . . , fn ) Basis von V . 2 Wenn lineare Abbildung von Satz 6.5.5 morphismus von Beweis: V und W beide endlich-dimensional L(V, W ) auf L(W ∗ , V ∗ ). Wenn Für T1 , T2 ∈ L(V, W ) und α1 , α2 ∈ K sei sind, dann ist die Abbildung T = α1 T1 + α2 T2 . T 7−→ T ∗ Dann gilt für jedes ein Iso- f ∈ W ∗: f ◦T = α1 f ◦T1 + α2 f ◦T2 = α1 T1∗ (f ) + α2 T2∗ (f ) , L(V, W ) in L(W ∗ , V ∗ ). ∗ Wenn T = 0, d. h., gleich der Nullabbildung ist, dann folgt per Denition f (T (v)) = 0 für alle f ∈ W und alle v ∈ V . Dies impliziert aber nach Aufgabe 6.5.2 dass T (v) = 0 ist für alle v ∈ V , und daher ist T die Nullabbildung in L(V, W ). Also ist die Abbildung T 7−→ T ∗ injektiv. Aus Aufgabe 6.3.2 folgt aber ∗ ∗ ∗ dass L(V, W ) und L(W , V ) die gleiche Dimension haben, und deshalb ist T 7−→ T auch surjektiv. 2 und deshalb ist ∗ T ∗ = α1 T1∗ + α2 T2∗ . Also ist T 7−→ T ∗ eine lineare Abbildung von 6.6 Die adjungierte Abbildung Im Folgenden betrachten wir endlich-dimensionale Vektorräume mit inneren Produkten und führen die sogenannte adjungierte Abbildung ein. Diese hängt eng mit der dualen Abbildung zusammen. 59 Denition 6.6.1 Sei V und W Vektorräume über K. Eine Abbildung T : V −→ W heiÿt semilinear, wenn • ∀ v1 , v2 ∈ V : • ∀ λ ∈ K, v ∈ V : Im Fall K=R Lemma 6.6.2 f ∈V∗ T (v1 + v2 ) = T v1 + T v2 . T (λ v) = λ T v . ist also Semilinearität das gleiche wie Linearität, aber nicht wenn V ein wf ∈ V Sei genau ein endlich-dimensionaler Raum über f 7−→ wf ist. mit Skalarprodukt. Dann gibt es zu jedem so, dass f (v) = hwf , vi Die Abbildung K K=C ∀v∈V . ist bijektiv und semilinear. Beweis: P Sei (v1 , . . . , vn ) eine Orthonormalbasis von V . Dann hat jedes v ∈ V die Darstellung v = Pn n ∗ hv , vi vk . Für k k=1 Pnf ∈ V setzen wir αk = f (vk ) für k = 1, . . . , n. Dann folgt f (v) = k=1 αk hvk , vi = hwf , vi mit wf = k=1 αk vk . Also gibt es ein wf wie behauptet. Dieses wf ist durch f eindeutigPfestgelegt, n denn aus hw1 − w2 , vi = 0 für alle v ∈ V folgt w1 = w2 . Die Semilinearität von f 7−→ wf = k=1 αk vk kann leicht nachgeprüft werden. 2 Bemerkung 6.6.3 Wir betrachten jetzt zwei endlich-dimensionale Räume V und W über K mit SkaT ∈ L(V, W ). Die duale Abbildung T ∗ bildet dann W ∗ nach V ∗ ab. Zu f ∈ W ∗ ∗ ∗ gehört dann nach Lemma 6.6.2 genau ein wf ∈ W , und zu g = T f ∈ V gibt es aus demselben Grund ad ein wg ∈ V . Wir können also eine Abbildung T : W −→ V denieren durch larprodukten, sowie ein T ad (wf ) = wg , g = T ∗f , ∀ f ∈ W∗ . ad sind beide semilinear, aber die Abbildung wf 7−→ T (wf ) = wg ∗ ad ist linear, wie man leicht überprüft. Mit Hilfe der Denition von T folgt für die Abbildung T die Die Abbildungen f 7−→ wf und g 7−→ wg Beziehung hT ad w, vi = hw, T vi Wir bemerken noch, dass die Zuordnung L(W, V ) T 7−→ T ad ∀v∈V , w∈W. eine bijektive semilineare Abbildung von (6.6.1) L(V, W ) auf ist. Denition 6.6.4 Seien V und W Räume über K mit Skalarprodukten, und sei T ∈ L(V, W ). Eine T ad ∈ L(W, V ) heiÿt zu T adjungiert, falls (6.6.1) gilt. Es folgt leicht, dass es zu T höchstens ad eine adjungierte Abbildung geben kann, und aus der obigen Bemerkung folgt die Existenz von T falls V und W beide endlich-dimensional sind. Ein Endomorphismus T ∈ L(V ) heiÿt selbstadjungiert, falls T ad = T ist, falls also immer gilt Abbildung hT v1 , v2 i = hv1 , T v2 i Wir nennen einen Endomorphismus und mit T T ∈ L(V ) ∀ v1 , v2 ∈ V . auch normal, falls die adjungierte Abbildung kommutiert, d. h., falls gilt T ad ◦T = T ◦T ad . Oenbar ist jeder selbstadjungierte Endomorphismus auch normal. Aufgabe 6.6.5 (Rechenregeln für adjungierte Abbildungen) Seien V und W Räume über K mit Skalarprodukten. Zeige folgende Regeln: 60 T ad existiert (a) Wenn zu T ∈ L(V, W ) eine adjungierte Abbildung adjungierte Abbildung wieder gleich T ad ∈ L(W, V ) existiert, dann ist die zu T ad T. λ1 , λ2 ∈ K und T1 , T2 ∈ L(V, W ). Wenn zu T1 bzw. T2 adjungierte Abbildungen T1ad , T2ad ∈ L(W, V ) existieren, dann existiert auch die adjungierte Abbildung für λ1 T1 + λ2 T2 , und (b) Seien λ1 T1 + λ2 T2 id (c) Die identische Abbildung ad = λ1 T1ad + λ2 T2ad . sowie die Nullabbildung auf V sind selbstadjungiert. Für die Hintereinanderausführung von Abbildungen vergleiche die folgende Proposition. Proposition 6.6.6 T2 ∈ L(V, W ) Seien U, V, W die adjungierte Abbildung zu Beweis: Für Räume über mit den adjungierten Abbildungen K mit Skalarprodukten, und seien T1 ∈ L(U, V ) und T1ad ∈ L(V, U ) und T2ad ∈ L(W, V ). Dann ist T1ad ◦T2ad T2 ◦T1 . u ∈ U, v ∈ V , w ∈ W gilt nach Denition der adjungierten Abbildungen hT1ad v, ui = hv, T1 ui , hT2ad w, vi = hw, T2 vi . v = T2ad w, so folgt hT1ad T2ad w, ui = hT2ad w, T1 ui, und wenn man dann v = T1 u einsetzt, so folgt hT2ad w, T1 ui = hw, T2 T1 ui, und das war zu zeigen. Setzt man links Gleichung Aufgabe 6.6.7 hv, T vi Sei V ein Raum über K mit Skalarprodukt, und sei ist immer eine reelle Zahl, auch wenn Aufgabe 6.6.8 x 7−→ A x Zeige: Für V = Kn K=C T ∈ L(V ) 2 selbstadjungiert. Zeige: ist. mit dem kanonischen Skalarprodukt, und genau dann selbstadjungiert, wenn in der zweiten T A =A A ∈ Kn×n ist die Abbildung ist. 6.7 Längentreue Abbildungen Denition 6.7.1 Seien V, W Räume über K mit Skalarprodukten. Ein T ∈ L(V, W ) heiÿt längentreu, falls ∀v∈V : kT vk = kvk , und längen- und winkeltreu, falls ∀ v1 , v2 ∈ V : hT v1 , T v2 i = hv1 , v2 i . Beachte, dass in beiden Bedingungen rechts die Norm bzw. das Skalarprodukt in das Skalarprodukt in W V, links die Norm bzw. steht. Oenbar ist jede längen- und winkeltreue Abbildung auch längentreu. Dass auch die Umkehrung dieser Aussage gilt, folgt aus dem nächsten Satz. Für K=R bzw. K=C nennt man eine längen- und winkeltreue Abbildung auch orthogonal bzw. unitär. Satz 6.7.2 Seien V, W Räume über K mit Skalarprodukten. Dann ist jedes längentreue T ∈ L(V, W ) auch injektiv und längen- und winkeltreu. Beweis: Die Injektivität folgt leicht, weil aus dies genau dann, wenn kvk = 0 0=Tv folgt dass 0 = kT vk ist, und bei Längentreue gilt ist. Die Winkeltreue folgt aus Aufgabe 5.2.2. 61 2 Satz 6.7.3 von V. V, W Seien K mit Skalarprodukten, und sei (vj , j ∈ J) eine Orthonormalbasis T ∈ L(V, W ) längentreu, wenn das System (T vj , j ∈ J) wieder ein Ortho- Räume über Genau dann ist ein normalsystem ist. Beweis: Sei T längentreu. Dann folgt für j, k ∈ J , dass hT vj , T vk i = hvj , vk i = δjk ist, und deshalb ist (T vj , j ∈ J) ein Orthonormalsystem. Umgekehrt,P sei (T vj , j ∈ J) ein Orthonormalsystem. Für v ∈ V Pn n gibt es j1 , . . . , jn ∈ J und α1 , . . . , αn ∈ K mit v = αk vjk , und aus (5.4.1) folgt kvk2 = k=1 |αk |2 . k=1 Pn P n 2 2 Für w = T v = 2 k=1 αk T vjk folgt genauso kT vk = k=1 |αk | , und deshalb ist T längentreu. Satz 6.7.4 Seien T ∈ L(V, W ) Beweis: Mit V, W Räume über K mit Skalarprodukten. Dann besitzt jedes längentreue und surjektive T ad = T −1 . Im Fall W = V ist T auch normal. eine adjungierte Abbildung, und Eine längentreue und surjektive Abbildung ist bijektiv, und somit existiert T v1 = w1 , also v1 = T −1 w1 , T −1 ∈ L(W, V ). folgt aus der Denition der Winkeltreue (was ja dasselbe wie die Längentreue ist), dass hw1 , T v2 i = hT −1 w1 , v2 i ∀ w1 ∈ W , v2 ∈ V . Bis auf die Bezeichnungen ist dies gleich (6.6.1), wenn man denn die Normalität für W =V folgt, da T ◦T −1 =T −1 T ad durch T −1 ersetzt, und das war zu zeigen, 2 ◦T ist. Aufgabe 6.7.5 treu von K n m×n Zeige: Für eine Matrix A ∈ K ist die Abbildung x 7−→ A x genau dann längenm m in K , wenn die Spalten von A ein Orthonormalsystem in K bezüglich des kanonischen Skalarprodukts bilden. Warum folgt daraus Aufgabe 6.7.6 Die lineare welches m ≥ n? V = W = R2 mit dem kanonischen Skalarprodukt, und sei A ∈ R2×2 . Zeige: 2 Abbildung x 7−→ A x von R in sich ist genau dann längentreu, wenn es ein φ ∈ R gibt, für " # " # cos φ − sin φ cos φ sin φ A = oder A = . sin φ cos φ sin φ − cos φ Seien jetzt Wodurch unterscheiden sich diese beiden Fälle? Interpretiere beide Fälle geometrisch. 6.8 Denite Endomorphismen Denition 6.8.1 phismus T ∈ L(V ) Sei ist V ein Raum über K hv, T vi für alle v ∈ V (a) positiv denit, falls (b) negativ denit, falls hv, T vi > 0 hv, T vi < 0 (c) positiv semidenit, falls (d) negativ semidenit, falls (e) indenit, falls v2 ∈ V nach Aufgabe 6.6.7 eine reelle Zahl. Wir nennen gilt für alle gilt für alle hv, T vi ≥ 0 hv, T vi ≤ 0 hv1 , T v1 i > 0 mit Skalarprodukt. Für einen selbstadjungierten Endomor- T v ∈ V \ {0}, v ∈ V \ {0}, gilt für alle gilt für alle v ∈V, v ∈V, gilt für mindestens ein v1 ∈ V , während hv2 , T v2 i < 0 für ein anderes gilt. Beachte, dass für jeden sebstadjungierten Endomorphismus immer einer dieser Fälle eintritt. Die Menge L(V ) ist also die Vereinigung von fünf Teilmengen, die jeweils alle Endomorphismen mit derselben Denitheitseigenschaft umfassen. Dabei sind die positiv bzw. negativ deniten Endomorphismen in der Menge der positiv bzw. negativ semideniten enthalten. 62 Aufgabe 6.8.2 Zeige dass die identische Abbildung auf Aufgabe 6.8.3 Für a, c ∈ R, b ∈ C positiv denit ist. sei A = Zeige, dass die Abbildung V x 7−→ A x von C2 a b b c . in sich selbstadjungiert ist, und stelle fest, für welche a, b, c diese Abbildung positiv oder negativ denit oder semidenit bzw. indenit ist. Satz 6.8.4 L(V ) Sei V ein Raum über K mit Skalarprodukt, und seien T ∈ L(V ) selbstadjungiert und U ∈ U −1 T U selbstadjungiert, und T und U −1 T U haben die- längentreu und surjektiv. Dann ist auch selbe Denitheitseigenschaft. Beweis: von U −1 U ad = U −1 , und daher folgt aus für v1 , v2 ∈ V und ṽj = U vj , dass Nach Satz 6.7.4 ist T U. Weiter folgt Proposition 6.6.6 die Selbstadjungiertheit hv1 , U −1 T U v2 i = hU ad T U v2 , v1 i = hT U v2 , U v1 i = hṽ1 , T ṽ2 i . Für v2 = v1 = v , also ṽ2 = ṽ1 = ṽ , folgt hieraus hv, U −1 T U vi = hṽ, T ṽi. U Da bijektiv ist, folgt die 2 Behauptung. 6.9 Eigenwerte und Eigenvektoren Denition 6.9.1 T ∈ L(V ), V Vektorraum über K. Ein λ ∈ K v ∈ V \ {0} existiert, für welches Sei falls ein heiÿt ein Eigenwert eines Endomorphismus T v = λv ist. Jeder solche Vektor v heiÿt dann ein Eigenvektor von (6.9.1) T zum Eigenwert λ. Die Menge aller einschlieÿlich des Nullvektors, welche die Gleichung (6.9.1) erfüllen, heiÿt der Eigenraum von v ∈ V, T zum λ. Beachte, dass die Denition des Eigenraums formal auch sinnvoll ist, wenn λ kein Eigenwert T heiÿt diagonalisierbar, falls es eine Basis von V gibt, welche aus Eigenvektoren von T besteht. Eigenwert von T ist dann allerdings besteht der Eigenraum nur aus dem Nullvektor. Ein Endomorphismus Bemerkung 6.9.2 Genau dann ist id nicht injektiv ist; dabei soll Der Eigenraum von T λ T , wenn die Abbildung T − λ id id v = v für alle v ∈ V erfüllen. der Kern der Abildung T − λ id. In aufbauenden λ einen Spektralwert von T , wenn T − λ id nicht Eigenwert eines Endomorphismus die identische Abbildung auf zum Eigenwert λ ist also genau Vorlesungen, z. B. über Funktionalanalysis, nennt man V sein, also bijektiv ist. Also ist ein Eigenwert immer auch Spektralwert, aber im Allgemeinen gilt die Umkehrung nicht. Wegen Aufgabe 6.4.2 gilt aber: Wenn V endlich-dimensional ist, dann ist jeder Spektralwert auch ein Eigenwert. Aufgabe 6.9.3 Genau dann ist Sei V Vektorraum über K, und sei T ∈ L(V ) bijektiv, also ein Isomorphismus. Zeige: λ ∈ K ein Eigenwert von T , wenn λ−1 ein Eigenwert von T −1 ist. Insbesondere ist λ = 0 niemals Eigenwert einer injektiven Abbildung. Proposition 6.9.4 Sei T ein Endomorphismus eines Vektorraumes System von Eigenvektoren von ∀j∈J : Dann ist das System T T vj = λj vj , (vj , j ∈ J) V über zu paarweise verschiedenen Eigenwerten ∀ j, k ∈ J : linear unabhängig. 63 λj ; und sei (vj , j genauer gelte K, j 6= k =⇒ λj 6= λk . ∈ J) ein Beweis: (v1 , . . . , vn ) zu betrachten, n. Für n = 1 ist die Behauptung da ein Eigenvektor Pklar, n α nie der Nullvektor ist. Sei jetzt also n ≥ 2, und seien α1 , . . . , αn ∈ K so, dass k vk = 0 ist. Dann k=1 Pn Pn folgt 0 = T (0) = k=1 αk T (vk ) = k=1 αk λk vk . Durch Kombination dieser Gleichungen folgt Für den Beweis genügt es wegen Aufgabe 1.4.5, ein endliches System und wir geben den Beweis durch Induktion über 0 = n X αk λk vk − λn n X k=1 αk vk = k=1 n−1 X αk λk − λn vk . k=1 (v1 , . . . , vn−1 ) linear unabhängig, und daher folgt 0 = αk λk − λn für 1 ≤ k ≤ n − 1. Nach Voraussetzung ist λk 6= λn für k ≤ n − 1, und somit folgt 0 = αk für k ≤ n − 1. Dann ist aber αn vn = 0, woraus wegen vn 6= 0 folgt, dass auch αn = 0 ist. 2 Wegen der Induktionshypothese ist das System Satz 6.9.5 Sei T ein Endomorphismus eines Raumes |λ| = 1 V mit Skalarprodukt. (a) Wenn T längentreu ist, so ist (b) Wenn T selbstadjungiert ist, dann sind alle Eigenwerte von für alle Eigenwerte λ von T T. reell, und Eigenvektoren zu verschie- denen Eigenwerten sind orthogonal zueinander. (c) Wenn T positiv bzw. negativ denit ist, dann sind alle Eigenwerte von positiv bzw. negativ semidenit ist, dann sind alle Eigenwerte von (d) Wenn T T T T ad normal und v ein Eigenvektor von zum Eigenwert λ. T zum Eigenwert λ positiv bzw. negativ, wenn T nichtnegativ bzw. nichtpositiv. einen positiven und einen negativen Eigenwert hat, dann ist (e) Wenn von T T indenit. ist, dann ist v auch Eigenvektor Auÿerdem stehen Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal zueinander. Beweis: T v = λ v folgt kT vk = |λ| kvk, und daraus folgt (a). Zu (b): Aus (6.6.1) folgt für ein T die Gleichung hT v1 , v2 i = hv1 , T v2 i für alle v1 , v2 ∈ V . Wenn T v = λ v ist, folgt λ hv, vi = hv, λvi = hv, T vi = hT v, vi = λ hv, vi, und da hv, vi = kvk2 6= 0 ist, folgt hieraus λ = λ, also λ ∈ R. Sei jetzt T vj = λj vj für j = 1 und j = 2. Dann folgt (da ja λj ∈ R sein muss) Aus selbstadjungiertes (λ1 − λ2 ) hv1 , v2 i = hλ1 v1 , v2 i − hv1 , λ2 v2 i = hT v1 , v2 i − hv1 , T v2 i . T selbstadjungiert ist, verschwindet die rechte Seite dieser Gleichung, und falls λ1 6= λ2 ist, folgt hv1 , v2 i = 0. Zu (c),(d): Folgt aus der jeweiligen Denition und der Gleichung λ kvk2 = λ hv, vi = hv, T vi für jeden Eigenvektor v zum Eigenwert λ. Zu (e): Wenn T normal ist, dann zeigt man mit Aufgabe 6.6.5, ad dass auch T − λ id normal ist, denn (T − λ id) = T ad − λ id, und die identische Abbildung kommutiert mit jedem Endomorphismus. Deshalb reicht es, wenn wir den Fall λ = 0, also T v = 0, betrachten. In Da diesem Fall gilt aber hT ad v, T ad vi = hv, T ◦T ad vi = hv, T ad ◦T vi = hT v, T vi . T v = 0 ist genau wenn T ad v = 0 ausfällt. Sei jetzt wieder T vj = λj vj , j = 1 und j = 2. Dann folgt (da jetzt die Eigenwerte nicht immer reell sind) Daraus ergibt sich aber, dass also auch T ad vj = λj vj für (λ1 − λ2 ) hv1 , v2 i = hλ1 v1 , v2 i − hv1 , λ2 v2 i = hT ad v1 , v2 i − hv1 , T v2 i . Aus der Denition der adjungierten Abbildung folgt aber dann dass die rechte Seite verschwindet. 64 2 Kapitel 7 Lineare Abbildungen und Matrizen In diesem Kapitel seien V beiden habe die Dimension und 0, W immer endlich-dimensionale Vektorräume über K, und keiner von also beide enthalten mehr als nur den Nullvektor. 7.1 Die Darstellungsmatrix Denition 7.1.1 lineare Abbildung Seien (v1 , . . . , vn ) bzw. (w1 , . . . , wm ) fest gewählte Basen von V T ∈ L(V, W ) gibt es eindeutig bestimmte Zahlen ajk ∈ K mit T vk = m X bzw. ∀ k = 1, . . . , n . ajk wj W. Für jede (7.1.1) j=1 Die hierdurch denierte Matrix gewählten Basen Beispiel 7.1.2 (v1 , . . . , vn ) Im Fall A = [ajk ] ∈ Km×n (w1 , . . . , wm ). heiÿt die Darstellungsmatrix für T bezüglich der und V = W, also für einen Endomorphismus le (v1 , . . . , vn ) T ∈ L(V ), ist es sinnvoll, wengleich wj = vj ist für alIn dieser Situation ist die Darstellungsmatrix für die identische Abbildung gerade die n m m×n Einheitsmatrix. Für V = K und W = K deniert jede Matrix A ∈ K eine lineare Abbildung auch nicht zwangsläug, wenn wir nur eine Basis wählen, wenn also j = 1, . . . , n. x 7−→ A x zwischen diesen Räumen. Wählt man in beiden Räumen die kanonischen Basen, so ist die Darstellungsmatrix dieser Abbildung gleich Aufgabe 7.1.3 Basis von V Zeige: Ein Endomorphismus T ∈ L(V ) ist genau dann diagonalisierbar, wenn es eine gibt, bezüglich der die Darstellungsmatrix von Aufgabe 7.1.4 und sei A. T diagonal ist. V = W = Kn [t] der Raum der Polynome vom Grad ≤ n mit Koezienten in K, die Ableitung von p, für p ∈ Kn [t]. Finde die Darstellungsmatrix von T bezüglich der Sei T p = p 0, kanonischen Basis der Monome. Satz 7.1.5 Seien (v1 , . . . , vn ) bzw. (w1 , . . . , wm ) fest gewählte Basen von V bzw. W . Für jede lineare T ∈ L(V, W ) sei A = AT = [ajk ] die Darstellungsmatrix bezüglich dieserP Basen. Dann ist n m×n die Zuordnung T 7−→ AT ein Isomorphismus von L(V, W ) auf K , und für v = k=1 αk vk sowie Pm w = j=1 βj wj gilt T v = w genau dann, wenn Abbildung βj = n X ∀ j = 1, . . . , m . ajk αk k=1 65 Beweis: A ∈ Km×n ein T ∈ L(V, W ) mit (7.1.1), und deshalb ist die Zuordnung T 7−→ AT surjektiv. Sind T1 , T2 ∈ L(V, W ) mit Darstellungsmatrizen A1 und A2 , und sind α1 , α2 ∈ K, so gilt (α1 T1 + α2 T2 ) vk = α1 T1 v1 + α2 T2 vk für alle k = 1, . . . , n, und daher ist α1 A1 + α2 A2 die Darstellungsmatrix zu α1 T1 + α2 T2 . Also ist die Zuordnung T 7−→ AT linear. Wegen dim L(V, W ) = dim Km×n = n m folgt mit Aufgabe 6.4.2, dass die Abbildung T 7−→ AT auch injektiv sein muss. Der Rest des Beweises ist Inhalt der nächsten Übungsaufgabe. 2 Nach Satz 6.3.1 gibt es zu jedem Aufgabe 7.1.6 P v= n k=1 αk vk Zeige unter den Voraussetzungen und mit den Bezeichnungen des obigen Satzes: Ist Pm Pn T v = j=1 βj wj , so folgt βj = k=1 ajk αk , für j = 1, . . . , m. und Bemerkung 7.1.7 (Kommutatives Diagramm) Den Inhalt des obigen Satzes kann man sich am bes- ten folgendermaÿen einprägen: Nach Wahl der beiden Basen von V und W betrachten wir die beiden Pn n m kanonischen Isomorphismen φn : V −→ K und φm : W −→ K , die jedem Vektor v = k=1 αk vk und Pm w = j=1 βj wj ihre Koordinatenvektoren φn (v) = (α1 , . . . , αn )T und φm (w) = (β1 , . . . , βm )T zuweisen. n m Die Darstellungsmatrix A bildet K nach K ab, und es gilt A φn (v) = φm (T v) ∀v∈V . Dies wird auch durch folgendes kommutatives Diagramm veranschaulicht: −→ Rn −→ φn Beachte aber unbedingt, dass die Matrix beiden Basen in V und W T V y A W y A φm Rm und auch die kanonischen Isomorphismen erst nach Wahl der festliegen; wie diese Gröÿen sich bei Basiswechsel verändern, wird noch zu untersuchen sein. Satz 7.1.8 Seien U, V, W drei endlich-dimensionale Vektorräume über K mit Basen (u1 , . . . , ur ) bzw. (v1 , . . . , vn ) bzw. (w1 , . . . , wm ). Seien weiter T1 ∈ L(U, V ), T2 ∈ L(V, W ) und T = T2 ◦T1 . Wenn dann (2) A1 = [a(1) jk ] und A2 = [ajk ] die Darstellungsmatrizen zu T1 bzw. T2 sind, so ist die Darstellungmatrix zu T gleich dem Produkt A2 A1 , jeweils bezüglich der entsprechenden Basen. Beweis: Nach Denition der darstellenden Matrizen gilt T1 uk = n X a(1) jk vj (k = 1, . . . , r) , T 2 vk = j=1 m X a(2) jk wj (k = 1, . . . , n) . j=1 Hieraus folgt sofort T uk = n X a(1) νk T2 vν = ν=1 m X n X j=1 (2) a(1) jν aνk wj (1 ≤ k ≤ r) . ν=1 2 Dies ist die Behauptung. Korollar zu Satz 7.1.8 Seien V und W Vektorräume über K mit derselben, endlichen, Dimension n ∈ N, und seien (v1 , . . . , vn ) bzw. (w1 , . . . , wn ) fest gewählte Basen von V bzw. W . Eine lineare Abbildung T ∈ L(V, W ) ist genau dann ein Isomorphismus, wenn ihre Darstellungsmatrix A invertierbar ist, und die −1 Darstellungsmatrix zu T ∈ L(W, V ) bzgl. der Basen (w1 , . . . , wn ) und (v1 , . . . , vn ) ist gleich A−1 . Beweis: vk = T −1 T ein Isomorphismus, und (T vk ) für alle k = 1, . . . , n folgt Sei sei die Darstellungsmatrix von T −1 dann, dass die Darstellungmatrix zu mit B T −1 ◦T bezeichnet. Wegen die Einheitsmatrix B A = I . Also ist A invertierbar und B = A−1 . −1 Umgekehrt, wenn A invertierbar ist, und wenn T̃ ∈ L(W, V ) die Darstellungsmatrix A hat, so folgt −1 T̃ (T vk ) = vk für alle k = 1, . . . , n. Daraus folgt aber, dass T bijektiv und T̃ = T sein muss. 2 sein muss, und deshalb folgt mit Satz 7.1.8 die Gleichung 66 7.2 Basiswechsel Lemma 7.2.1 Sei V ein n-dimensionaler Vektorraum über K, und sei das System (v1 , . . . , vn ) eine Pn V . Für ein B = [bjk ] ∈ Kn×n seien ṽk = j=1 bjk vj für k = 1, . . . , n gesetzt. Genau dann ist (ṽ1 , . . . , ṽn ) ebenfalls Basis von V , wenn B invertierbar ist. Basis von Beweis: j= Pn Pn Pn k=1 λk ṽk = j=1 k=1 bjk λk vj genau dann wenn k=1 bjk λk = 0 ist für alle 1, . . . , n. Dies bedeutet, dass die Linearkombination der Spalten von B mit den Koezienten λk den 0= Es ist Pn Nullvektor ergibt. Die Invertierbarkeit von Spalten von B, B ist gleichbedeutend mit der linearen Unabhängigkeit der und dies ist somit dasselbe wie die lineare Unabhängigkeit von (ṽ1 , . . . , ṽn ). 2 Satz 7.2.2 (Basiswechsel) Seien V und W zwei endlich-dimensionale Vektorräume über K, und seien (v1 , . . . , vn ) und (ṽ1 , . . . , ṽn ) zwei Basen von V , sowie (w1 , . . . , wm ) und (w̃1 , . . . , w̃m ) zwei Basen von W . Seien B = [bjk ] ∈ Kn×n bzw. C = [cjk ] ∈ Km×m so, dass ṽk = n X bjk vj (1 ≤ k ≤ n) , w̃k = j=1 Schlieÿlich sei (v1 , . . . , vn ) m X cjk wj (1 ≤ k ≤ m) . (7.2.1) j=1 T ∈ L(V, W ), und A bzw. à seien die Darstellungsmatrizen zu T , einmal bezüglich (w1 , . . . , wm ), sowie zum anderen bezüglich (ṽ1 , . . . , ṽn ) und (w̃1 , . . . , w̃m ). Dann gilt und à = C −1 A B . Beweis: für Nach Denition der Darstellungsmatrizen gilt k = 1, . . . , n. T vk = Pm j=1 ajk wj , T ṽk = Pm j=1 ãjk w̃j , jeweils Einsetzen von (7.2.1) ergibt die Gleichung m X n X j=1 m X m X ajν bνk wj = cjµ ãµk wj ν=1 j=1 ∀ k = 1, . . . , n . µ=1 Bringt man beide Summen auf eine Seite, so folgt unter Benutzung der linearen Unabhängigkeit von (w1 , . . . , wm ), dass 0= Pn ν=1 ajν bνk − Pm µ=1 cjµ ãµk ist für alle j = 1, . . . , m Denition 7.2.3 und k = 1, . . . , n. Dies ist 2 die Behauptung. Nach dem Satz vom Basiswechsel sind die beiden Darstellungsmatrizen derselben li- nearen Abbildung zu verschiedenen Paaren von Basen von V und folgt mit Lemma 7.2.1, dass mit einer Darstellungsmatrix von T W zueinander äquivalent. Umgekehrt auch jede zu dieser äquivalente Matrix eine Darstellungsmatrix zu anderen Basen ist. Wir sagen deshalb: Die Darstellungsmatrix einer linearen Abbildungen zwischen endlich-dimensionalen Vektorräumen ist bis auf Äquivalenz eindeutig bestimmt. 7.3 Ähnliche Matrizen Wie schon früher gesagt, kann man bei Endomorphismen die in V, wählen, um die Darstellungsmatrix von T T ∈ L(V ) sinnvollerweise nur eine Basis, nämlich zu vereinfachen. Dies führt zu folgendem Begri der Ähnlichkeit von Matrizen: Denition 7.3.1 B ∈ Kn×n Matrizen A, à ∈ Kn×n heiÿen ähnlich zueinander, wenn es eine invertierbare Matrix gibt, für die à = B −1 A B . 67 Aufgabe 7.3.2 (Ähnliche Matrizen mit MAPLE) MAPLE kann prüfen, ob Matrizen ähnlich sind. Überprüfe dies an Hand der Kommandos > restart; > with(LinearAlgebra); > A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]); > B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]); > IsSimilar(A,B); Was hier genau geschieht, und wie man auch zu Fuÿ die Ähnlichkeit von Matrizen zeigen oder widerlegen kann, wird erst später klarer werden. Aufgabe 7.3.3 Zeige, dass der Begri der Ähnlichkeit eine Äquivalenzrelation auf Kn×n darstellt. Zeige weiter, dass ähnliche Matrizen immer dieselbe Determinante haben. Als einfache Folgerung aus dem Satz vom Basiswechsel im letzten Abschnitt erhalten wir das analoge Resultat für Endomorphismen: Satz 7.3.4 (Basiswechsel bei Endomorphismen) Sei von V ein endlich-dimensionaler Vektorraum V . Sei B = [bjk ] ∈ Kn×n so, dass ṽk = über n X K, bjk vj und seien (v1 , . . . , vn ) und (ṽ1 , . . . , ṽn ) zwei Basen (1 ≤ k ≤ n) . (7.3.1) j=1 Schlieÿlich sei T ∈ L(V ), und A bzw. à seien die Darstellungsmatrizen zu T , einmal bezüglich (v1 , . . . , vn ), (ṽ1 , . . . , ṽn ). Dann gilt sowie zum anderen bezüglich à = B −1 A B . Denition 7.3.5 (Determinante eines Endomorphismus) einen endlich-dimensionalen Raum stellungsmatrizen von T V, Ein Endomorphismus T ∈ L(V ), für hat zwar unterschiedliche Darstellungsmatrizen, aber alle Dar- sind zueinander ähnlich und haben insbesondere dieselbe Determinante. Deshalb können wir die Determinante von T als die Determinante einer der Darstellungsmatrizen von T denie- ren. Aufgabe 7.3.6 Finde die Determinante des Endomorphismus p 7−→ p0 von Kn [t], n ∈ N0 , in sich. 7.4 Hermitesche, normale und unitäre Matrizen Satz 7.4.1 Gegeben seien endlich-dimensionale Räume V und W über K mit Skalarprodukten. Sei A ∈ Km×n die Darstellungsmatrix für ein T ∈ L(V, W ) bzgl. zweier Orthonormalbasen (v1 , . . . , vn ) und T (w1 , . . . , wm ) von V bzw. W . Dann hat die adjungierte Abbildung T ad die Darstellungsmatrix A bzgl. der Basen (w1 , . . . , wm ) und (v1 , . . . , vn ). 68 Beweis: Sei die Darstellungsmatrix von T ad k = 1, . . . , n und Darstellungsmatrizen für alle T vk = m X mit B = [bjk ] ν = 1, . . . , m bezeichnet. Dann gilt nach Denition der n X T ad wν = ajk wj , Mit den Regeln für Skalarprodukte folgt dann Pm j=1 ajk hwν , wj i = aνk , Denition 7.4.2 Pn hT ad wν , vk i = µ=1 bµν und aus (6.6.1) folgt die Behauptung. Eine Matrix A ∈ Kn×n heiÿt hermitesch, falls eine solche Matrix auch symmetrisch. Wir nennen Aufgabe 7.4.3 bµν vµ . µ=1 j=1 A T A =A hvµ , vk i = bkν , hwν , T vk i = 2 K = R nennt T T A A = A A ist. ist. Im Fall normale Matrix, wenn man Zeige, dass eine Diagonalmatrix immer normal ist. Zeige weiter, dass die Diagonalele- mente einer hermiteschen Matrix immer reelle Zahlen sind. Korollar zu Satz 7.4.1 Sei V ein endlich-dimensionaler Raum mit Skalarprodukt. Genau dann ist T ∈ L(V ) selbstadjungiert, wenn seine Darstellungsmatrix bezüglich irgendeiner Orthonormalbasis von V hermitesch ist. Weiter ist T genau dann normal, wenn seine Darstellungsmatrix bezüglich irgendeiner Orthonormalbasis von V normal ist. ein Endomorphismus Denition 7.4.4 T n×n Eine Matrix A ∈ K heiÿt unitär, falls A A = I ist. Insbesondere ist eine unitäre T −1 Matrix invertierbar, und A = A . Im Fall K = R nennt man eine solche Matrix auch orthogonal. Aufgabe 7.4.5 (MAPLE und unitäre Matrizen) Untersuche, ob MAPLE eine Matrix auf Ortho- gonalität und Unitarität prüfen kann. Aufgabe 7.4.6 Sei A eine quadratische betrachtet. Zeige: Genau dann ist A n-reihige Matrix, und sei in unitär, wenn die Spalten von A Kn das kanonische innere Produkt Kn bilden. ein Orthonormalsystem in In welchem Sinn gilt dasselbe auch für die Zeilen? Zeige weiter: Ist A unitär, und ist 2 2 so folgt kyk = kxk , d. h., die Abbildung x 7−→ A x ist längentreu. y = Ax für ein x ∈ Kn , Satz 7.4.7 Gegeben seien endlich-dimensionale Räume n = dim V = dim W ≥ 1. Sei A ∈ Kn×n die Orthonormalbasen (v1 , . . . , vn ) und (w1 , . . . , wn ) V und W über K mit Skalarprodukten, und sei Darstellungsmatrix für ein von V bzw. W. T ∈ L(V, W ) bzgl. zweier T längentreu, wenn A Genau dann ist unitär ist. Beweis: P n ν=1 Wenn aνj wν für T längentreu ist, folgt hT vj , T vk i = hvj , vk i = δjk j = 1, . . . , n folgt daraus δjk = n X n X für 1 ≤ j, k ≤ n. Wegen T vj = aνj aµk , ν=1 µ=1 T −1 Pn A invertierbar und A = A . Dann folgt für v = T v = j=1 βj wj mit βj = k=1 ajk αk : Wegen Aufgabe 5.4.1 ist kT vk2 = k=1 αk vj , also Pn Pn 2 2 2 2 j=1 |βj | und kvk = k=1 |αk | , und aus Aufgabe 7.4.6 folgt kT vk = kvk, also die Längentreue. was die eine Richtung der Behauptung ist. Umgekehrt, sei Pn Aufgabe 7.4.8 Pn Beweise folgendes Analogon zu Lemma 7.2.1: 69 Lemma 7.4.9 Sei V ein n-dimensionaler Vektorraum über K mit innerem Produkt, und sei das System Pn (v1 , . . . , vn ) eine Orthonormalbasis von V . Für ein U = [ujk ] ∈ Kn×n seien ṽk = j=1 ujk vj für k = 1, . . . , n gesetzt. Genau dann ist (ṽ1 , . . . , ṽn ) ebenfalls Orthonormalbasis von V , wenn U unitär ist. Aufgabe 7.4.10 Zeige: Wenn V ein endlich-dimensionaler Raum über gilt für jeden längentreuen Automorphismus von K = R, V immer | det T | = 1 K mit innerem Produkt ist, dann gilt. Schlieÿe hieraus für den Fall dass es zwei Arten von längentreuen Automorphismen gibt, und vergleiche dies mit Abschnitt 9.2. 7.5 Charakteristisches Polynom Denition 7.5.1 Für A ∈ Kn×n heiÿt pA (t) = det A − t I) das charakteristische Polynom der Matrix ein Polynom n-ten A. (7.5.1) Aus der Denition der Determinante folgt sofort, dass Grades in der Veränderlichen t pA ist, und genauer gilt pA (t) = (−1)n tn + (−1)n−1 tn−1 tr A ± . . . + det A , wobei tr A = a11 + . . . + ann Aufgabe 7.5.2 die sogenannte Spur von A bezeichnet. Zeige, dass ähnliche Matrizen immer das gleiche charakteristische Polynom haben. Aufgabe 7.5.3 (MAPLE und charakteristische Polynome) Das charakteristische Polynom kann bei kleineren Matrizen leicht berechnet werden. Überprüfe dies an den Beispielen 1 A = 0 2 0 1 1 1 , −1 1 1 B = 0 0 1 1 1 2 1 . 1 Benutze hierzu auch die folgenden MAPLE-Kommandos: > restart; > with(LinearAlgebra); > A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]); > B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]); > PA := CharacteristicPolynomial(A,t); > factor(PA); > PB := CharacteristicPolynomial(B,t); > factor(PB); Beachte aber, dass das von MAPLE berechnete charakteristische Polynom gleich det(t I − A) ist. Ob man dieses oder das von uns benutzte Polynom vorzieht, ist Ansichtssache. Was bedeutet wohl das letzte Kommando? 70 Aufgabe 7.5.4 Seien n∈N a0 , . . . , an−1 ∈ K. 0 1 0 0 0 1 .. . . . . . . A = . 0 0 0 0 0 0 a0 a1 a2 und Finde das charakteristische Polynom der Matrix ... ... ... ... ... 0 0 0 0 . . . . . . 1 0 0 1 an−2 an−1 (7.5.2) durch Entwicklung nach der letzten Zeile. Schlieÿe dann, dass es zu jedem p ∈ K[t] vom Grad n und n n×n mit höchstem Koezienten gleich (−1) eine Matrix A ∈ K gibt, deren charakteristisches Polynom gerade gleich p ist. Bemerkung 7.5.5 (Fundamentalsatz der Algebra) Ein Resultat, welches wir hier benutzen aber nicht beweisen wollen, ist das folgende: • Jedes nicht konstante Polynom p ∈ K[t] hat in dem Körper C der komplexen Zahlen mindestens eine Nullstelle. Hat man eine Nullstelle λ eines Polynoms p gefunden, so kann man p in der Form p(t) = (t − λ) q(t) schreiben, wobei q wieder ein Polynom ist. Dieses ist entweder konstant oder hat selbst wieder eine Null- stelle. Iteriert man diese Schlussweise, so folgt die Darstellung p(t) = a (t − λ1 ) · . . . · (t − λn ) , n wobei der Grad des Polynoms p und a 6= 0 genau s-mal auftritt, dann heiÿt s λ1 , . . . , λn sind, λ1 , . . . , λn eine Zahl λ sein höchster Koezient ist. Die Werte nicht notwendigerweise verschiedene, komplexe Zahlen. Wenn unter den Zahlen die Vielfachheit der Nullstelle λ. Es gilt dann oenbar s einer Nullstelle p(t) = (t − λ)s q(t) q, mit einem Polynom für welches q(λ) 6= 0 ist. Die Vielfachheit λ erkennt man auch daran, dass gilt: 0 = p(λ) = p0 (λ) = . . . = p(s−1) (λ) , p(s) (λ) 6= 0 . Es ist wichtig zu beachten, dass die Nullstellen eines Polynoms alle oder teilweise nicht-reell sein können, selbst wenn K = R ist, d. h., wenn die Koezienten des Polynoms reell sind. Es gilt aber folgende Aussage: • Wenn p ∈ R[t] komplexe Zahl ist, also reelle Koezienten hat, dann ist für jede Nullstelle λ eine Nullstelle von p, λ auch die konjugiert und beide haben dieselbe Vielfachheit. Somit treten die nicht-reellen Nullstellen eines p ∈ R[t] immer in Paaren von zueinander konjugiert- komplexen Zahlen auf. Aufgabe 7.5.6 Zeige: Ein Polynom Denition 7.5.7 L(V ) Sei V p ∈ R[t] mit ungeradem Grad hat mindestens eine reelle Nullstelle. ein endlich-dimensionaler Vektorraum über K. Wenn ein Endomorphismus T ∈ gegeben ist, hängt zwar seine Darstellungsmatrix, nicht aber deren charakteristisches Polynom, von der Wahl einer Basis von Endomorphismus T V ab, und wir sprechen deshalb auch vom charakteristischen Polynom des und schreiben auch pT für dieses Polynom. Zur Berechnung dieses charakteristischen Polynoms müssen wir aber eine konkrete Basis von bestimmen, und für diese pA V berechnen. 71 nden, dann die entsprechende Darstellungsmatrix Aufgabe 7.5.8 N0 , Berechne das charakteristische Polynom des Endomorphismus p 7−→ p0 von Kn [t], n ∈ in sich. Satz 7.5.9 Sei n ∈ N, sei V pT . ein n-dimensionaler Vektorraum über K, und sei T ∈ L(V ) mit charakte- ristischem Polynom (a) Genau dann ist ein λ∈K Eigenwert von T, pT (λ) = 0 wenn ist. (v1 , . P . . , vn ) eine Basis von V , und ist A die Darstellungsmatrix von T zu dieser Basis, so ist n v = k=1 αk vk ∈ V genau dann ein Eigenvektor von T zu einem Eigenwert λ ∈ K, wenn der T Vektor (α1 , . . . , αn ) eine nicht-triviale Lösung des homogenen linearen Gleichungssystems A − λI x = 0 (7.5.3) (b) Ist ein ist. Anders ausgedrückt liegt ein solches (α1 , . . . , αn )T (c) Wenn das charakteristische Polynom (d) Wenn V genau dann im Eigenraum von n verschiedene Nullstellen in ein Raum mit Skalarprodukt und charakteristischen Polynoms von Beweis: v T zum Eigenwert λ, wenn eine beliebige Lösung von (7.5.3) ist. Genau wenn T det(A − λ I) = 0 T K hat, ist T diagonalisierbar. selbstadjungiert ist, dann sind alle Nullstellen des reell. ist, besitzt (7.5.3) eine nicht-triviale Lösung, und daher folgt Pn T v = w = k=1 βk vk genau dann, wenn a = (α1 , . . . , αn )T b = A a erfüllen. Also gilt T v = v genau dann, wenn A a = a (a) aus (b). Zu (b): Nach Satz 7.1.5 gilt und gilt, b = (β1 , . . . , βn )T d. h., wenn a die die Gleichung Gleichung (7.5.3) erfüllt. Aussage (c) folgt, da Eigenvektoren zu verschiedenen Eigenwerten immer linear unabhängig sind. Zu (d): Sei Orthogonalbasis von V. Dann ist x 7−→ A x A die Darstellungsmatrix von T bezüglich einer ein selbstadjungierter Endomorphismus in Cn , und jede Nullstelle des charakteristischen Polynoms ist ein Eigenwert dieses Endomorphismus. Mit Satz 6.9.5 folgt 2 die Behauptung. Bemerkung 7.5.10 Beachte dass ein Eigenwert eines ren muss. Das bedeutet, dass im Fall K=R T ∈ L(V ) immer zum Skalarenkörper K gehö- ein Endomorphismus keinen Eigenwert zu haben braucht. Andererseits folgt aus dem Fundamentalsatz der Algebra, dass für K=C jeder Endomorphismus mindes- tens einen Eigenwert besitzt. In den Übungen und Klausuren zur Vorlesung wird meistens eine Matrix gegeben sein, deren Elemente reelle Zahlen sind. Wenn dann die Aufgabe lautet, deren Eigenwerte und Eigenvektoren zu berechnen, sollen immer alle, d. h., auch die komplexen Nullstellen des charakteristischen Polynoms bestimmt und eine maximale Zahl von linear unabhängigen Lösungen von (7.5.3) gefunden werden. Siehe dazu auch die folgenden Aufgaben. Aufgabe 7.5.11 Finde alle Eigenwerte und Eigenvektoren der Matrizen 1 A = 0 2 0 1 1 1 , −1 1 1 B = 0 0 Entscheide, ob die Matrizen als Endomorphismen in Aufgabe 7.5.12 1 1 1 Kn 2 1 , 1 C = 1 1 0 1 . diagonalisierbar sind. A eine n-reihige quadratische Matrix, und sei pA (x) ihr charakteristisches Polynom. A, also die Nullstellen von pA (x), wobei mehrfache Nullstellen auch mehrfach aufgeschrieben seien, so dass die Zahlen λ1 , , . . . , λn nicht unbedingt alle verschieden sind. Zeige: Seien λ1 , , . . . , λn Sei die Eigenwerte von n Y n X λk = det A k=1 k=1 72 λk = tr A . Denition 7.5.13 Sei n ∈ N, sei V pT . Nach charakteristischem Polynom von T. ein n-dimensionaler Vektorraum über Satz 7.5.9 ist jede in K K, und sei gelegene Nullstelle von pT T ∈ L(V ) Die Vielfachheit dieser Nullstelle heiÿt die algebraische Vielfachheit des Eigenwertes Dimension des Eigenraumes zum Eigenwert λ, mit ein Eigenwert λ, und die also die maximale Anzahl von linear unabhängigen Ei- genvektoren, heiÿt die geometrische Vielfachheit des Eigenwertes. Nach Denition eines Eigenwertes ist die geometrische Vielfachheit immer ≥ 1. Zu jedem s ∈ N und jedem σ ∈ {1, . . . , s} ndet man leicht λ mit algebraischer Vielfachheit s und geometrischer Vielfachheit Endomorphismen, die einen Eigenwert σ haben. Siehe dazu die nächste Aufgabe. Aufgabe 7.5.14 von V. n ∈ N, sei V ein n-dimensionaler Vektorraum über K, und sei (v1 , . . . , vn ) 0 ≤ ν ≤ n − 1. Dann gibt es genau einen Endomorphismus T ∈ L(V ) mit ( vk+1 (1 ≤ k ≤ ν) , T vk = 0 (ν < k ≤ n) . Sei Sei weiter Basis Berechne dessen Eigenwerte und ihre algebraischen und geometrischen Vielfachheiten. Aufgabe 7.5.15 Berechne das charakteristische Polynom sowie alle Eigenwerte mit ihren jeweiligen geometrischen und algebraischen Vielfachhheiten für die Matrix 0 1 0 0 .. .. N = . . 0 0 0 0 0 0 0 1 0 0 0 0 . . . . . . 1 0 0 1 0 0 ... ... . . . 0 0 0 ... ... ... (7.5.4) Vergleiche mit der vorangegangenen Aufgabe. Satz 7.5.16 Sei λ von Eigenwert Beweis: Sei n ∈ N, sei V ein n-dimensionaler Vektorraum über K, und sei T ∈ L(V ). Für jeden T ist die geometrische Vielfachheit höchstens gleich der algebraischen Vielfachheit. (v1 , . . . , vs ) Darstellungsmatrix A T (v1 , . . . , vn ) Basis des Eigenraums von können wir dieses System zu einer Basis von T zum Eigenwert von V λ. Nach dem Basisergänzungssatz erweitern. Bezüglich dieser Basis hat die die Form A = [λ e1 , . . . , λ es , as+1 , . . . , an ] wobei ek der k -te Einheitsvektor der kanonischen Basis von das charakteristische Polynom Kn und die a j ∈ Kn sind. Daraus folgt für pT : pT (t) = det(A − t I) = (λ − t)s q(t) , mit as+1,s+1 − t as+2,s+1 q(t) = det ... an−1,s+1 an,s+1 as+1,s+2 ... as+1,n−1 as+1,n as+2,s+2 − t ... as+2,n−1 as+2,n . . . . . . . . . . an−1,s+2 ... an−1,n−1 − t an−1,n an,s+2 ... an,n−1 ann − t Daraus folgt, dass die algebraische Vielfachhheit des Eigenwertes mindestens s ist, und dies ist nach 2 Denition die geometrische Vielfachhheit. 73 Aufgabe 7.5.17 über K K Zeige: Ein Endomorphismus T ∈ L(V ) eines endlich-dimensionalen Vektorraumes ist genau dann diagonalisierbar, wenn alle Nullstellen des charakteristischen Polynoms von liegen und daher auch Eigenwerte von T T V in sind, und wenn zusätzlich die geometrische Vielfachheit jedes Eigenwertes gleich seiner algebraischen Vielfachheit ist. Aufgabe 7.5.18 (Eigenwerte und Eigenvektoren mit MAPLE) Finde selber heraus, inwieweit MAPLE die Eigenwerte und Eigenvektoren einer Matrix berechnen kann. 74 Kapitel 8 Normalformen und Denitheit von Matrizen In diesem Kapitel sei V ein endlich-dimensionaler Vektorraum über K, und V enthalte nicht nur den Nullvektor. Wir wollen untersuchen, wie die einfachste Form der Darstellungsmatrix eines gegebenen Endomorphismus von V aussieht. Da eine Darstellungsmatrix immer bis auf Ähnlichkeit bestimmt ist, ist dies äquivalent zur Frage nach einer einfachsten Form einer quadratischen Matrix A unter Ähnlichkeit, oder genauer, nach einem möglichst einfachen Repräsentanten innerhalb jeder Ähnlichkeitsklasse von Matrizen. Beachte, dass in vielen der folgenden Resultate vorausgesetzt wird, dass die Nullstellen des charakteristischen Polynoms eines Endomorphismus oder einer Matrix zu dem Skalarenkörper diese Voraussetzung ist natürlich für den Fall K=C K gehören; immer erfüllt. 8.1 Trigonalisierung Satz 8.1.1 n-dimensionaler Vektorraum über K, und sei T ∈ L(V ) so, dass alle T in K liegen. Dann gibt es eine Basis (v1 , . . . , vn ) von V , bezüglich der die Darstellungsmatrix von T obere Dreiecksgestalt hat. Auf der Diagonalen dieser Darstellungsmatrix stehen dann die Eigenwerte von T entsprechend ihrer algebraischen Vielfachheit, und man kann sogar die Reihenfolge dieser Eigenwerte beliebig vorschreiben. Falls V ein Raum mit Skalarprodukt ist, kann zusätzlich (v1 , . . . , vn ) sogar als Orthonormalbasis gewählt werden. Sei n ∈ N, sei V ein Nullstellen des charakteristischen Polynoms von Beweis: Für n = dim V = 1 ist nichts zu zeigen. Sei jetzt bewiesen. Wir wählen einen beliebigen Eigenwert Basisergänzungssatz können wir V (v1 = v) λ n ≥ 2, und sei der Satz für und dazu einen Eigenvektor zu einer Basis (v1 , . . . , vn ) von V v∈V von n − 1 schon T . Nach dem ergänzen, und im Fall dass ein Skalarprodukt besitzt, kann dies sogar eine Orthonormalbasis sein. Die Darstellungsmatrix von bezüglich dieser Basis hat dann die Form λ 0 A = . .. 0 a12 a22 ... ... . . . an2 ... 75 a1n a2n = A1 + A2 , . . . ann T mit A1 λ 0 = . .. 0 a12 0 ... ... . . . 0 ... a1n 0 , . . . 0 A2 0 0 = . .. 0 0 a22 ... ... . . . an2 ... 0 a2n . . . . ann T1 bzw. T2 gerade so, dass ihre Darstellungsmatrizen bezüglich der A1 bzw. A2 sind. Dann gilt T = T1 +T2 , und T2 bildet den Raum W = L(v2 , . . . , vn ) charakteristische Polynom von T hat die Form p(t) = (λ − t) q(t) mit q(t) = det(B − t I), a22 . . . a2n . . B = ... . . Wir denieren jetzt Endomorphismen gewählten Basis gleich in sich ab. Das wobei an2 ... ann B gerade die Darstellungsmatrix von T2 , als Abbildung von W in sich, bezüglich (v2 , . . . , vn ) ist. Daher gehören alle Nullstellen des charakteristischen Polynoms von T2 zu K, und Man erkennt aber, dass der Basis wir können nach Induktionshypothese schlieÿen, dass es eine Basis, ja sogar eine Orthonormalbasis im Fall eines Raums mit Skalarprodukt, (w2 , . . . , wn ) von W gibt, bezüglich der die Darstellungsmatrix von T2 obere Dreiecksform hat, mit dem entsprechenden Zusatz für die Reihenfolge der Diagonalelemente. Dann (v1 , w2 , . . . , wn ) eine Basis von V und sogar Orthonormalbasis bei Vorliegen eines Skalarproduktes, da v1 zu jedem Vektor aus W orthogonal ist. Die Form der Darstellungsmatrizen von T1 und T2 (wobei T2 jetzt wieder als Abbildung von V in sich aufgefasst wird) hat sich bei diesem Basiswechsel nicht verändert, aber die für T2 hat weitere Nullen in allen Positionen unterhalb der Diagonalen. Zusmmengenommen zeigt das, dass die Darstellungsmatrix von T bezüglich der neuen Basis obere Dreiecksform hat. 2 ist ja Denition 8.1.2 Wir nennen zwei Matrizen A, B ∈ n×n orthogonale Matrix U ∈ K gibt, für welche B = Matrizen B und Kn×n unitär ähnlich, wenn es eine unitäre bzw. T T U A U ist. Beachte, dass wegen U −1 = U die A dann auch ähnlich zueinander sind. Wegen Lemma 7.4.9 sind die Darstellungsmatrizen eines Endomorphismus bezüglicher zweier Orthonormalbasen immer unitär ähnlich. Korollar zu Satz 8.1.1 (Schursches Lemma) Jede Matrix A ∈ Kn×n , für welche alle Nullstellen des charakteristischen Polynoms in Beweis: K liegen, ist unitär ähnlich zu einer oberen Dreiecksmatrix. A ist die Darstellungsmatrix des Endomorphismus x 7−→ A x bezüglich der kaKn . Diese ist eine Orthonormalbasis bezüglich des kanonischen Skalarproduktes in n 8.1.1 gibt es eine andere Orthonormalbasis in K , so dass die neue Darstellungsma- Die Matrix nonischen Basis in Kn , und nach Satz trix B ober Dreiecksgestalt hat. Nach Lemma 7.4.9 wird der Übergang von der kanonischen zur neuen Orthonormalbasis gerade von einer unitären Matrix bewirkt, und daraus folgt die Behauptung. 2 8.2 Der Satz von Cayley-Hamilton Denition 8.2.1 Sei V ein beliebiger Vektorraum über K, und sei T ∈ L(V ). Für eine natürliche Zahl k ∈ N denieren wir T k als die k -malige Hintereinanderausführung der Abbildung T . Setzt Pm mank noch T 0 gleich der identischen Abbildung, so können wir dann für jedes Polynom p(t) = k=0 pk t mit Koezienten pk ∈ K die Abbildung m X p(T ) = pk T k k=0 p(T ) ∈ L(V ) ist. Wir erhalten somit für jedes feste T ∈ L(V ) eine Abbildung L(V ), und es ist nicht schwer zu sehen, dass diese Abbildung linear ist. Sie ist bilden und stellen fest, dass p 7−→ p(T ) von K[t] in zusätzlich auch multiplikativ im Sinne der nächsten Aufgabe. 76 Aufgabe 8.2.2 • Überprüfe folgende Rechenregel: Für Polynome p = p1 p2 =⇒ p1 , p1 ∈ K[t] und T ∈ L(V ) gilt immer p(T ) = p1 (T )◦p2 (T ). Bemerkung 8.2.3 ∈ Kn×n deniert man sinnvollerweise Ak als das k -fache Produkt von A I . Damit ist dann auch für jedes p ∈ K[t] eine Matrix p(A) ∈ Kn×n deniert. Wählt man in der Situation der obigen Denition eine Basis von V , und ist dann A die Darstellungmatrix von T , so folgt aus Satz 7.1.8, dass p(A) die Darstellungsmatrix von p(T ) ist. Für eine Matrix A 0 mit sich selber und setzt A = Satz 8.2.4 (Cayley-Hamilton) Sei L(V ). Wenn p das charakteristische in L(V ) bezeichnet. Beweis: (a) Sei n ∈ N, sei V ein T Polynom von n-dimensionaler Vektorraum über K, und sei T ∈ p(T ) = 0, wobei 0 die Nullabbildung ist, dann folgt Wir unterscheiden zwei Fälle: K = C. Dann können wir nach Satz 8.1.1 eine Basis Darstellungsmatrix A = [ajk ] von T (v1 , . . . , vn ) von V wählen, bezüglich der die obere Dreiecksform hat. In diesem Fall ist (7.1.1) äquivalent zu der Beziehung (T − akk id) vk = k−1 X ∀ k = 1, . . . , n , ajk vj (8.2.1) j=1 wobei id wieder die identische Abbildung in V bedeutet. Für das charakteristische Polynom ergibt sich in diesem Fall die Darstellung p(t) = n Y (akk − t) . k=1 Wir wollen nun durch Induktion beweisen, dass für jedes akk id − T Für k=1 ◦...◦ k = 1, . . . , n a11 id − T vj = 0 gilt ∀ 1 ≤ j ≤ k. (8.2.2) k ∈ {1, . . . , n − 1} schon geführt. ak+1,k+1 id − T auf beide Seiten von(8.2.2) ak+1,k+1 id − T ◦ akk id − T ◦ . . . ◦ a11 id − T vj = 0 ∀ 1 ≤ j ≤ k . folgt dies aus (8.2.1). Sei jetzt der Beweis für ein Dann folgt jedenfalls durch Anwenden von Also ist noch der Fall aνν id − T j = k+1 zu behandeln. In diesem Fall können wir benutzen, dass die Abbildungen miteinander kommutieren, und deshalb folgt mit Hilfe von (8.2.1) und der Induktionshypo- these ak+1,k+1 id − T ◦ akk id − T ◦ . . . ◦ a11 id − T vk+1 akk id − T ◦ . . . ◦ a11 id − T ◦ ak+1,k+1 id − T vk+1 − akk id − T ◦...◦ a11 id − T k X aj,k+1 vj = = = 0. j=1 k + 1, und deshalb für alle k = 1, . . . , n richtig. Wendet man dies an für den Fall k = n, so folgt p(T ) vj = 0 für alle j = 1, . . . , n. Da jedes v ∈ V eine Linearkombination der Basisvektoren vj ist, folgt daraus wiederum p(T ) v = 0 für alle v ∈ V , und das war zu zeigen. Also ist (8.2.2) auch für (b) Sei jetzt A die Darstellungsmatrix von T zu irgendeiner Basis von V . Dann ist x 7−→ A x Cn mit dem gleichen charakteristischen Polynom p wie T . Aus (a) folgt deshalb p(A) die Darstellungsmatrix von p(T ) ist, folgt hieraus wiederum p(T ) = 0. 2 K = R. Sei ein Endomorphismus von p(A) = 0, und da 77 Denition 8.2.5 (Minimalpolynom) Nach dem Satz von Cayley-Hamilton gibt es zu jedem Endomor- T eines n-dimensionalen Vektorraums V , mit n ∈ N, ein nicht-triviales Polynom p, für welches p(T ) = 0 ist. In der Menge aller dieser Polynome gibt es immer eines mit minimalem Grad und höchstem Koezienten 1; wie wir gleich zeigen, ist dieses Polynom durch T eindeutig festgelegt, und es heiÿt Minimalpolynom zu T . phismus Lemma 8.2.6 n ∈ N, sei V ein n-dimensionaler Vektorraum über K, p ∈ K[t] \ {0}, welches folgende beiden Eigenschaften hat: Sei es ein Polynom (a) und sei T ∈ L(V ). Dann gibt p(T ) = 0. (b) Ist p1 ∈ K[t] Das Polynom p so, dass p1 (T ) = 0 ist, so gibt es ein q ∈ K[t] mit p1 = q p. ist durch diese beiden Eigenschaften bis auf einen konstanten Faktor eindeutig festgelegt und hat unter allen p1 ∈ K[t] \ {0} mit der Eigenschaft p1 (T ) = 0 den kleinsten Grad. Beweis: Aus dem Satz von Cayley-Hamilton folgt die Existenz von Polynomen p ∈ K[t] \ {0} mit p(T ) = 0, und unter allen diesen wählen wir ein p mit minimalem Grad. Ist p1 irgendein Polynom in K[t], so gibt es immer q, r ∈ K[t], für welche p1 = q p + r gilt, wobei r entweder das Nullpolynom ist oder einen echt kleineren Grad als p besitzt. Wenn dann auch p1 (T ) = 0 ist, folgt r(T ) = 0, woraus folgt dass r tatsächlich das Nullpolynom ist, denn sonst ergäbe sich ein Widerspruch zur Wahl von p. Also sind (a) und (b) erfüllt. Die Eindeutigkeit von p folgt aber ebenfalls, denn wenn p1 und p denselben Grad haben, muss in (b) q konstant sein. 2 Aufgabe 8.2.7 (Minimalpolynom und MAPLE) Finde heraus, wie man mit MAPLE Minimalpo- lynome berechnen kann. Aufgabe 8.2.8 (Nullstellen des Minimalpolynoms) Zeige, dass das Minimalpolynom eines Endo- morphismus genau die gleichen Nullstellen wie sein charakteristisches Polynom hat, allerdings im Allgemeinen mit geringerer Vielfachheit. Gib Beispiele von n × n- Matrizen an, für die das Minimalpolynom ersten Grades ist. Aufgabe 8.2.9 (Nilpotente Abbildungen) Man nennt einen Endomorphismus T falls ein n ∈ N existiert, für welches Nilpotenzgrad von T. Tn = 0 ist. Das kleinste Bestimme für endlich-dimensionales V n ∈ N0 mit ∈ L(V ) nilpotent, T n = 0 heiÿt auch der das charakteristische Polynom sowie die Form des Minimalpolynoms eines nilpotenten Endomorphismus. 8.3 Hauptachsentransformation Satz 8.3.1 (Satz von der Hauptachsentransformation) Sei n ∈ N, sei V ein n-dimensionaler VekK mit Skalarprodukt, und sei T ∈ L(V ) selbstadjungiert. Dann gibt es eine Orthonormalbasis in V , bezüglich der die Darstellungsmatrix von T diagonal ist. Anders ausgedrückt heiÿt das: Es gibt eine Orthonormalbasis von V , die aus Eigenvektoren von T besteht. torraum über Beweis: in K. Nach Satz 7.5.9 (d) sind alle Nullstellen des charakteristischen Polynoms von T reell, also sicher Daher kann Satz 8.1.1 angewandt werden und sichert, dass eine Orthonormalbasis von bezüglich der die Darstellungsmatrix von T V existiert, obere Dreiecksform hat. Nach dem Korollar zu Satz 7.4.1 ist aber diese Darstellungsmatrix hermitesch. Die einzigen hermiteschen Dreiecksmatrizen sind aber die 2 Diagonalmatrizen. Das ist die Behauptung. 78 Denition 8.3.2 n×n Wir nennen eine Matrix A ∈ K unitär diagonalisierbar, wenn es eine unitäre bzw. T n×n orthogonale Matrix U ∈ K gibt, für welche B = U A U diagonal ist. Korollar zu Satz 8.3.1 und ist A ∈ Kn×n Jede hermitesche Matrix A ist unitär diagonalisierbar. Genauer: Ist n ∈ N, U ∈ Kn×n und eine Diagonalmatrix Λ, für hermitesch, so gibt es eine unitäre Matrix welche AU = U Λ ist. Die Diagonalelemente von Eigenvektoren von Beweis: A, Λ Die Abbildung A, sind gerade die Eigenwerte von in der zu den Diagonalelementen von x 7−→ A x Λ und die Spalten von U sind die passenden Reihenfolge. ist ein selbstadjungierter Endomorphismus in Kn , und damit folgt die Behauptung aus dem Satz von der Hauptachsentransformation. Aufgabe 8.3.3 Berechne ein System von 3 2 orthonormalen Eigenvektoren zur Matrix 1 A = 0 1 0 1 1 1 1 . 1 8.4 Diagonalisierung normaler Endomorphismen Satz 8.4.1 L(V ). (a) Sei n ∈ N, sei V ein n-dimensionaler Vektorraum über K mit Skalarprodukt, und sei T ∈ Dann sind folgende Aussagen äquivalent: T ist normal, und alle Nullstellen des charakteristischen Polynoms liegen in (b) Es gibt eine Orthonormalbasis von Beweis: V, die aus Eigenvektoren von Wenn es eine Orthonormalbasis aus Eigenvektoren von lungsmatrix von T T T K. besteht. gibt, dann ist die zugehörige Darstel- diagonal, und die Diagonalelemente sind gerade die Nullstellen des charakteristischen Polynoms, liegen also in K. Da jede Diagonalmatrix eine normale Matrix ist, folgt aus dem Korollar zu Satz 7.4.1 die Normalität von T. Also folgt (a) aus (b). Für die Umkehrung gehen wir induktiv vor: Für n ≥ 2, und sei der Satz für n − 1 bewiesen. Sei v ein beliebiger T zu einem Eigenwert λ, und sei U das orthogonale Komplement zu v , also die Menge ad aller u ∈ V mit hv, ui = 0. Dann gilt hv, T ui = hT v, ui, und nach Satz 6.9.5 (e) folgt T ad v = λ v . Also folgt hv, T ui = 0 für alle u ∈ U , und somit bildet T den (n − 1)-dimensionalen Raum U in sich ab. Nach Induktionshypothese gibt es also in U eine Orthonormalbasis aus Eigenvektoren von T , und diese kann durch Hinzunahme von v (jedenfalls wenn man vorher noch v normiert, d. h., durch Multiplikation mit einem Faktor dafür sorgt, dass kvk = 1 ist) zu einer Orthonormalbasis von V erweitert werden. 2 n = 1 ist nichts zu zeigen. Sei jetzt Eigenvektor von Aufgabe 8.4.2 Zeige: Eine normale Matrix ist genau dann hermitesch, wenn alle Nullstellen ihres cha- rakteristischen Polynoms reelle Zahlen sind. Schlieÿe hieraus, dass der Satz über die Hauptachsentransformation aus Satz 8.4.1 folgt. Korollar zu Satz 8.4.1 Eine Matrix A ∈ Cn×n ist genau dann normal, wenn sie unitär ähnlich zu einer Diagonalmatrix ist. Beweis: Wenn A unitär änlich zu B ist, ist A genau dann normal, wenn trizen immer normal sind, folgt die eine Richtung des Satzes. Wenn 79 A B normal ist. Da Diagonalma- eine normale Matrix ist, dann ist auch der Endomorphismus x 7−→ A x normal in Cn , und nach Satz 8.4.1 gibt es eine Orthonormalbasis aus Eigenvektoren dieses Endomorphismus. Daraus ergibt sich die unitäre Ähnlichkeit von A zu einer 2 Diagonalmatrix. 8.5 Denite Matrizen Denition 8.5.1 Sei n ∈ N, und sei A ∈ Kn×n eine hermitesche Matrix. Die Funktion ∀ x ∈ Kn , qA (x) = xT A x = hx, A xi wobei rechts das kanonische Skalarprodukt in Kn steht, heiÿt die zu A gehörige quadratische Form. Be- achte, dass die quadratische Form wegen Aufgabe 6.6.7 immer reell ist. Analog zu Abschnitt 6.8 nennen n wir die Matrix A positiv semidenit, falls qA (x) ≥ 0 für alle x ∈ R , und positiv denit, falls sogar n qA (x) > 0 für alle x ∈ R \ {0} ist. Entsprechend heiÿt A negativ semidenit bzw. negativ denit, falls −A positiv semidenit bzw. positv denit ist. Schlieÿlich heiÿt A indenit, falls es weder positiv noch x1 , x2 ∈ Rn gibt mit qA (x1 ) < 0 und qA (x2 ) > 0. negativ semidenit ist, d. h., falls es Aufgabe 8.5.2 Zeige: Die Einheitsmatrix ist positiv denit; eine Diagonalmatrix ist genau dann positiv denit bzw. semidenit, wenn alle Diagonalelemente reell und positiv bzw. nicht-negativ sind. Finde selbst die entsprechende Charakterisierung von negativ (semi)deniten und indeniten Diagonalmatrizen. Aufgabe 8.5.3 (Denitheit und MAPLE) Finde heraus, wie man mit dem Programm MAPLE die Denitheitseigenschaft einer Matrix prüfen kann. Satz 8.5.4 Sei n ∈ N, und sei A ∈ Kn×n eine hermitesche Matrix. (a) Genau dann ist A positiv semidenit, wenn alle Eigenwerte von (b) Genau dann ist A positiv denit, wenn alle Eigenwerte von (c) Genau dann ist A negativ semidenit, wenn alle Eigenwerte von (d) Genau dann ist A negativ denit, wenn alle Eigenwerte von (e) Genau dann ist A indenit, wenn ein Eigenwert von Beweis: A A A A nicht-negativ sind. positiv sind. A nicht-positiv sind. negativ sind. positiv und ein anderer negativ ist. Aus Satz 6.8.4 folgt, dass unitär ähnliche Matrizen die gleiche Denitheitseigenschaft haben. Nach dem Satz über die Hauptachsentransformation ist Diagonalelemente gerade die Eigenwerte von Denition 8.5.5 A A unitär ähnlich zu einer Diagonalmatrix, deren sind. Daraus folgt mit Aufgabe 8.5.2 die Behauptung. 2 A = [ajk ] ∈ Kn×n heiÿen die Zahlen a11 . . . a1k . .. . det ... ∀ k = 1, . . . , n . . ak1 . . . akk Für eine Matrix A. Die Zahl k heiÿt dabei auch die Ordnung der HauptunterdetermiA und anschlieÿend die zwei Spalten von A mit den gleichen Nummern vertauschen, sprechen wir auch von einer simultanen Vertauschung von zwei Zeilen und Spalten von A. Die Hauptunterdeterminanten jeder Matrix B , die aus A durch endlich viele simultane Vertauschungen von Zeilen und Spalten hervorgeht, heiÿen auch allgemeine Hauptunterdeterminanten von A. Anders ausgedrückt sind die allgemeinen Hauptunterdeterminanten von A gleich den Determinanten der aus A durch die Hauptunterdeterminanten von nante. Wenn wir zwei Zeilen von Streichen von Zeilen und Spalten gleicher Nummern entstehenden Matrizen. 80 Satz 8.5.6 (a) Wenn Sei A n ∈ N, und sei A ∈ Kn×n eine hermitesche Matrix. positiv denit ist, dann sind alle allgemeinen Hauptunterdeterminanten von A positiv; insbesondere sind also alle Diagonalelemente positiv. (b) Wenn alle Hauptunterdeterminanten von B matrix A positiv sind, dann existiert genau eine obere Dreiecks- mit reellen und positiven Diagonalelementen, so dass T A = B B qA (x) = kyk2 , ist, und hieraus folgt Beweis: mit y = B x, sodass (8.5.1) A positiv denit ist. A positiv denit. Für 1 ≤ k ≤ n sei Uk der Unterraum aller Vektoren x = (x1 , . . . , xn )T ∈ Kn mit xk+1 = . . . = xn = 0. Wenn wir die quadratische Form qA auf Uk einschränken, ergibt dies die k quadratische Form auf K mit der Matrix a11 . . . a1k . .. . Ak = ... , . . ak1 . . . akk Sei und diese Matrix muss daher auch positiv denit sein. Nach Satz 8.5.4 müssen also alle Eigenwerte von Ak positiv sein, und nach Aufgabe 7.5.12 folgt hieraus Zeilen und Spalten von A det Ak > 0. Eine simultane Vertauschung von xk ist gleichwertig zu einer Umnumerierung der Variablen an der positiven Denitheit von A. und ändert nichts Damit ist (a) bewiesen. Den Beweis von (b) führen wir induktiv: Für n = 1 ist nichts zu zeigen, deshalb sei jetzt n ≥ 2 und der Beweis für Matrizen der Gröÿe (n − 1) × (n − 1) schon erbracht. Wir schreiben An−1 a , A = aT c wobei wir die Tatsache ausnützen, dass obere Dreiecksmatrix Bn−1 A hermitesch ist. Nach Induktionshypothese gibt es genau eine mit reellen und positiven Diagonalelementen, so dass T An−1 = B n−1 Bn−1 . Es folgt qA (x) = y T C y , C = I T b b c , y = Bn−1 0 0 1 x, T T b = (B n−1 )−1 a ist. Mit dem Entwicklungssatz sieht man det C = c−b b, und aus dem Determinantenmultiplikationssatz folgt dass A und C dieselbe Determinante haben. Also folgt aus der Voraussetzung T dass det A = c − b b > 0 ist, und wir setzen q T d = c − b b. wobei Daraus folgt aber jetzt T A = B B, Oenbar ist B Bn−1 0 b d . obere Dreiecksmatrix mit positiv-reellen Diagonalelementen, und Man erkennt auch leicht, dass dieses der Gröÿe B = n × n, B durch A qA (x) = y y mit y = B x. eindeutig bestimmt ist. Also gilt (b) auch für Matrizen 2 was zu zeigen war. Denition 8.5.7 Nach dem vorausgegangenen Satz gibt es zu jeder positiv deniten Matrix eine obere Dreiecksmatrix B A genau mit reell-positiven Diagonalelementen, für die (8.5.1) gilt. Man nennt dies auch die Cholesky-Zerlegung der Matrix A. Tatsächlich besteht ein gängiges numerisches Verfahren zur Prüfung einer Matrix auf positive Denitheit in der Berechnung dieser Cholesky-Zerlegung. Bemerkung 8.5.8 Wenn man von A zu −A übergeht, dann bleiben alle allgemeinen Hauptunterdeter- minanten mit gerader Ordnung erhalten, während die mit ungerader Ordnung ihr Vorzeichen wechseln. Daher kann man aus obigem Satz leicht Kriterien für negative Denitheit ableiten. 81 Aufgabe 8.5.9 Untersuche die Matrizen aus Aufgabe 7.5.11 auf Denitheit. Aufgabe 8.5.10 Zeige für die Matrix A = a b b c a, b, c ∈ R , , folgende Aussagen: a c < b2 • Genau dann ist A indenit, wenn • Genau dann ist A positiv denit, wenn • Genau dann ist A negativ denit, wenn Daraus folgt, dass A ist. a c > b2 a c > b2 und und a>0 a<0 in allen anderen Fällen semidenit ist. 82 ist. ist. Kapitel 9 Ergänzungen 9.1 Kegelschnitte Als eine Anwendung der quadratischen Formen wollen wir kurz folgende Aufgabe studieren: • A = [ajk ] ∈ R2×2 , ein L ⊂ R2 der Gleichung Gegeben sei eine reelle symmetrische Matrix Zahl c ∈ R. Untersuche die Lösungsmenge reeller Vektor b ∈ R2 sowie eine x T A x + bT x + c = 0 . Ausgeschrieben lautet diese Gleichung, unter Beachtung von (9.1.1) a21 = a12 wegen der Symmetrie von A, a11 x21 + 2 a12 x1 x2 + a22 x22 + b1 x1 + b2 x2 + c = 0 . Man sieht daran, dass es sich um die allgemeinste quadratische Gleichung in zwei Variablen x1 , x2 handelt. Die Lösungsmenge einer solchen Gleichung ist, bis auf entartete Fälle, ein Kegelschnitt, d. h. die Schnittmenge (in R3 ) einer Ebene mit einem Doppelkegel; darauf soll hier aber nicht eingegangen werden. Zur Lösung der Aufgabe beachten wir, dass nach dem Satz über die Hauptachsentransformation eine orthogonale Matrix x = Uy U ∈ R2×2 Λ = U T A U eine Diagonalmatrix ist. T Vektor b U der Einfachheit halber wieder existiert, für welche in (9.1.1) ein, und bezeichnet man den Setzt man mit bT , so erhält man die neue Gleichung y T Λ y + bT y + c = 0. Wir können o. B. d. A. noch annehmen, dass Spalte von keit von U U det U = 1 ist, denn sonst kann man zum Beispiel die erste mit einem entsprechenden Faktor multiplizieren, was die Orthogonalität bzw. Invertierbar- nicht verändert (denn im Falle einer orthogonalen Matrix ist ja Nach Aufgabe 6.7.6 ist die Abbildung Drehung von R2 , x=Uy det U = 1 im Fall einer orthogonalen Matrix U oder mit det U = −1). det U = 1 eine oder anders ausgedrückt, die Einführung eines neuen rechtwinkeligen Koordinatenys- tems, welches gegenüber dem vorigen verdreht ist. Aus diesem Grund genügt es für die Interpretation der Lösungsmenge, wenn wir im Folgenden annehmen, dass A von vorne herein eine Diagonalmatrix ist, sodass die Gleichung (9.1.1) die Form a1 x21 + a2 x22 + b1 x1 + b2 x2 + c = 0 . Wir unterscheiden jetzt die folgenden grundsätzlich verschiedenen Fälle: 83 1. Sei a1 a2 6= 0: Durch quadratische Ergänzung schreiben wir die Gleichung um in die Form b1 2 b2 2 b21 b2 a1 x1 + + a2 x2 + = + 2 − c. 2 a1 2 a2 4 a1 4 a2 (9.1.2) Mit den Abkürzungen (0) xj für j=1 und (a) Seien j=2 a1 , a2 bj = − , 2 aj s b21 b2 λj = a−1 + 2 − c j 4 a1 4 a2 ergeben sich folgende Unterfälle: beide positiv: Dann ist die linke Seite von (9.1.2) immer positiv, und wir schlieÿen: i. Falls c> ii. Falls c= iii. Falls c< b21 4 a1 b21 4 a1 b21 4 a1 + + + b22 4 a2 ist, ist die Lösungsmenge L der Gleichung leer. b22 (0) T (0) 4 a2 ist, ist L = {x0 = (x1 , x2 ) }. b22 4 a2 ist, bringen wir die Gleichung (9.1.2) auf die Form x − x(0) 2 x − x(0) 2 1 2 1 2 + = 1. λ1 λ2 (0) L geometrisch eine Ellipse mit Mittelpunkt x(0) 1 , x2 und achλ1 , λ2 ist. Falls λ1 = λ2 = 1 ist (was man mit Hilfe des Sylves- Daraus erkennt man, dass senparallelen Halbachsen terschen Trägheitssatzes erreichen kann), handelt es sich oenbar um einen Kreis mit dem angegeben Mittelpunkt und dem Radius (b) Seien −1 a1 , a2 < 0: r = 1. Diesen Unterfall kann man durch Multiplikation der Gleichung (9.1.2) mit auf den ersten zurückführen. (c) Seien a1 > 0 und a2 < 0: Dann kann die linke Seite von (9.1.2) sowohl positiv als auch negativ werden. In jedem Fall gibt es folgende Möglichkeiten: i. Falls b21 4 a1 c= + b22 4 a2 ist, ist (9.1.2) äquivalent zu x2 = x(0) ± 2 L ein Paar von sich schneidenden Geraden b2 b2 c > 4 a11 + 4 a22 ist, ist (9.1.2) äquivalent zu so dass ii. Falls λ2 (x1 − x(0) 1 ), λ1 ist. x − x(0) 2 x − x(0) 2 1 2 1 2 − = −1 . λ1 λ2 Damit ist L geometrisch ein Hyperbelpaar, welches nach unten bzw. oben geönet ist. b21 b22 iii. Falls c < 4 a1 + 4 a2 ist, können wir durch Vertauschen von x1 und x2 , also geometrisch durch Spiegelung an der Geraden x2 = x1 , aus dem vorangegangenen Fall ablesen, dass L wieder ein Paar von Hyperbeln ist, die aber jetzt nach rechts bzw. links geönet sind. (d) Seien 2. Sei a1 < 0 und a2 = 0, a1 6= 0: a2 > 0: Multiplikation mit Division durch kann dann in der Form a1 −1 führt wieder auf den vorherigen Fall. erlaubt dann anzunehmen, dass a1 = 1 ist. Die Gleichung 2 x1 + b1 /2 + b2 x2 = b21 /4 − c geschrieben werden. Es ergeben sich dann folgende Unterfälle: b2 = 0: Dann ist L leer, falls c > b21 /4 c < b21 /4 zwei parallele Gerade. (a) Sei (b) Sei b2 6= 0: Dann b2 < 0 ist. stellt L ist, und sonst ergeben sich für c = b21 /4 eine und für eine Parabel dar, die nach unten bzw. oben geönet ist, wenn bzw. 84 b2 > 0 3. Sei a2 = 0, a1 6= 0: 4. Seien Vertauschen von a1 = a2 = 0: x1 und x2 führt diesen auf den vorangegangenen Fall zurück. Dann liegt eine lineare Gleichung vor, dessen Lösungsmenge L entweder leer oder eine Gerade ist. Aufgabe 9.1.1 trix A Drücke die oben aufgetretenen Fälle direkt durch die Denitheitseigenschaften der Ma- in (9.1.1) aus. 9.2 Drehungen und Spiegelungen Denition 9.2.1 U ∈ Rn×n erfüllt U T U = I , woraus mit dem Determinantenmultiplikationssatz folgt det U = ±1. Wenn det U = 1 ist, nennt man U eine Drehmatrix oder auch n einfach Drehung in R . Wenn dagegen det U = −1 ist, spricht man von einer Drehspiegelung. Satz 9.2.2 Eine orthogonale Matrix Die Menge der unitären, der orthogonalen, sowie die Menge der Drehmatrizen sind Gruppen bezüglich der Matrixmultiplikation. Beweis: Da für die Matrixmultiplikation immer ein Assoziativgesetz gilt, ist nur zu zeigen, dass die Einheitsmatrix zu jeder der beiden Mengen gehört, und dass mit einer Matrix auch die inverse in der Menge ist. Dies ist aber klar wegen der Denition der entsprechenden Matrizenmenge sowie dem Deter- 2 minantenmultiplikationssatz. Eine unitäre, und speziell eine orthogonale Matix ist immer normal, und deshalb nach Satz 8.4.1 unitär ähnlich zu einer Diagonalmatrix. Dabei sind auch für orthogonale, also reelle Matrizen die Eigenwerte im Allgemeinen komplexe Zahlen vom Betrag 1. Interessanter, und relativ leicht zu beantworten, ist aber die Frage nach einer Normalform einer orthogonalen Matrix bezüglich reell-unitärer, also orthogonaler Ähnlichkeit. Da orthogonale Matrizen die Darstellungsmatrizen von längentreuen Endomorphismen eines endlich-dimensionalen Vektorraumes über R sind, ist die Antwort auf diese Frage gleichwertig mit dem folgenden Satz: Satz 9.2.3 n ≥ 2, V ein n-dimensionaler euklidischer Raum, also ein Raum über R mit T ∈ L(V ) längentreu. Dann gibt es eine Orthonormalbasis (v1 , . . . , vn ) von V , Darstellungsmatrix A von T die folgende Form hat: Ip 0 0 0 ... 0 0 −Iq 0 0 ... 0 0 0 A1 0 ... 0 A = 0 , 0 0 A2 . . . 0 . . . . . . . . . .. . .. . . . . Sei und sei Skalarprodukt. Sei weiter für welche die 0 wobei Ip bzw. Iq Einheitsmatrizen vom Typ " Ak = 0 p×p 0 0 bzw. q×q # cos φk sin φk − sin φk cos φk ... sind, während φk ∈ R. Dabei ist p + q + 2 m = n, wobei auch p = 0 oder bedeutet dass die entsprechenden Matrizen nicht auftreten. mit 85 Am ∀ k = 1, . . . , m , q=0 oder m=0 zugelassen sein soll, was Beweis: Sei Dann ist A A U unitäre Matrix von Λ zunächst die Darstellungsmatrix von T bezüglich irgendeiner Orthonormalbasis von V. eine orthogonale Matrix und somit auch normal, und deshalb gibt es nach Satz 8.4.1 eine derart, dass T U AU = Λ eine Diagonalmatrix ist. Dabei sind die Diagonalelemente T , also eines Polynoms mit reellen Koezis-mal als ein Diagonalelement in Λ auf. Diese Zahlen vom Betrag 1 sein allerdings ist mit je- die Nullstellen des charakteristischen Polynoms von enten, und eine Nullstelle λ der Vielfachheit s tritt genau Nullstellen können im Allgemeinen beliebige komplexe der nicht-reellen Nullstelle auch die konjugiert-komplexe Zahl eine Nullstelle derselben Vielfachheit. Die Spalten A, uk der Matrix U bilden eine Orthonormalbasis von Cn und sind auÿerdem Eigenvektoren von und durch Umnumerierung der Basisvektoren, also Vertauschen der Spalten von beliebige Anordnung der Diagonalelemente von der Diagonalen von Λ zuerst die Zahl 1 Λ und dann die Zahl −1, λ Wenn p 1 oder −1 die Vielfachheit der Nullstelle p λ und der konjugiertΛ auftreten. Beachte, dass es natürlich möglich ist, dass alle Diagonalelemente von reell sind, oder dass die Zahl sind die ersten können wir eine beide entsprechend ihrer Vielfachheit, auftreten, und danach die nicht-reellen Nullstellen folgen, wobei diese in Paaren von komplexen Zahl U, erreichen. Wir gehen deshalb davon aus, dass entlang Spalten von U garnicht als Nullstelle auftritt. λ=1 des charakteristischen Polynoms von A gerade eine Basis des Eigenraums von Eigenraum hat die Eigenschaft, dass mit u auch u A bezeichnet, dann zum Eigenwert λ = 1. Dieser zum Raum gehört, und deshalb gibt es nach Aufga- be 5.4.8 eine Orthonormalbasis aus lauter reellen Eigenvektoren. Also können wir o. B. d. A. annehmen, dass die ersten U, p Spalten von U reelle Vektoren sind. Analog schlieÿt man für die nächsten welche ja eine Basis des Eigenraumes zum Eigenwert λ = −1 q Spalten von sind. λk das erste nicht-reelle Diagonalelement von A. Dann ist |λk | = 1, also λk = cos φk + i sin φk , φk ∈ R, und sin φk 6= 0. Wegen der gewählten Anordnung der Diagonalelemente von A ist dann das nächste Diagonalelement von A gleich λk+1 = cos φk − i sin φk . Wenn (v1 , . . . , vs ) eine Orthonormalbasis des Eigenraumes zu λk bilden, dann zeigt man leicht dass (v 1 , . . . , v s ) eine Orthonormalbasis des Eigenraumes zu λk = λk+1 ist. Daher können wir o. B. d. A. annehmen, dass uk+1 = uk ist. Wenn √ −1 √ man uk durch ũk = (i 2) (uk − uk−1 ) und uk+1 durch ũk+1 = ( 2)−1 (uk + uk−1 ) ersetzt, so kann n man überprüfen, dass die neuen, genau wie die alten, Spaltenvektoren eine Orthonormalbasis von C bilden; allerdings sind die neuen Spaltenvektoren ũk und ũk+1 jetzt reell geworden. Aus A uk = λk uk und A uk+1 = λk uk+1 folgt dann Sei jetzt mit einem A ũk+1 = − sin φk ũk + cos φk ũk+1 . A ũk = cos φk ũk + sin φk ũk+1 , T bezüglich (u1 , . . . , uk−1 , ũk , ũk+1 , uk+2 , . . . , un ) nach den 1-en (−1)-en entlang der Diagonalen gerade ein Kästchen der Form Ak auf. Genauso kann man auch für die Also tritt in der Darstellungsmatrix von und übrigen Paare von konjugiert-komplexen Diagonalelementen schlieÿen. Dies ist, bis auf die Numerierung der Blöcke Ak , 2 die Behauptung. Aufgabe 9.2.4 Benütze den vorausgegangenen Satz, um für den Fall n = 3 zu V eine längentreuen Isomorphismus eines dreidimensionalen euklidischen Raumes V existiert, bezüglich der die Darstellungsmatrix 1 A = 0 0 Im ersten Fall ist T 0 0 cos φ sin φ − sin φ cos φ A von T −1 A = 0 0 0 0 cos φ sin φ . − sin φ cos φ also eine Drehung, im zweiten eine Drehspiegelung. 86 Orthonormalbasis von eine der folgenden beiden Formen hat: oder zeigen, dass zu jedem Literaturverzeichnis [1] G. Fischer, Lineare Algebra. Eine Einführung für Studienanfänger, Vieweg Studium: Grundkurs Mathematik. Wiesbaden: Vieweg. x, 384 S., 2000. [2] W. Gawronski, Grundlagen der Linearen Algebra. Studienbuch für Studierende der Mathematik, Informatik, Physik und anderer Naturwissenschaften ab dem 1. Semester, Studien-Text. Mathematik. Wiesbaden: Aula-Verlag. 413 S. DM 44.00 , 1996. 45 [3] H. Grauert und H.-C. Grunau, Lineare Algebra und analytische Geometrie, R. Oldenbourg Verlag, Munich, 1999. [4] W. Greub, Linear algebra, Graduate Texts in Mathematics, Bd. 23. New York - Heidelberg -Berlin: Springer-Verlag. XVII, 451 p., 5 Figs. DM 92.00; $ 42.90 , 4. Au., 1981. [5] J. Heinhold und B. Riedmueller, Lineare Algebra und Analytische Geometrie. Teil 2, München: Carl Hanser Verlag. VIII, 319 S. mit 47 Fig., 125 Beisp. und 137 Aufg. DM 44.00 , 1973. [6] J. Heinhold und B. Riedmüller, Lineare Algebra und analytische Geometrie. Teil 1, München: Carl Hanser Verlag. VII, 215 S. mit 32 Figuren , 1971. [7] K. Jänich, Lineare Algebra. 9. Au., Springer-Lehrbuch. Berlin: Springer. xii, 271 S. EUR 19.95 (D); sFr. 31.00 , 2002. [8] H.-J. Kowalsky und G. O. Michler, Lineare Algebra. 10., völlig neu bearb. Au., De Gruyter Lehrbuch. Berlin: de Gruyter. xiv, 399 p. DM 44.00 /pbk; DM 98.00 /hbk , 1995. [9] R. Lingenberg, Lineare Algebra. Erster Teil einer Vorlesung. (B.I.-Hochschulskripten. 828/828a), Mannheim-Zürich: Bibliographisches Institut, XII, 161 S. , 1969. [10] F. Lorenz, Lineare Algebra. I, Bibliographisches Institut, Mannheim, 2. Au., 1988. [11] , Lineare Algebra. II, Bibliographisches Institut, Mannheim, 2. Au., 1989. [12] U. Stammbach, Lineare Algebra. 4. durchges. Au., Teubner Studienskripten: Mathematik. Stuttgart: B. G. Teubner. 259 S., 1994. 87 Index hermitesch, 69 eines Endomorphismus, 71 unitär, 61, 69 Cholesky-Zerlegung, 81 Abbildung Darstellungsmatrix, 65 adjungierte, 60 Denitheit, 62, 80 duale, 59 Determinanten, 39 längen- und winkeltreue, 61 -multiplikationssatz, 42 längentreue, 61 Berechnung, 41 lineare, 54 Rechenregeln, 40 nilpotente, 78 von Blockdreiecksmatrizen, 43 von Endomorphismen, 68 normale, 60 orthogonale, 61 diagnonalisierbar, 63 selbstadjungierte, 60 Diagonalelemente, 23 semilineare, 60 diagonalisierbar, 79 unitär, 79 unitäre, 61 Diagonalmatrix, 23 abhängig Dierenz linear, 9 von Vektoren, 8 Abstand, 47 adjungiert, 60 Dimensionsformel, 55 Ähnlichkeit, 67 direkte Summe, 17 Distributivgesetz, 5 unitäre, 76 allgemeines, 8 algebraische Vielfachheit, 73 algebraisches Komplement, 44 Dreiecksmatrix, 23 Approximation, 52 Dreiecksungleichung, 48 Äquivalenz duale Abbildung, 59 Dualraum, 59 -klasse, 25 -relation, 25 Eigen- von Matrizen, 24 raum, 63 Assoziativgesetz vektor, 63 der Addition, 5 wert, 63 der Multiplikation, 5 Einheitsmatrix, 23 Austauschsatz, 14 Einheitsvektor, 11 Automorphismus, 57 endlich-dimensional, 13 Endomorphismus, 54 Basis, 11 deniter, 62 Orthogonal-, 50 Basisauswahlsatz, 13 diagonalisierbarer, 63 Basisergänzungssatz, 15 nilpotenter, 78 Basiswechsel, 67 normaler, 60 selbstadjungierter, 60 bei Endomorphismen, 68 beste Approximation, 52 Entwicklungssatz, 45 Bild, 55 erweiterte Matrix, 30 Blockdreiecksmatrizen, 43 Erzeugendensystem, 11 euklidischer Vektorraum, 46 C[a, b], 6 Fehlstand, 37 Cayley-Hamilton, 77 charakteristisches Polynom, 70 GL(n, K), 88 28 Gauÿsches Elim.-Verf., 30, 41 endlich vieler Vektoren, 10 geometrische Vielfachheit, 73 Matrix, 19 Gleichungssystem erweiterte, 30 lineares, 30 Determinante einer, 39 homogenes, 30 Gram-Schmidtsches Orthog.-Verf., 50 Diagonal-, 23 Gruppe, 35 Dreiecks-, 23 hermitesche, 69 symmetrische, 35 nilpotente, 78 Gruppenordnung, 35 normale, 69 Hauptachsentransformation, 78 orthogonale, 69 Hauptunterdeterm., 80 quadratische, 19 Hilbertraum (semi-)denite, 80 Prä-, 46 symmetrische, 69 Hülle transponierte, 23 lineare, 9 Typ einer, 19 unitäre, 69 Inhomogenitätenvektor, 30 Matrizen inneres Produkt, 46 ähnliche, 67 Inversion, 37 äquivalente, 24 Isomorphismus, isomorph, 57 unitär ähnliche, 76 Minimalpolynom, 78 K[t], 6 Kn , 6 Kn [t], 6 Minor, 44 Monom, 9 Multiplikation kanonische Basis, 11 von Matrizen, 21 kanonischer Isomorphismus, 57 Kern, 55 N, N0 , Körper, 5 nilpotent, 78 Koezientenmatrix, 30 Norm, 47, 49 Kommutatives Diagramm, 66 5 Eigenschaften, 48 Komplement normal, 60 algebraisches, 44 normale Matrix, 69 komplexer Raum, 5 Normalform Komplexizierung, 16 unter Äquivalenz, 26 Koordinatenabbildung, 54 normierter Raum, 49 Kronecker-Delta, 23 Nullstelle, 71 L(V, W ), 54 L(vj , j ∈ J), `2 , 49 Vielfachheit einer, 71 9 Ordnung einer Gruppe, 35 längen- und winkeltreu, 61 Orthogonal längentreu, 61 -basis, 50 Lemma -system, 50 von Schur, 76 orthogonal, 49, 61, 69 lineare orthogonale Projektion, 52 Abbildung, 54 orthogonales Komplement, 49 Hülle, 9 Orthogonalisierung, 50 Mannigfaltigkeit, 16 Orthonormal Unabhängigkeit, 9 -basis, 50 endlich vieler Vektoren, 10 -system, 50 linearer Raum, 5 normierter, 49 Parität, 37 lineares Funktional, 59 Permutation, 35 Linearform, 59 identische, 37 Linearkombination, 9 Polynom, 6, 9 89 charakteristisches, 70 leeres, 9 Minimal-, 78 Orthogonal-, 50 Prä-Hilbertraum, 46 Orthonormal-, 50 Produkt Teilraum, 8 von Permutationen, 35 Teilsystem, 9 Projektion tr A, 70 orthogonale, 52 Transitivität, 25 quadratische Form, 80 transponierte Matrix, 23 Typ, 19 Raum dualer, 59 unabhängig euklidischer, 46 linear, 9 linearer, 5 unendlich-dimensional, 13 mit Skalarprodukt, 46 unitär ähnlich, 76 normierter, 49 unitärer Vektorraum, 46 unitärer, 46 Unterraum, 8 Rechenregeln trivialer, 8 für adjungierte Abb., 60 unverkürzbar, 12 für das Vorz. e. Perm., 37 unverlängerbar, 12 für den Rang, 27 Vektorraum, 5 für Determinanten, 40 für die inverse Matrix, 29 dualer, 59 für Matrizen, 19, 23 komplexer, 5 für Vektoren, 7 normierter, 49 reeller, 5 reeller Raum, 5 Vielfachheit, 71 Reexivität, 25 algebraische, 73 Repräsentant, 25 geometrische, 73 Sn , 35 Vorzeichen Sarrussche Regel, 39 einer Permutation, 37 Satz Winkel Austausch-, 14 zwischen Vektoren, 49 Basisauswahl-, 13 Basisergänzungs-, 15 Zeilen, 19 vom Basiswechsel, 67 Zerlegung, 25 von Cayley-Hamilton, 77 Zykel, 36 von der besten Approx., 52 von der Hauptachsentr., 78 Schursches Lemma, 76 selbstadjungiert, 60 semilinear, 60 Signum einer Permutation, 37 Skalar, 5 Skalarenkörper, 5 Skalarprodukt, 46 kanonisches, 47 Spalten, 19 Spektralwert, 63 Spur, 70 Summe, 16 Symmetrie, 25 symmetrisch, 69 symmetrische Gruppe, 35 System, 9 90