Lineare Algebra für Physiker Domenico P.L. Castrigiano 15. Juli 2010 ∗ † Vorlesungsskript WS 2008/09 Zentrum Mathematik TU München † ∗ Einleitung Die lineare Algebra hat sich aus der analytischen Geometrie und der Behandlung linearer Gleichungssysteme entwickelt. Inzwischen ist sie ein Grundbestandteil der Mathematik und ihre Anwendungen reichen in alle Bereiche der Naturwissenschaften hinein. Für die Physik ist die lineare Algebra ein selbstverständliches Werkzeug zur Mathematisierung der Theorie. Die Linearität ist oftmals eine grundlegende Eigenschaft der Naturgesetze, z.B. sind Teilchen und Feldgleichungen linear oder der Zustandsraum eines quantenmechanischen Systems ist ein Vektorraum. Wo nichtlineare Zusammenhänge bestehen, ist die Linearisierung in vielen Fällen der erste Schritt zur Behandlung des Problems. Viele numerische Verfahren beruhen auf linearer Approximation. Schlieÿlich ist die lineare Optimierung in weiten Teilen eine Anwendung der linearen Algebra. Es gibt eine Vielzahl einführender Bücher zur linearen Algebra. Unterschiede bestehen vornehmlich in einem mehr oder weniger abstrakten Zugang. Wir wählen einen axiomatischen Aufbau, wenden uns aber sehr schnell den Vektorräumen zu. Weil es keine besondere Mühe bereitet und die Sicht auf das Wesentliche erleichtert, werden die linearen Strukturen über einem allgemeinen Körper betrachtet. Erst wenn das Skalarprodukt behandelt wird, beschränken wir uns auf die reellen oder komplezen Zahlen. Im Mittelpunkt der Untersuchungen steht der Begri der linearen Abbildung. Wie ein Blick auf das Inhaltsverzeichnis zeigt, wird eine Auswahl aus dem üblichen Stokanon einer Vorlesung über Lineare Algebra 1 und 2 getroen. Sie ist bestimmt von den Bedürfnissen eines Physikstudiums. Bei der Behandlung der Stoes ist es uns wichtig, die allgemeinen Strukturen herauszustellen. Wesentlich ist das Konzept der Isomorphie, das auch in der Physik von grosser Bedeutung ist. Unter einem Vektorraumisomorphismus zum Beispiel bleiben lineare Zusammenhänge unverändert. Es ändert sich aber ihre Darstellung, wie etwa im Fall der Abbildungsmatrix anstelle eines Homomorhpismus zwischen endlichdimensionalen Vektorräumen. Durch den Wechsel der Darstellung wird eine einfachere Beschreibung ermöglicht. Dieser Grundgedanke führt zu besonders interessanten Ergebnissen, wenn die reichhaltigere Struktur der unitären bzw. euklidischen Vektorräume im Spiel ist. Ebenso wichtig wie die abstrakten Strukturen sind in der linearen Algebra Verfahren und Algorithmen für praktische Berechnungen. Für Anwendungen ist der Matrizenkalkül für die Behandlung linearer Gleichungssysteme von besonderer Bedeutung. Inhaltsverzeichnis 1 Mengen 4 2 Abbildungen 9 3 Vollständige Induktion und Abzählbarkeit 15 4 Gruppen, Körper, Vektorräume 18 5 Lineare Unabhängigkeit, Basen, Dimension 24 6 Lineare Abbildungen 31 7 Matrizen 39 8 Lineare Gleichungssysteme 50 9 Weitere Folgerungen des Eliminationsverfahrens 59 10 Determinanten 63 11 Eigenwerte und Eigenvektoren 73 12 Diagonalisierbarkeit und Trigonalisierbarkeit 82 13 Vektorräume mit Skalarprodukt 91 14 Endomorphismen in Vetorräumen mit Skalarprodukt 99 3 1 Mengen Eine Menge ist eine Zusammenfassung (in der Vorstellung) von verschiedenen Objekten, z.B. die Menge der Einwohner Münchens oder der Kraftfahrzeuge mit Münchener Kennzeichen oder die Menge der Mitglieder eines Orchesters. Es können natürlich auch verschiedenartige Objekte zu einer Menge zusammengefasst werden, wie z.B. die Einrichtungsgegenstände eines Zimmers und die sich darin bendlichen Personen. Die einzelnen Objekte heiÿen Elemente der Menge. Bezeichnet X eine Menge und a ein Element der Menge, so schreibt man: a∈X X a ist ein Element von heiÿt eine X. endliche Menge, wenn sie aus endlich vielen Elementen besteht. Alle oben betrach- teten Mengen sind endlich. Besteht z.B. eine Menge X aus 6 Elementen, die mit a1 , a2 , . . . , a5 , a6 bezeichnet werden, so schreibt man: X = {a1 , a2 , a3 , a4 , a5 , a6 } a1 ∈ X, . . . , a6 ∈ X . Mengen können unendlich sein, d.h. nicht der natürlichen Zahlen 1, 2, 3, . . .. Diese wird mit N bezeichnet. Also und es ist Menge endlich, wie z.B. die N = {1, 2, 3, . . .} . Wenn ein Objekt kein Element einer Menge a∈ /X Z.B. ist Seien X a ist kein Element von 0∈ / N, d.h. die X und Y zwei X. Mengen. Man sagt Y X ist eine Teilmenge von Y, wenn jedes Element von ist, d.h. wenn gilt: x ∈ X ⇒ x ∈ Y. Dabei bezeichnet X⊂Y X⊂Y ⇒ daraus folgt eine Implikation. Man schreibt: X ist Teilmenge von Oensichtlich ist Z ist, schreibt man Null ist (bei uns) keine natürliche Zahl. auch ein Element von (1.1) X und X ⊂ X. Y . Weiter gilt die Transitivität Y ⊂ Z ⇒ X ⊂ Z. Y X Wichtig für den Nachweis der (1.2) Gleichheit zweier Mengen ist die Äquivalenz X = Y ⇔ X ⊂ Y und Y ⊂ X. 4 Dabei bezeichnet Ist X ⇔ äquivalent zu die Implikationen für beide Richtungen. eine Menge und E eine Eigenschaft (die die Elemente von X besitzen können oder auch nicht), dann bezeichnet {x ∈ X : E(x)} die Menge von Elementen x von X, die E besitzen. Diese Menge ist eine Teilmenge von X. Zum Beispiel ist die Menge der geraden natürlichen Zahlen {n ∈ N : n gerade eine Teilmenge von } = {2, 4, 6, . . .} N. Unerläÿlich ist die Einführung der diese gilt nach (1.1) für jede Menge (1.3) leeren Menge ∅, die Menge, die kein Element enthält. Für X: ∅ ⊂ X. Schlieÿlich bezeichnet P(X) die Potenzmenge von X, die Menge aller Teilmengen von X. Ein Beispiel dazu sei X = {1, 2, 3} ⇒ P(X) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, X}. Allgemein gilt stets ∅ ∈ P(X), X ∈ P(X) einelementige Menge. Üb X n-elementig ⇒ P(X) ist und {a} ∈ P(X) für jedes a ∈ X. Dabei ist {a} 2n -elementig. Mengenoperationen Seien (1.4) X, Y, Z Der Mengen. Durchschnitt zweier Mengen: X ∩ Y := {z : z ∈ X Der Doppelpunkt bei := und z ∈ Y }. bedeutet, dass die linke Seite durch die rechte Seite deniert wird. X Y∩X (1.5) Die Vereinigung Y zweier Mengen: X ∪ Y := {z : z ∈ X 5 oder z ∈ Y }. eine X Y Y∪X (1.6) Die Dierenz zweier Mengen: X \ Y := {z ∈ X : z ∈/ Y }. Y X X\Y Es gelten folgende Beziehungen: • X \ X = ∅, X \ ∅ = X • X ∪ X = X, X ∩ X = X • X ∪ Y = Y ∪ X, X ∩ Y = Y ∩ X • X ⊂Y ⇔X ∪Y =Y ⇔X ∩Y =X • X⊂Z und Y ⊂Z ⇔X ∪Y ⊂Z • Z⊂X und Z ⊂Y ⇔Z ⊂X ∩Y • X ∪ (Y ∪ Z) = (X ∪ Y ) ∪ Z =: X ∪ Y ∪ Z • X ∩ (Y ∩ Z) = (X ∩ Y ) ∩ Z =: X ∩ Y ∩ Z • X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z) • X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z) Obermenge von X , d.h. X ⊂ E , auch E ⊃ X geschrieben. {X := E \ X Komplement von X bezüglich E . Sei auch Y ⊂ E . Dann gelten Sei E eine • {({(X)) = X • X \ Y = X ∩ {Y • {(X ∪ Y ) = ({X) ∩ ({Y ) • {(X ∩ Y ) = ({X) ∪ ({Y ) 6 heiÿt das E Y X • X ⊂ Y ⇔ {Y ⊂ {X • X ∩ Y = ∅ ⇔ X ⊂ {Y ⇔ Y ⊂ {X ⇔ ({X) ∪ ({Y ) = E Weitere Beziehungen für Mengen X, Y , Z: • (X ∪ Y ) \ Z = (X \ Z) ∪ (Y \ Z) • (X ∩ Y ) \ Z = (X \ Z) ∩ Y = X ∩ (Y \ Z) = (X \ Z) ∩ (Y \ Z) Kartesisches Produkt Seien a, b zwei Objekte. Diesen entspricht ein neues Objekt, das geordnete Paar (a, b). Dafür gilt denitionsgemäÿ: (a, b) = (a0 , b0 ) ⇔ a = a0 , b = b0 . So bedeutet z.B. (1.7) das (a, b) = (b, c), dass a = b = c. Seien X, Y Mengen. Dann ist die Menge aller Paare X × Y := {(x, y) : x ∈ X, Y ∈ Y } kartesische Produkt von X mit Y. Es wird X ×X auch mit X2 bezeichnet. Y (x,y) y x Zum Beispiel ist X N2 = {(n, m) : n ∈ N, m ∈ N} die Menge der Gitterpunkte 3 2 1 1 2 3 4 Es gelten folgende Beziehungen für Mengen X , X 0, Y , Y 0: 7 • X ×Y =∅⇔X =∅ • Sei X × Y 6= ∅. oder Dann: Y = ∅. X0 × Y 0 ⊂ X × Y ⇔ X0 ⊂ X und Y0 ⊂Y. • (X × Y ) ∪ (X 0 × Y ) = (X ∪ X 0 ) × Y Y X'×Y X×Y X X' • (X × Y ) ∩ (X 0 × Y 0 ) = (X ∩ X 0 ) × (Y ∩ Y 0 ). • Seien E ⊃ X , F ⊃ Y . Für das Komplement bezüglich E × F gilt: {(X × Y ) = ({X × F ) ∪ (E × {Y ). Beweis. Gemäÿ (1.2) beweise zunächst ⊂ . Sei (a, b) ∈ {(X × Y ). D.h. (a, b) ∈ / X ×Y. b∈ / Y (da sonst doch (a, b) ∈ X × Y ). a ∈ / X heiÿt a ∈ {X , b∈ / Y heiÿt b ∈ {Y . Also folgt: (a, b) entweder Element von {X × F oder von E × {Y . Das bedeutet (a, b) ∈ ({X × F ) ∪ (E × {Y ). Damit ist gezeigt: {(X × Y ) ⊂ ({X × F ) ∪ (E × {Y ). Das bedeutet entweder a∈ /X oder Nun zu ⊃ . Sei (a, b) ∈ ({X × F ) ∪ (E × {Y ). Damit ist entweder a ∈ {X oder b ∈ {Y . D.h. a∈ / X oder b ∈ / Y . Also (a, b) ∈ / X × Y . D.h. (a, b) ∈ {(X × Y ). Damit ist gezeigt: ({X × F ) ∪ (E × {Y ) ⊂ {(X × Y ). entweder Nach (1.2) folgt die behauptete Gleichheit. Für Mengen X, Y, Z deniert man entsprechend X × Y × Z := {(x, y, z) : x ∈ X, y ∈ Y, z ∈ Z} das kartesisches Produkt von ist für Mengen X, Y , Z, d.i. die Menge der geordneten Tripel (x, y, z). Allgemeiner X 1 , . . . Xn X1 × X2 × . . . × Xn := {(x1 , x2 , . . . , xn ) : x1 ∈ X1 , . . . , xn ∈ Xn } die Menge der geordneten n-Tupel. 8 2 Abbildungen X, Y Abbildung f X in (oder nach) Y ordnet jedem Element von X genau ein Element in Y zu. Zum Beispiel sei X die Menge der in München zugelassenen Autos, Y die Menge der möglichen Münchner Kennzeichen und f ordnet jedem Auto sein Kennzeichen zu. Oder X sei die Menge der Personen in Deutschland, Y = N und f ordnet jeder Person ihr Gewicht Seien Mengen. Eine von (in kp) zu. Man schreibt (2.1) f : X → Y, x 7→ f (x), und nennt f (x) das Bild von x in Y unter der Abbildung f. Y X f(x) x Jedem Element (2.2) Graphf der x∈X wird ein Bild und nur ein Bild zugeordnet. Weiter heiÿt := {(x, y) ∈ X × Y : y = f (x)} ∈ P(X × Y ) Graph von f . Er ist eine Teilmenge von X × Y . (2.3) Lemma. G ∈ P(X × Y ) (d.h. G ⊂ X × Y ) ist genau dann der Graph einer Abbildung, wenn zu jedem x ∈ X genau ein y ∈ Y existiert derart, dass (x, y) ∈ G. Y G x0 G y∈Y mit x0 ∈ X gibt (x0 , y) ∈ G. X G x0 ist kein Abbildungsgraph, denn zu es mehr als ein Y Y y f (x) ∈ Y x0 ∈ X gibt G ist Abbildungsgraph, denn zu jedem x ∈ X es genau ein y ∈ Y derart, dass (x, y) ∈ G. gibt G ist kein Abbildungsgraph, denn zu es kein y∈Y mit (x0 , y) ∈ G. X G x X 9 YX X bezeichnet die Menge aller Abbildungen von nach Y. Beispiele für Abbildungen b ∈ Y . f : X → Y, f (x) := b ∀ x ∈ X, ∗) Wert b. Es ist Graph f = X × {b}. (2.4) Sei heiÿt die konstante Abbildung von X in Y mit X = Y . f : X → X, f (x) := x, heiÿt die identische Abbildung oder Identität auf X und wird mit idX bezeichnet. Es ist Graph idX = {(x, x) : x ∈ X} die Diagonale von X × X . (2.5) Sei X X×X x x (2.6) X f : P(X) → P(X), f (Y ) := X \ Y , (2.7) pr1 ist die Komplementbildung. : X × Y → X, pr1 (x, y) := x, Komponente oder kurz die nennt sich die erste Projektion von Projektion X × Y. von X ×Y Entsprechend pr2 auf die erste : X×Y → Y, pr2 (x, y) := y . (2.8) Sei f ∈ Y X, A ⊂ X. Einschränkung Zwei Abbildungen von f |A : A → Y, f |A(x) := f (x) ∀ x ∈ A A. Es ist Graph f |A = Graph f ∩ (A × Y ). Dann ist f auf f, g ∈ Y X sind gleich, d.h. f = g, genau dann, wenn eine Abbildung, die f (x) = g(x) ∀ x ∈ X . Die folgende harmlos erscheinende mengentheoretische Annahme hat weitreichende Konsequenzen. (2.9) Auswahlaxiom. Seien X, Y Mengen und F : X → P(Y ) eine Abbildung mit F (x) 6= ∅ ∀ x ∈ X . Dann existiert eine Abbildung f : X → Y mit f (x) ∈ F (x) ∀ x ∈ X . Weitere Beispiele: • f : N → N, f (n) := 2n. • f : N → N, f (n) := f (15) = 3, usw... D.h. f (1) = 2, f (2) = 4, f (3) = 6, . . . kleinste Primzahl in n. Z.B. • f : N × N → Q (Menge der rationale Zahlen) , f (2) = 2, f (3) = 3, f (2n) = 2 ∀ n ∈ N, f (n, m) := n m • X := {1, 2, 3, 4}, Y := {a, b, c, d, e}, f : X → Y , f (1) := a, f (2) := c, f (3) := c, f (4) := b Üb Wie viele verschiedene Abbildungen von Y ∗) ∀ X , wenn X n Elemente und Y m X nach Y Elemente mit gibt es, m. a. W. wieviele Elemente besitzt m, n ∈ N hat? steht für für alle oder zu jeder/m. Es ist ein auf den Kopf gestelltes A. 10 Bild und Urbild von Mengen Seien f :X→Y eine Abbildung und A⊂X f (A) := {y ∈ Y : ∃ x ∈ A das (2.10) mit eine Teilmenge. Dann heiÿt kurz f (x) = y} = {f (x) ∈ Y : x ∈ A} ∈ P(Y )†) Bild von A (in Y ) unter f . Seien A, A0 ⊂ X . Dann gelten • A 6= ∅ ⇔ f (A) 6= ∅ • f ({x}) = {f (x)} ∀ x ∈ X • A ⊂ A0 ⇒ f (A) ⊂ f (A0 ) • f (A ∩ A0 ) ⊂ f (A) ∩ f (A0 ) • f (A ∪ A0 ) = f (A) ∪ f (A0 ) Üb Sei Beweise die obigen Aussagen. Finde ein Beispiel zu B⊂Y f (A ∩ A0 ) 6= f (A) ∩ f (A0 ). eine Teilmenge. Dann heiÿt f −1 (B) := {x ∈ X : f (x) ∈ B} ∈ P(X) dieser Teil von B hat ein leeres Urbild X das f -¹(B) Urbild von B (2.11) B bez. f. Lemma. Im Gegensatz zu f erhält f −1 alle mengentheoretischen Operationen. Seien B, B 0 ⊂ Y . Dann gelten • B ⊂ B 0 ⇒ f −1 (B) ⊂ f −1 (B 0 ) • f −1 (B ∩ B 0 ) = f −1 (B) ∩ f −1 (B 0 ) • f −1 (B ∪ B 0 ) = f −1 (B) ∪ f −1 (B 0 ) • f −1 (B \ B 0 ) = f −1 (B) \ f −1 (B 0 ) †) ∃ Y steht für es existiert. Es ist ein spiegelverkehrtes E. 11 Üb Beweise obige Aussagen. (2.12) Lemma. Sei A ⊂ X und B ⊂ Y . Es gelten folgende Beziehungen zwischen Bild und Urbild • f (f −1 (B)) = B ∩ f (X) • f −1 (f (A)) ⊃ A Beweis y ∈ f (f −1 (B)) ⇒ ∃ x ∈ y = f (x) ⇒ ∃ x ∈ X mit f (x) ∈ B und y = f (x) ⇒ y ∈ B ∩ f (X). −1 (B) mit f (x) = y Nun zu ⊃. Sei y ∈ B ∩ f (X) ⇒ y ∈ B und ∃ x ∈ X mit y = f (x) ⇒ ∃ x ∈ f ⇒ y ∈ f (f −1 (B)). der ersten Aussage. Gemäÿ (1.2) zeige zunächst ⊂. Sei f −1 (B) mit f −1 (f (A)) 6= A Beweise die zweite Aussage und gebe ein Beispiel für Üb (2.13) • an. Lemma. Für die Projektionen (2.7) gelten: −1 pr1 (A) = A × Y, −1 pr2 (B) = X × B für A⊂X und B⊂Y • Z ⊂ X × Y ⇒ Z ⊂ pr1 (Z) × pr2 (Z) Üb Beweise obige Aussagen und gebe ein Beispiel für Üb Gebe ein Beispiel für Üb Finde jeweils ein Beispiel für f ∈YX und A, A0 ⊂ X f ∈YX und mit A⊂X Z 6= pr1 (Z) × pr2 (Z) A ⊂ A0 und an. f (A0 \ A) 6= f (A0 ) \ f (A) an. derart, dass gilt: f (X \ A) ⊂ Y \ f (A) f (X \ A) ⊃ Y \ f (A) weder ⊂ noch ⊃ . Surjektive, injektive und bijektive Abbildungen Sei f f ∈ Y X, heiÿt X d.h. f :X→Y eine Abbildung. surjektiv, wenn f (X) = Y . M.a.W. ∀ y ∈ Y ∃x ∈ X : f (x) = y . x Y f y x' (Das schlieÿt nicht aus, dass es mehrere Urbilder gibt.) Man sagt auch, f heiÿt injektiv oder eineindeutig, ∀ x, x0 ∈ X : f (x) = f (x0 ) ⇒ x = x0 . X wenn jedes y ∈ Y 12 ist eine Abbildung auf Y. höchstens ein Urbild besitzt. M.a.W. Y f f (Das schlieÿt nicht aus, dass es zu einem f heiÿt bijektiv, wenn f y∈Y gar kein Urbild gibt.) surjektiv und injektiv ist, m.a.W. ∀ y ∈ Y ∃1 x ∈ X : f (x) = y. (2.14) Sei f ∈ Y X . Setze f˜ : X → f (X), f˜(x) := f (x). Dann ist f˜ surjektiv (klar). (2.15) Sei f ∈ Y X injektiv, A ⊂ X . Dann ist f |A injektiv (klar). Zeige mit Hilfe des Auswahlaxioms (2.9): Ist Üb injektiv ist und f ∈ Y X, dann existiert A⊂X derart, dass A ⊂ X . jA := −1 jA (B) = A ∩ B . idX |A heiÿt identische Einbettung von A in X . Für B ⊂ X gilt (2.17) Sei f ∈ Y X . Dann ist F : X → Graph f , F (x) := (x, f (x)), eine bijektive Abbildung. (2.18) pr1 und pr2 sind surjektiv auf X bzw. Y . (2.19) Die Komplementbildung (2.20) Lemma. Sei f ∈ Y X . Dann gelten für alle A ⊂ X und B ⊂ Y : surjektiv • f injektiv f |A f (A) = f (X). (2.16) Sei • f ‡) ist bijektiv. (2.6) ⇒ f (f −1 (B)) = B ⇒ f −1 (f (A)) = A Beweis. Die erste Aussage folgt sofort aus der ersten Aussage von (2.12), weil f (X) = Y . f −1 (f (A)) ⊂ A zu zeigen. Sei also x ∈ f −1 (f (A)) f (x0 ) = f (x) ⇒ x0 = x, weil f injektiv ist. Also x ∈ A. Zur zweiten Aussage: Wegen (2.12) bleibt ⇒ f (x) ∈ f (A) ⇒ ∃ x0 ∈ A (2.21) mit Die Umkehrabbildung. Sei f : X → Y eine bijektive Abbildung. Dann gibt es eine Abbil- dung g : Y → X derart, dass f (g(y)) = y ∀y ∈ Y und g(f (x)) = x ∀x ∈ X. Oenbar ist g eindeutig und bijektiv. Man nennt g die Umkehrabbildung von f f −1 := g . Beweis. f bijektiv ist, gilt: ∀ y ∈ Y ∃1 x ∈ X : f (x) = y. x ∈ X . Damit ist eine Abbildung g : Y → X erklärt. Für Da bestimmte Nenne g(y) und schreibt dieses eindeutig diese gelten denitionsgemäÿ obige Beziehungen. Vorsicht, f −1 ist. Wenn von B f : P(Y ) → P(X) existiert immer, die Umkehrfunktion jedoch nur, wenn bijektiv ist, ist natürlich für jedes bezüglich B⊂Y das Bild von B f bijektiv −1 gleich dem Urbild unter f f. Hintereinanderschaltung (=Komposition) von Abbildungen Seien X, Y, Z Mengen, f ∈ Y X , g ∈ ZY , d.h. f : X → Y, g : Y → Z Abbildungen. Dann ist h : X → Z, x 7→ h(x) := g(f (x)), eine Abbildung, denn jedem x∈X wird ein eindeutiges Bild g(f (x)) ∈ Z hierfür h=g◦f und nennt ‡) ∃1 h die Hintereinanderschaltung oder Komposition von steht für es existiert genau ein 13 g und f. zugeordnet. Man schreibt (2.22) Es gelten • h(A) = g(f (A)) ∀ A ⊂ X • h−1 (C) = f −1 (g −1 (C)) ∀ C ⊂ Z Üb (2.23) Beweise obige Relationen. Wenn g und f injektiv bzw. surjektiv sind, dann ist auch h = g ◦ f injektiv bzw. surjektiv. Ist f bijektiv, dann gilt nach (2.21) f −1 ◦ f = idX , f ◦ f −1 = idY . (2.24) Lemma. Sei f ∈ Y X , g ∈ X Y , h ∈ X X mit g ◦ f = h. Dann gilt: h bijektiv ⇒ f injektiv, g surjektiv. Üb (2.25) Zeige (2.24). Gebe ein Beispiel zu (2.24) an, wofür f nicht surjektiv und g nicht injektiv ist. Lemma. Seien A, B , C , D Mengen und f : A → B , g : B → C , h : C → D Abbildungen. Dann gilt h ◦ (g ◦ f ) = (h ◦ g) ◦ f , d.i. die Assoziativität der Komposition. Beweis. Für alle ((h ◦ g) ◦ f )(a). a ∈ A gilt: (h ◦ (g ◦ f ))(a) = h((g ◦ f )(a)) = h(g(f (a))) = (h ◦ g)(f (a)) = Wegen (2.25) sind die Klammern nicht notwendig: man schreibt 14 h ◦ g ◦ f. 3 Vollständige Induktion und Abzählbarkeit Die natürlichen Zahlen durchläuft man N, N = {1, 2, 3, . . .} sind angeordnet: von einer natürlichen Zahl n zur nächsten 1 < 2 < 3 < . . .. Auf n + 1 ohne Wiederkehr. diese Weise Vollständige Induktion Zu jeder natürlichen Zahl n sei eine Aussage A(n) gegeben. Die Richtigkeit dieser Aussagen soll vollständigen Induktion bedienen: Alle Aussagen A(n) für n ∈ N sind richtig, falls A(1) richtig ist (Induktionsanfang), und wenn für jedes n0 ∈ N, wofür A(1), A(2), . . . , A(n0 ) richtig sind (Induktionsvoraussetzung), auch A(n0 + 1) richtig ist (Induktionsschluss). bewiesen werden. Dazu kann man sich des Beweisprinzips der Beispiel. Arithmetische Summenformel (3.1) 1 1 + 2 + 3 + . . . + n = n(n + 1) 2 Beweis. A(n) ist die Aussage, dass die Summe der ersten n natürlichen Zahlen gleich 12 n(n+1) ist. 1= IA IV Sei 1 · (1 + 1), 2 n0 ∈ N d.h. A(1) derart, dass IS Zeige nun, dass ist richtig. A(n0 ) A(n0 + 1) gilt, d.h. dass 1 1 + 2 + . . . + n0 = n0 (n0 + 1). 2 richtig ist: 1 + 2 + . . . + n0 + (n0 + 1) = (1 + 2 + . . . + n0 ) + (n0 + 1) 1 IV 1 = n0 (n0 + 1) + (n0 + 1) = n0 + 1 (n0 + 1) 2 2 1 = (n0 + 2)(n0 + 1). Das ist A(n0 + 1). 2 Bemerkung. Oft, wie auch in diesem Fall, wird nicht die volle IV ausgenutzt, sondern nur die Gültigkeit von A(n0 ); die Gültigkeit von entsprechender Indizierung von A(n) A(n0 − 1), A(n0 − 2), . . . wird beim IS nicht benutzt . Bei kann der kleinste Index statt 1 irgendeine ganze Zahl (auch negativ) sein. Summenschreibweise. Für a1 + a2 + . . . + an (Pünktchenschreibweise) schreibt man ni=1 ai .∗) Dabei ist i der Summationsindex. (Dieser kann natürlich auch mit einem anderen Buchstaben P bezeichnet werden.) Allgemeiner ist für zwei ganze (auch negative) Zahlen (3.2) n X ai = am + am+1 + . . . an−1 + an i=m ∗) P Sigma, das groÿe griechische S 15 m≤n (3.3) Beispiel. Geometrische Summenformel n X xi = i=0 1 − xn+1 für jede Zahl x 6= 1. 1−x Beweis. IA IS x0 = 1, n+1 X 1 − x0+1 = 1, 1−x xi = i=0 n X d.h. A(0) ist richtig. xi + xn+1 i=0 1 − xn+1 + (1 − x)xn+1 1 − xn+1 + xn+1 = 1−x 1−x 1 − xn+2 = , d.h. A(n + 1) ist richtig. 1−x IV = Mächtigkeit X heiÿt gleichmächtig mit der Menge Y , wenn es eine bijektive Abbildung f : X → Y : Y → X nach (2.21) ebenfalls bijektiv ist, ist dann auch Y gleichmächtig mit X . Daher heiÿen X und Y gleichmächtig. Ist weiter Y gleichmächtig zu Z , dann sind X und Z gleichmächtig, denn Eine Menge −1 gibt. Da f f : X → Y, g : Y → Z bijektiv ⇒ g ◦ f : X → Z bijektiv nach (2.23). Eine Menge abzählbar, wenn X (3.4) X heiÿt abzählbar unendlich, wenn X gleichmächtig mit N ist. X heiÿt endlich oder abzählbar unendlich ist. Satz. Sei A ⊂ N unendlich. Dann ist A abzählbar unendlich. Beweis. f : N → A, n 7→ an := f (n) wie folgt: a1 sei das kleinste A \ {a1 }, usw. Seien a1 , . . . , an bereits kleinste Element von A \ {a1 , . . . , an } (6= ∅, weil A unendlich). Deniere eine Abbildung Element von A. Weiter sei bestimmt, dann sei an+1 a2 das das kleinste Element von Oenbar ist a1 < a2 < . . . < an für jedes n. Hieraus folgt, dass f injektiv ist. Auÿerdem ist n ≤ an ∀ n ∈ N und damit insbesondere b ≤ ab ∀ b ∈ A. f sei x ∈ A \ {a1 }. Dann existiert eine natürliche Zahl n ax ≥ x, gibt es eine gröÿte natürliche Zahl m < x mit am < x. Nehme nun an, es existiere b ∈ A mit am < b < x. Dann ist am+1 ≤ b < x nach Denition von am+1 , was aber ein Widerspruch zur Denition von m ist. Also ist am+1 = x. Zum Beweis der Surjektivität von mit (3.5) an < x. Da Satz. Sei A abzählbar und f : A → B surjektiv. Dann ist B abzählbar. Beweis. Für endliches A ist die Behauptung oensichtlich. Sei daher A unendlich. Wegen (3.4) A = N anzunehmen. Nach Voraussetzung ist f −1 ({b}) 6= ∅ ∀ b ∈ B . −1 ({b}). Es ist f (g(b)) = b ∀ b ∈ B , weshalb g : B → N Sei g(b) das kleinste Element von f injektiv ist nach (2.24). Damit sind B und g(B) gleichmächtig und die Behauptung folgt aus (3.4). ist es keine Einschränkung 16 Bemerkung am Rande: das Auswahlaxiom wurde in Beweis von (3.5) vermieden. (3.6) Satz. N = N × N ist abzählbar. Y 3 2 1 6 3 5 8 1 2 4 7 1 2 3 4 X 1 2 Beweis. f : N × N → N, f (x, y) := (x + y − 2)(x + y − 1) + y , ist bijektiv (s. Bild). Üb Zeige explizit, dass f in (3.6) bijektiv ist. Familien und Folgen Seien I, X nichtleere Mengen und eine Familie in X Index ι. Ist I = N, f ∈ XI. Schreibt man Indexmenge I , f (ι) =: xι ∀ ι ∈ I †) , dann nennt man und xι heiÿt Element oder Glied der Familie (xn )n∈N eine Folge und wird auch als unendliches Tupel I = {1, . . . , n}, dann ist (xι )ι∈I = (x1 , . . . , xn ) ein n-Tupel. (xι )ι∈I mit zum dann heiÿt (x1 , x2 , x3 , . . .) geschrieben. Ist Sei (Aι )ι∈I eine Familie von Teilmengen einer [ Aι := {x ∈ X : ∃ ι ∈ I mit x ∈ Aι } Menge. Dann heiÿen ι∈I die Vereinigung \ der Mengen Aι , ι ∈ I , Aι := {x ∈ X : ∀ ι ∈ I gilt und x ∈ Aι } ι∈I Durchschnitt der Mengen Aι , ι ∈ I . Eine andere Schreibweise dafür ist der [ [ Aι =: {Aι : ι ∈ I}, ι∈I Üb \ Aι = \ [ (Aι ∩ Bκ ) {Aι : ι ∈ I}. ι∈I Zeige: ! [ • { Aι = ι∈I \ {Aι ι∈I ! • [ ! [ ∩ Aι ι∈I Bκ κ∈K (ι,κ)∈I×K ! • \ Aι ι∈I ! \ ∪ Bκ = κ∈K Die Mengen (3.7) = Aι , ι ∈ I , \ (Aι ∪ Bκ ) (ι,κ)∈I×K heiÿen paarweise disjunkt, wenn Aι ∩ Aι0 = ∅ für ι, ι0 ∈ I mit ι 6= ι0 . Satz. Eine Vereinigung von abzählbar vielen abzählbaren MengenSist abzählbar. Ist also I eine abzählbare Menge und ist Aι abzählbar für jedes ι ∈ I , dann ist ι∈I Aι abzählbar. Beweis Einschränkung ist I ⊂ N und die An ⊂ N × {n} sind paarweise disjunkt. Dann S . Ohne S ist †) ι n∈I An ⊂ n∈N N × {n} = N2 abzählbar nach (3.6). Die Behauptung folgt mit (3.4). iota 17 4 Gruppen, Körper, Vektorräume Uns werden vornehmlich reelle oder komplexe Vektorräume interessieren. In Hinblick auf spätere Themen ist es jedoch angebracht, etwas allgemeiner zu sein und mit Gruppen und Körpern zu beginnen. (4.1) Denition und Lemma. Eine Gruppe ist eine Menge G mit einem Element e ∈ G und einer inneren Verknüpfung, d.i. eine Abbildung von G × G in G, (x, y) 7→ xy , derart, dass ∀ x, y, z ∈ G a) x(yz) = (xy)z b) ex = x c) ∃ x−1 ∈ G mit x−1 x = e. Eigenschaft a) ist die Assoziativität der Verknüpfung. In jeder Gruppe gelten für alle x ∈ G xx−1 = e xe = x e ist eindeutig x−1 ist eindeutig und x−1 −1 a) = x. c) a) b) Beweis. z := x−1 ⇒ z −1 zxz = (z −1 z)xz = exz = e(xz) = xz = xx−1 ; c) a) b) c) a) z −1 zxz = a) b) = e. Damit folgt x = ex = xx−1 x = andererseits z −1 (zx)z = z −1 ez = z −1 (ez) = z −1 z = e. Also gilt xx−1 c) x x−1 x = xe. Sei e0 ∈ G mit e0 x = x ∀ x ∈ G. Insbesondere ist e0 e = e. Andererseits gilt e0 e = e0 0 0 wie gerade gezeigt. Daher ist e = e . Schlieÿlich gelte für x ∈ G sowohl zx = e wie z x = e. Es −1 = (zx) x−1 = ex−1 = x−1 . und ebenso z 0 = x−1 . Also ist z = z 0 , d.h. x−1 folgt z = ze = z xx −1 −1 −1 −1 ist eindeutig. Daher folgt aus x x = e = xx−1 , dass x−1 = x. Einselement der Gruppe G und x−1 das zu x inverse Element. Wir haben die Gruppenverknüpfung multiplikativ geschrieben. Dementsprechend heiÿt xy das Produkt von x mit y . Man kann auch die additive Schreibweise x + y verwenden. Dann heiÿt x + y die Summe von x mit y . In diesem Fall heiÿt e das Nullelement und wird mit 0 bezeichnet. Das inverse Element wird mit −x bezeichnet und heiÿt entgegengesetztes Element. Die Gruppe G heiÿt abelsch oder kommutativ, wenn xy = yx ∀ x, y ∈ G. Deshalb heiÿt e das Beispiele (4.2) Die ganzen Zahlen Z = {. . . , −2, −1, 0, 1, 2, . . .} sind eine additive abelsche Gruppe: ∀ x, y, z ∈ Z gilt x + y = y + x ∈ Z, 0 + x = x + 0 = x, x − x = 0 und die Assoziativität (x + y) + z = x + (y + z). In der Physik begegnet man Z als der Gruppe derjenigen Translationen, die ein eindimensionales beidseitig unendlich ausgedehntes Kristallgitter mit Gitterkonstante 1 invariant lassen. Es besteht ein enger Zusammenhang zu den Fourierreihen. N mit der gewöhnlicher Addition ist keine Gruppe, da kein Nullelement vorhanden ist. Aber auch N0 := N ∪ {0} ist keine Gruppe, da nur 0 ein inverses Element besitzt. Wie Z ist auch Q, die Menge der rationalen Zahlen, oder R, die Menge der reellen Zahlen, eine additive abelsche Gruppe bez. der gewöhnlichen Addition. 18 Q∗ := Q \ {0} R∗ := R \ {0} sind multiplikative abelsche Gruppen bez. der gewöhnlichen −1 = 1 das inverse Element, wobei 1 ∈ R das Einselement ist. Multiplikation: Für r ∈ R, r 6= 0, ist r r ∗ ∗ Q+ := {r ∈ Q : r > 0}, R+ := {r ∈ R : r > 0} sind ebenso multiplikative abelsche Gruppen bez. und der gewöhnlichen Multiplikation. (4.3) Lemma und Denition. Sei X eine nichtleere Menge. Dann ist S(X) := {f ∈ X X : f bijektiv} eine Gruppe bez. der Komposition von Abbildungen. Einselement ist idX , das inverse Element von f ist die Umkehrabbildung f −1 . Zur Assoziativität siehe (2.25). S(X) heiÿt die symmetrische Gruppe der Menge X . Für n∈N schreibt man kurz Eine Gruppe G heiÿt Sn := S({1, . . . , n}). f ∈ Sn Zeige: |Sn | = 1 · 2 · 3 · 4 · . . . · (n − 1) · n =: n! Üb Zeige: Sn (4.4) Permutation der Zahlen 1, . . . , n. endlich, wenn G eine endliche Menge ist. |G| heiÿt die Ordnung Üb ist für heiÿt n≥3 von G. ( n Fakultät ). nicht abelsch. Lemma. Seien G, G0 Gruppen. Dann ist G × G0 eine Gruppe bez. der inneren Verknüpfung (x, x0 )(y, y 0 ) := (xy, x0 y 0 ) mit Einselement (e, e0 ). Das inverse Element (x, x0 )−1 lautet x−1 , x0−1 . Dies ist leicht zu verizieren und lässt sich sofort auf mehrere Faktoren verallgemeinern: G1 × . . . × G n (4.5) (x1 , . . . , xn )(x1 , . . . , xn ) = (x1 y1 , . . . , xn yn ) Gn = G × . . . × G (n Faktoren) eine Gruppe. wird mit der Gruppenverknüpfung hen. In diesem Sinn ist insbesondere verse- Lemma. Rn ist mit der additiven Verknüpfung (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , . . . , xn +yn ), dem Nullelement 0 = (0, 0, . . . , 0) und dem entgegengesetzten Element −(x1 , . . . , xn ) = (−x1 , . . . , −xn ) eine additive abelsche Gruppe. Q und R sind Körper, weil man in Q und in R addieren und multiplizieren kann. Genauer gelten folgende Körperaxiome. (4.6) Denition. Ein Körper ist eine Menge K mit Elementen 0 ∈ K , 1 ∈ K , 0 6= 1 und zwei inneren Verknüpfungen K × K → K, (x, y) 7→ x + y K × K → K, (x, y) 7→ xy derart, dass K mit 0 (Addition), (Multiplikation) und Addition eine abelsche Gruppe ist, und Multiplikation eine abelsche Gruppe ist, und die beiden K ∗ := K \ {0} Distributivgesetze mit 1 und x(y + z) = xy + xz (x + y)z = xz + yz ∀ x, y, z ∈ K gelten. Um die Klammerungen zu reduzieren, vereinbart man dabei die Konven- tion Multiplikation vor Addition. (4.7) Lemma. Q = n p q : p ∈ Z, q ∈ N setzte Element und r−1 = der Multiplikation. (4.8) q p o ist ein Körper: Zu r = falls p > 0 bzw. ∈ Q ist −r = • xy = 0 ⇒ x = 0 oder y=0 • x(−y) = (−x)y = −(xy) =: −xy. Beweise obige Aussagen. 19 −p q das entgegenge- falls p < 0, kurz 1r , das inverse Element bez. Lemma. Sei K ein Körper. Es gelten folgende Regeln für x, y ∈ K : • 0x = x0 Üb −q −p p q Körper der komplexen Zahlen Gemäÿ (5) ist R2 eine additive abelsche Gruppe bez. der Addition (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ) (4.9) 0 = (0, 0) als Nullelement und −(x, y) = (−x, −y) als entgegengesetztes Element. Nun wird auf R2 auch noch eine Multiplikation erklärt, womit R2 ein Körper gemäÿ Denition (6) wird. Für alle (x, y), (x0 , y 0 ) ∈ R2 sei mit (4.10) (x, y)(x0 , y 0 ) := (xx0 − yy 0 , xy 0 + yx0 ). Die Assoziativität und die Distributivgesetze sind leicht nachzuprüfen. Die Kommutativität ist (1, 0), denn + 0 · x) = (x, (1, 0)(x, y) = (1 · x − 0 · y, 1 · y y). Das −y −y x x −1 inverse Element lautet (x, y) = x2 +y2 , x2 +y2 für (x, y) 6= 0, denn x2 +y2 , x2 +y2 (x, y) = 2 2 xy −xy x − x−y = (1, 0). 2 +y 2 , x2 +y 2 + x2 +y 2 x2 +y 2 klar. Das Einselement ist Also ist R2 mit Addition (9) und Multiplikation Zahlen. Er wird mit C bezeichnet. (4.11) ein Körper, (10) der Körper der komplexen Schreibweisen. Man setzt 1 := (1, 0) für das Einselement und i := (0, 1) für die imaginäre Einheit. Dann ist i2 = (0, 1)(0, 1) = (0 · 0 − 1 · 1, 0 · 1 + 1 · 0) = −(1, 0) = −1. Weiter schreibt man jede komplexe Zahl z = (x, y) ∈ R2 in der Form z = x + iy und nennt Re z := x den Realteil von z und Im z := y den Imaginärteil von z . Damit rechnet sich leicht formal. So lautet die Addition (9) z + z 0 = (x + iy) + (x0 + iy 0 ) = x + x0 + i(y + y 0 ). Das letzte Klammernpaar muss gesetzt werden. Das Produkt (10) ergibt sich durch Ausmultiplizieren zz 0 = (x + iy)(x0 + iy 0 ) = xx0 − yy 0 + i(xy 0 + yx0 ). Die zu z = x + iy konjugiert komplexe Zahl ist deniert als z := Re z − i Im z = x − iy, = Re z, (4.12) d.h. Re z Im z = −Im z. Für die komplexe Konjugation gelten folgende leicht zu verizierenden Rechenregeln: • z + z0 = z + z0 • zz 0 = z z 0 20 • z∈R⇔z=z • zz = (Re z)2 + (Im z)2 , 2 2 2 2 2 2 2 denn (x + iy)(x − iy) = x − (iy) = x − i y = x + y . Schlieÿlich deniert man den (4.13) |z| := √ q zz = Absolutbetrag (Re )2 + (Im )2 = von z ∈ C. p x2 + y 2 . |z| = Länge des Vektors z nach Pythagoras Dafür gelten die Rechenregeln • |z| = 0 ⇔ z = 0 • |z| = |z| • |zz 0 | = |z||z 0 | Üb Rechne diese Regeln nach. Erwähnt sei noch die Dreiecksungleichung, die vornehmlich in der Analysis eine wichtige Rolle spielt. • |z + z 0 | ≤ |z| + |z 0 | Später wird eine allgemeinere Aussage bewiesen. Inversenbildung, Reellmachen des Nenners z −1 = 1z z Re z Im z x y = 2 = −i 2 = 2 −i 2 , zz |z| |z|2 |z| x + y2 x + y2 vgl. nach (10). Dazu rechnen wir abschlieÿend das Beispiel 1−i (1 − i)(3 + 4i) 3 + 4 − 3i + 4i 7 1 = = = +i . 3 − 4i 32 + 42 25 25 25 21 (4.14) Denition. Sei K ein Körper. Ein Vektorraum oder linearer Raum über K oder auch K-Vektorraum ist eine additiv geschriebene abelsche Gruppe V mit einer Verknüpfung K × V → V, derart, dass für alle (α, x) 7→ αx, α, β ∈ K • (αβ)x = α(βx) • (α + β)x = αx + βx Die Elemente von (1 V ∈K heiÿen ∗) x, y ∈ V Assoziativität • α(x + y) = αx + αy • 1x = x und Multiplikation mit Skalaren Distributivgesetze Einselement des Körpers). Vektoren, die von K heiÿen Skalare. Meist werden Vektoren mit lateinischen Buchstaben und Skalare mit griechischen Buchstaben bezeichnet. Es gilt die Konvention Multiplikation vor Addition. Damit kann man auf manche Klammerung verzichten. Ein C-Vektorraum (4.15) heiÿt R- bzw. reeller bzw. komplexer Vektorraum. VR steht in Zukunft für Vektorraum. Beispiel. Die wichtigsten reellen bzw. komplexen VR sind Rn bzw. Cn für n ∈ N. Allgemeiner, ist K ein Körper, dann ist Kn ein K -VR mit der komponentenweise erklärten Addition x + x0 = (x1 , . . . , xn ) + (x01 + . . . + x0n ) := (x1 + x01 , . . . , xn + x0n ) und Multiplikation mit Skalaren λx = λ(x1 , . . . , xn ) := (λx1 , . . . , λxn ). Insbesondere ist K = K1 ein K -VR. Beachte, dass die Komponenten Die Gültigkeit der VR-Axiome veriziert man direkt. x1 , . . . , xn von x ∈ K n mit lateinischen Buchstaben bezeichnet werden, obwohl es Körperelemente sind. (4.16) Beispiel. Eine Verallgemeinerung von für einen Körper K Kn und einer nichtleeren Menge man die Linearkombination f + λg K VR K X X . Für f, g ist der f :X →K λ ∈ K deniert x→ 7 f (x) + λ g(x). Es aller Funktionen X und aus K punktweise, d.h. als die Funktion gilt also (f + λ g)(x) = f (x) + λ g(x) Der Nullvektor 0 von K X ist die Funktion auf Gültigkeit der VR-Axiome für ∗) α alpha , β KX X , die konstant den Wert 0 ∈ K veriziert man leicht. beta 22 ∀x ∈ X. annimmt. Die Üb (4.17) Inwiefern ist der K -VR K X aus (16) eine Verallgemeinerung von Sei V K -VR. Dann gilt ∀ x ∈ V , α ∈ K • 0x = 0 • α0=0 • αx = 0 ⇒ α = 0 oder x=0 • −x = (−1) x • (−α) x = −(α x) = α (−x) Achtung! Es treten zwei verschiedene Nullen auf: Üb 0∈K Beweise obige Gleichungen. 23 und 0∈V. K n? 5 Lineare Unabhängigkeit, Basen, Dimension In diesem Kapitel werden allgemeine strukturelle Eigenschaften eines Vektorraums untersucht. Im Raum x, y ∈ E R3 E durch λ ∈ R gilt: hat eine Ebene und jedem Skalar den Ursprung die Eigenschaft, dass mit je zwei Vektoren x + λy ∈ E. Auch jede Gerade durch den Ursprung hat diese Eigenschaft. Gibt es noch andere Teilmengen von R3 mit dieser Eigenschaft? (5.1) Denition. (UVR) von (5.2) Sei V, V ein K VR und W ⊂ V mit 0 ∈ W . Dann x, y ∈ W, λ ∈ K gilt: x + λy ∈ W . heiÿt W Untervektorraum wenn für alle Lemma. Jeder UVR W eines K VR V ist selbst ein K VR bez. der auf V erklärten VR Verknüpfungen. Beweis. x + y = x + 1y und λx = 0 + λx für x, y ∈ W, λ ∈ K bilden nach W ab. Auÿerdem ist −x = (−1)x ∈ W für x ∈ W . Insbesondere ist W eine abelsche Gruppe. Die übrigen VR-Axiome gelten, weil sie für V gelten. Die VROperationen W gegeben, dann ist oensichtlich U ein UVR von V . Es sind {0} und V . Ebenen und Geraden in R3 durch 0 ∈ R3 sind (neben {0} und R3 ) 3 3 die einzigen UVR von R . Das wird noch begründet. Eine Gerade in R durch den Nullpunkt ist 3 3 3 jede Teilmenge G = {λ x0 : λ ∈ R} von R mit x0 ∈ R \ {0}. Je zwei Vektoren x1 , x2 aus R , die nicht auf einer Geraden durch den Nullpunkt liegen, d.h. {x1 , x2 } 6⊂ G ∀ G, spannen eine Ebene E = {λ1 x1 + λ2 x2 : λ1 , λ2 ∈ R} ⊂ R3 durch den Nullpunkt auf. Zwei weitere Beispiele für UVR U Ist in (2) ein UVR V von (triviale) UVR von folgen. (5.3) Beispiel. Seien K ein Körper und α1 , . . . , αn ∈ K . Dann ist ( W := x ∈ Kn : n X ) αi xi = 0 i=1 6= 0 heiÿt W Hyperebene. P Beweis. Es ist 0 ∈ W , denn 0 = (0, . . . , 0) und ni=1 αi 0 = 0. Seien x, y ∈ W , λ ∈ K . Dann ist x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) und somit λy = (λy1 , . . . , λyn ), x + λy = (x1 + λy1 , . . . , xn + λyn ). Es ist zu prüfen, ob x + λy ∈ W . Rechnen in K liefert: ein UVR von K n . Im Fall (α1 , . . . , αn ) n X n X i=1 αi (xi + λyi ) = (αi xi + λαi yi ) i=1 = α1 x1 + λα1 y1 + . . . + αn xn + λαn yn n n X X x,y∈W = αi xi + λ αi yi = 0 + λ0 = 0 ⇒ x + λy ∈ W. i=1 i=1 24 (5.4) Beispiel. Sei X eine Menge, K ein Körper. Dann ist K (X) := f ∈ K X : f −1 (K \ {0})) ist endlich ein UVR von Üb (5.5) a) b) Üb KX . Weise (4) nach. Lemma und Denition. Sei V ein VR. Der Durchschnitt von beliebig vielen UVR von V ist ein UVR von V . T Sei M ⊂ V und hM i := {W : W ⊂ V UVR, W ⊃ M }. Dann ist hM i ein UVR von V mit folgender Eigenschaft: Ist W ein UVR von V mit M ⊂ W , dann ist hM i ⊂ W . Daher ist hM i der kleinste UVR von V , der M enthält. Er heiÿt der von M erzeugte UVR. Weise die Aussagen von (5) nach. Zu b) beachte, dass und damit hM i V ∈ {W : W ⊂ V UVR , W ⊃ M} = 6 ∅ deniert ist. Im Folgenden bedeutet die Schreibweise (5.6) x1 , . . . , xn ∈ V , dass (xi )i=1,...,n eine Familie in V ist. Denition. Sei V ein K -VR, seien x1 , . . . , xn ∈ V und sei x ∈ V . Dann ist x eine Linearkombination der Vektoren x1 , . . . , xn , wenn es α1 , . . . , αn ∈ K gibt derart, dass x = α1 x1 + α2 x2 + . . . + αn xn = n X αi xi . i=1 (5.7) Denition. Sei V ein K -VR und M ⊂ V , M 6= ∅. M Dann heiÿt die Menge aller Linearkombi- nationen von Vektoren aus ( Span M := x ∈ V : ∃ n ∈ N, x1 , . . . , xn ∈ M, α1 , . . . , αn ∈ K mit x= n X ) αi xi i=1 M aufgespannte lineare Raum oder die lineare Hülle von M . Man schreibt auch Lin M füt Span M . Es wird Span ∅ = {0} gesetzt. der von (5.8) Satz. Es gilt: Span M = hM i. Beweis. Oensichtlich ist M ⊂ SpanM . Weiter ist Span M ein UVR, denn 0 ∈ Span M (klar) und Pn x, y ∈ Span M , λ ∈ K , dann existieren x1 , . . . , xn ∈ M und α1 , . . . , αn ∈ K mit x = Pm Pn i=1 αi xi sowie y1 , . . . , ym ∈ M und β1 , . . . , βm ∈ K mit y = j=1 βj yj , weshalb x + λy = i=1 αi xi + Pm j=1 λβj yj ∈ Span M . sind Ist nun W ein UVR mit M ⊂ W , dann gilt für x1 , . . . xn ∈ M : (. . . (((α1 x1 ) + α2 x2 ) + α3 x3 ) + . . . + αn xn ) ∈ W . Also gilt W ⊃ Span M . Hieraus folgt die Behauptung. (5.9) Denition und Lemma. Seien U , W UVR des VR V . Setze U + W := {z ∈ V : ∃ x ∈ U, y ∈ W mit z = x + y} . Oensichtlich ist U + W = Span (U ∪ W ). W. Der UVR U +W Summe heiÿt die (VR-) von U und Entsprechend deniert man allgemein die Summe von endlich vielen VR. Für {αx : α ∈ K}. Kx ist ein UVR. Hiermit erhält man speziell: 25 x ∈ V sei Kx := (5.10) (5.11) Lemma. Für x1 , . . . xn ∈ V gilt Denition. Seien V ein VR, W ⊂ V menge von W , wenn Span M = W . Ist Span {x1 , . . . , xn } (5.12) Span {x1 , . . . , xn } =V, dann sagt man, = Kx1 + Kx2 + . . . + Kxn . ein UVR und M ⊂ W. Dann heiÿt M Erzeugenden- x1 , . . . , xn erzeugen V . Beispiel. In K n seien e1 := (1, 0, . . . , 0), e2 := (0, 1, . . . , 0),..., en := (0, . . . , 0, 1) kanonischen Einheitsvektoren. Diese erzeugen K n , denn für x ∈ K n gilt: x = (x1 , . . . , xn ) = x1 e1 + x2 e2 + . . . + xn en = n X die sog. xi ei ∈ Ke1 + Ke2 + . . . + Ken . i=1 (5.13) a) Lemma. Seien V Üb A, B ⊂ V . Dann gelten: B ⊂ Span A ⇔ Span (A ∪ B) = Span A. b) Span (Span A) c) ein VR und W UVR = Span A. ⇔ Span W = W . Weise (13) nach. paarweise verschieden, mit i 6= j . Man sagt auch, die Familie (xi )i=1,...,n ist injektiv. Die Vektoren (5.14) x1 , . . . , xn ∈ V Denition. Sei V ein heiÿen derart, dass n X xi 6= xj i, j ∈ {1, . . . , n} wenn gilt: Sind α1 , . . . , αn ∈ K K -VR. Familie (xi )i=1,...,n a) Die für wenn αi xi = 0, in V heiÿt dann folgt linear unabhängig, α1 = α2 = . . . = αn = 0. i=1 Teilmenge M ⊂ V b) Die M heiÿt linear unabhängig, wenn jede endliche injektive Familie in linear unabhängig ist. Sprechweise. Man sagt in (14) a) etwas lax, dass x1 , . . . , xn ∈ V linear unabhängig sind. Entspre- chend heiÿt (14) b), dass je endlich viele paarweise verschiedene Vektoren aus M linear unabhängig sind. (5.15) Beispiel. In K n sind die kanonischen Einheitsvektoren (s. (12)) linear unabhängig. Beweis. Also gilt Üb Pn = 0 für gewisse α1 , . . . , αn ∈ K . Nun ist (α1 , . . . , αn ) = 0 = (0, . . . , 0), d.h. α1 = 0, . . . , αn = 0. Sei i=1 αi ei Pn i=1 αi ei = (α1 , . . . , αn ), Zeige, dass Monome, Splines oder trigonometrische Monome linear unabhängige Mengen von Funktionen bilden. (5.16) s. (12). Lemma. Es sind äquivalent: (i) (ii) (iii) x1 , . . . , xn sind linear unabhängig. Keiner der Vektoren xi ist Linearkombination der anderen. Die Darstellung eines Vektors als Linearkombination der xi ist eindeutig. 26 Beweis. P Pn ⇒ (ii): Angenommen xi0 = i=1,i6=i0 βi xi mit βi ∈ K . Setze βi0 := −1. Dann ist n i=0 βi xi = 0, wobei (β1 , . . . , βn ) 6= 0. Das ist ein Widerspruch zu (i). Pn (ii) ⇒ (i): Angenommen es ist i=0 αi xi = 0 mit (α1 , . . . , αn ) 6= 0. Dann existiert i0 mit ai0 6= 0. (i) Damit folgt n X −αi xi αi0 xi0 = i=1,i6=i0 im Widerspruch zu (ii). (i) i ⇒ (iii): Sei x∈V mit Pn i=1 αi xi Pn i=1 βi xi = ⇒ Pn i=1 (αi − βi )xi = 0 ⇒ αi − βi = 0 für alle wegen (i), was (iii) bedeutet. (iii)⇒ (i): Wäre 0 = Pn i=1 αi xi mit Darstellungen als Linearkombination der (α1 , . . . , αn ) 6= 0, dann hätte 0 ∈ V xi im Widerspruch zu (iii). Insbesondere gilt für linear unabhängige Vektoren x1 , . . . , xn , dass kein xi = 0 zwei verschiedene ist und dass die xi paarweise verschieden sind. Beides reicht aber natürlich nicht für die lineare Unabhängigkeit, denn z.B. für x1 ∈ V \ {0}, α ∈ K \ {0, 1} ist x1 6= αx1 =: x2 6= 0 und dennoch x1 + − α1 x2 = 0. Allgemeiner als (16) ist das folgende Lemma. (5.17) Lemma. Sei V ein VR und M ⊂ V . Dann sind äquivalent: (i) (ii) (iii) Beweis. αx 6= 0 M ist linear unabhängig. Keiner der Vektoren x ∈ M ist Linearkombination der Vektoren aus M \ {x}. Die Darstellung eines Vektors als Linearkombination von Vektoren aus M ist eindeutig. Jedes y ∈ Span M läÿt sich in der Form nur für endlich viele x ∈ M. y = P x∈M αx x schreiben, wobei αx ∈ K und Damit ist die Summe wohldeniert. Diese Schreibweise ist sehr bequem. P y = x∈M βx x mit βx ∈ K \ {0} nur für endlich viele x ∈ M . Dann ist 0 = x∈M (αx − βx )x. Weil M linear unabhängig ist, folgt αx − βx = 0 ∀ x ∈ M . P (iii) ⇒ (i): Wäre 0 = x∈M αx x mit {x ∈ M : αx ∈ K \ {0}} endlich aber nicht leer, dann hätte 0 ∈ Span M zwei verschiedene Darstellungen im Widerspruch zu (iii). ⇒ P (i) (i) (5.18) (5.19) (5.20) ⇔ (iii): Sei nun auch (ii): Der Beweis verläuft wie der zu (15), (i) Denition. Sei V ein VR und M ⊂V. • M ist linear unabhängig • M ist eine Erzeugendenmenge von ⇔ (ii). Dann heiÿt M eine Basis von V , wenn gelten: V. Beispiel. Die Menge der kanonischen Einheitsvektoren e1 , . . . , en ist eine Basis von K n , die kanonische Basis oder Standardbasis. Das folgt aus (12),(15). Beispiel. Sei X 6= ∅ eine Menge. Zu y ∈ X betrachte ey : X → K , ey (x) := 1 falls x = y . 0 falls x 6= y Dann ist {ey : y ∈ X} eine Basis von K (X) . Üb (5.21) Weise (20) nach. Satz und Denition. Es ist M ⊂ V genau dann eine Basis von V , wenn jeder Vektor eine eindeutige Darstellung als Linearkombination von Vektoren aus M hat, d.h. wenn es zu jedem y ∈ V eindeutige αx ∈ K , x ∈ M , mit αx = 0 bis auf endlich viele x ∈ M gibt derart, P dass y = x∈M αx x. Die zu y ∈ V eindeutig bestimmten Koezienten αx , x ∈ M , sind die Koordinaten von y bez. der Basis M . 27 Beweis. M Ist eine Basis, dann folgt die Behauptung aus Umgekehrt gilt ebenfalls (5.22) V = Span M und (17), (i)⇒(iii). Wende (17), (iii)⇒(i) an. V = Span M . Beispiel. Für x = (x1 , . . . , xn ) ∈ K n sind x1 , . . . , xn die Koordinaten von x bez. der kanonischen Basis. (5.23) Basisergänzungssatz. Seien x1 , . . . , xn ∈ V linear unabhängig. Weiter seien y1 , . . . , ym ∈ V derart, dass Span {x1 , . . . , xn , y1 , . . . , ym } = V . Dann lassen sich die x1 , . . . , xn durch Hinzunahme von Vektoren aus {y1 , . . . , ym } zu einer Basis von V ergänzen. Beweis. Ist bereits Span {x1 , . . . , xn } = V , dann gilt die Behauptung. Andernfalls ist {y1 , . . . , ym } 6⊂ Span {x1 , . . . , xn } nach (13) a). Sei j1 ∈ {1, . . . , m} der kleinste Index mit / Span {x1 , . . . , xn }. yj1 ∈ Dann gelten: a) x1 , . . . , xn , yj1 sind linear unabhängig. b) Span {x1 , . . . , xn , yj1 , yj1 +1 , ym } =V. Pn Zum Nachweis von a) nehme an, dass ( i=1 αi xi ) + βyj1 = 0 mit (α1 , . . . , αn , β) 6= (0, . . . , 0). Dann Pn ist β 6= 0, weil sonst α x = 0 mit (α1 , . . . , αn ) 6= (0, . . ., 0) im i=1 i i Widerspruch zur linearen Pn −αi Unabhängigkeit von x1 , . . . , xn . Damit ist jedoch yj1 = xi ∈ Span {x1 , . . . , xn } im i=1 β Widerspruch zur Wahl von yj1 . Zum Nachweis von b) beachte, dass {y1 , . . . , yj1 −1 } ⊂ Span {x1 , . . . , xn } und damit bereits V = Span {x1 , . . . , xn , yj1 , . . . , ym } nach (13) a). Die Behauptung folgt nun, indem man dieses Argument höchstens m mal wiederholt. Üb Sei M ⊂V linear unabhängig und y∈V mit y∈ / Span M . Zeige: M ∪{y} ist linear unabhängig. In einer etwas laxen Sprechweise sagt man, dass xi {x1 , . . . , xn } paarweise verschieden sind und (5.24) x1 , . . . , xn ∈ V eine Basis von V sind, wenn die eine Basis ist. Austauschlemma. Seien x1 , . . . , xn und y1 , . . . , xm Basen von V . Dann gibt es zu jedem i ∈ {1, . . . , n} ein j ∈ {1, . . . , m} derart, dass aus x1 , . . . , xn eine Basis entsteht, wenn xi durch yj ersetzt wird. Beweis. Ohne Einschränkung sei x1 ∈ V = Span {y1 , . . . , ym } Also existiert j ∈ {1, . . . , m} ⊂ i = 1. Dann ist {y1 , . . . , ym } 6⊂ Span {x2 , . . . , xn }, da sonst Span {x2 , . . . , xn } im Widerspruch zu mit yj ∈ / Span {x2 , . . . , xn }. Daraus folgt, x1 ∈ / Span {x2 , . . . , xn }. dass yj , x2 , . . . , xn linear unabhängig sind (s. Beweis von a) in (23)). Es bleibt Span {yj , x2 , . . . , xn } K mit yj = Pn −αi i=2 α1 folgt. Üb (5.25) Pn i=1 αi xi . Dabei xi . Also ist {x1 , x2 , . . . , xn } ∈ Span {yj , x2 , . . . , xn }, woraus die Behauptung mit (13) a) V ein y ∈ Span M und x, y ∈ V und M ⊂ V linear unabhängig. Zeige y∈ / Span M \ {x} ⇒ x ∈ Span (M \ {x}) ∪ {y}. Denition und Bemerkung. Seien VR, zeugendenmenge Üb = V zu zeigen. Weil Span{x1 , . . . , xn } = V , gibt es α1 , . . . , αn ∈ ist α1 = 6 0, weil y ∈ / Span {x2 , . . . , xn }. Damit gilt x1 = α11 yj + Sei M von V Ein VR gibt. Nach V heiÿt (23) endlich erzeugt, die folgende Implikation: wenn es eine endliche Er- Basisergänzungssatz enthält M eine Basis. N ⊂ V, N 6= ∅, eine endliche Menge. Zeige: N enthält eine maximale linear unabhängige M , d.h. für jede linear unabhängige Menge M 0 mit M ⊂ M 0 ⊂ N gilt M = M 0 . Teilmenge (5.26) Satz und Denition. Sei V ein endlich erzeugter VR. Dann sind alle Basen von V endlich mit gleicher Anzahl von Elementen. Diese heiÿt Dimension von V und wird mit dim V bezeichnet. 28 Beweis. Nach (25) besitzt V eine endliche Basis x1 , . . . , xn . y1 , . . . ym ∈ V eine weitere endliche Basis. Angenommen n > m. Nach (24) kann jedes xi yj ausgetauscht werden. Es entsteht eine Basis, in der ein yj zweimal vorkommt (da n > m). Dies ist ein Widerspruch. Ebenso wird m > n ausgeschlossen. Also ist m = n. a) Sei gegen ein b) Seien nun = V, y1 , . . . , y r ∈ V linear unabhängig. Da Span {y1 y1 , . . . , y r r ≤ n. können nach (23) die werden. Mit a) folgt daher durch Vektoren . . . , yr , x1 , . . . , xn } ⊃ Span {x1 , . . . , xn } aus x1 , . . . , xn zu einer Basis ergänzt Aus a) und b) folgt die Behauptung. (5.27) Beispiel. Sei V ein K -VR und x ∈ V , x 6= 0. Dann ist dim Kx = 1. (5.28) Beispiel. Wegen (5.29) Üb ist dim K n = n. Insbesondere ist jedes M ⊂ K n mit mehr als n Elementen linear abhängig. (19) Denition. Ein VR V heiÿt endlich dimensional genau dann, wenn er endlich erzeugt ist. Andernfalls heiÿt V unendlich dimensional und man setzt dim V := ∞. Sei (α1 , α2 ) ∈ R2 \ {0} R2 , eine Ebene. Gebe eine Üb ein UVR von Basis ist eine maximale linear unabhängige Menge. abhängig falls M 6= N . Seien V ein VR und W ⊂V Sei V ein VR und M ⊂ N ⊂ V . M ist Basis von V ⇔ M ist linear unabhängig und N ist linear ein UVR. Zeige, dass dim W • dim V < ∞, W 6= V ⇒ dim W < dim V . • dim V < ∞, dim W Seien V ein VR und U, W N ∪ {0}, ∞ + ∞ = ∞. Weiter zeige: W 6= V und dim W = dim V (= ∞). UVR. Zeige die folgende Dimensionsformel dim (U auch für den Fall dim U ≤ dim V . = dim V ⇒ W = V . Schlieÿlich nde ein Beispiel mit Üb E Sei V ein VR und N ⊂ M ⊂ V . Zeige M ist Basis von V ⇔ Span M = V und Span N 6= V falls N 6= M . Zeige die folgende Äquivalenz: Üb Nach (3) ist Basis ist eine minimale Erzeugendenmenge. folgende Äquivalenz: Üb E := {x ∈ R2 : α1 x1 + α2 x2 = 0}. Basis von E an. und + W ) + dim (U ∩ W ) = dim U + dim W = ∞ oder dim W = ∞, wenn man vereinbart Insbesondere folgt im Fall dim U <∞ ∞+n = ∞ ∀ n ∈ < ∞: und dim W U ∩ W = {0} ⇔ dim (U + W ) = dim U + dim W. Jeder VR 6= {0} hat eine Basis. Um dies beweisen zu können, benötigt man ein mengentheoreti- sches Hilfsmittel, das sog. Zornsche Lemma, was äquivalent zum Auswahlaxiom ist. (5.30) Denition. Sei X eine Menge. Eine Eigenschaften. Für alle • x≤x x, y, z ∈ X Halbordnung ≤ auf X gilt: (Reexivität) • x ≤ y, y ≤ x ⇒ x = y (Antisymmetrie) • x ≤ y, y ≤ z ⇒ x ≤ z (Transitivität) 29 ist eine Relation mit folgenden Y ⊂ X . Dann heiÿt Y total geordnet y ≤ y 0 oder y 0 ≤ y . Sei oder eine Kette, wenn für alle y, y 0 ∈ Y stets gilt Y ⊂ X . Dann heiÿt a ∈ X eine obere Schranke von Y , wenn y ≤ a für alle y ∈ Y . Ein Element b ∈ X ist ein maximales Element von X , wenn aus x ∈ X und b ≤ x folgt x = b. Sei (5.31) Beispiel. Sei X 6= ∅ eine Menge. Oensichtlich ist die gewöhnliche Mengeninklusion ⊂ eine S Halbordnung auf P(X). Sei Y ⊂ P(X). Dann ist A := {Y : Y ∈ Y} eine obere Schranke von Y . K := {{1, . . . , n} : n ∈ N} ist eine Kette in P(N). Im allgemeinen hat nicht jede Teilmenge einer halbgeordneten Menge, auch nicht eine Kette, eine obere Schranke. (5.32) Zornsches Lemma. Eine nichtleere halbgeordnete Menge, in der jede Kette eine obere Schran- ke besitzt, hat ein maximales Element. (5.33) Basisexistenzsatz. Jeder VR V 6= {0} besitzt eine Basis. Beweis. Sei L die Menge aller linear unabhängigen Teilmengen in V . Ist x ∈ V \ {0}, dann ist {x} L 6= S ∅. L ist halbgeordnet mit der Mengeninklusion. K ∈ L eine Kette. Setze L := {K : K ∈ K}. Dann ist K ⊂ L ∀ K ∈ K. Zeige zunächst, dass L linear unabhängig ist. Dazu seien x1 , . . . , xn ∈ L paarweise verschieden. Dazu existieren Ki ∈ K mit xi ∈ Ki für i = 1, . . . , n. Weil K eine Kette ist, gibt es ein K ∈ {K1 , . . . , Kn } mit Ki ⊂ K und somit xi ∈ K für i = 1, . . . , n. Da K ∈ L, sind x1 , . . . , xn linear unabhängig. Dies beweist, dass L ∈ L eine obere Schranke für K ist. Somit existiert nach (32) ein maximales Element M in L. Dies ist eine Basis von V . Dazu bleibt zu zeigen, dass M eine Erzeugendenmenge von V ist. 0 Angenommen es ist Span M 6= V . Sei y ∈ V \ Span V . Dann ist aber M := M ∪ {y} linear unabhängig (s. Üb. nach (23)). Dies ist ein Widerspruch zur Maximalität von M . linear unabhängig und damit ist Sei Üb Basisergänzungssatz. Sei V 6= {0} ein VR. Seien weiter L ⊂ V N⊂ V derart, dass Span (L ∪ N ) = V . Zeige: Es existiert eine Basis M von V mit L ⊂ M ⊂ L ∪ N . Tipp: Betrachte L := {X ⊂ V : L ⊂ X ⊂ L ∪ N, X geninklusion als partielle Ordnung. 30 linear unabhängig und ist linear unabhängig} mit der Men- 6 Lineare Abbildungen Lineare Abbildungen stehen im Mittelpunkt aller unseren weiteren Untersuchungen. Seien W Abbildung f : V 7→ W KVR. Eine f (x + λx0 ) = f (x) + λf (x0 ) heiÿt für alle linear, wenn V und x, x0 ∈ V, λ ∈ K. f (0) = 0 und mit Induktion ! n n X X αi xi = αi f (xi ) für alle n ∈ N, αi ∈ K, xi ∈ V. Es folgt sofort f i=1 i=1 Beispiele und grundlegende Eigenschaften (6.1) Beispiel. Sei V =W und α0 ∈ K . Setze f : V → V, f (x) := α0 x. Dann ist f linear, denn nach Denition ist f (x + λy) = αo (x + λy) = α0 x + λα0 y, f (x) = α0 x, f (y) = α0 y und daher (6.2) f (x + λy) = f (x) + λf (y). f (z) = α0 z (6.3) f eine Homothetie. Lemma. Sei f : K → K linear. Dann existiert α0 ∈ K mit f (z) = α0 z für alle z ∈ K . Beweis. Sei z ∈ K . Weil f gilt Man nennt für alle linear ist, folgt z ∈ K. f (z) = f (z1) = zf (1) = f (1)z . Setze α0 := f (1). Dann . Beispiel. Die Projektion auf die i-te Komponente {1, . . . , n} ist linear, denn pri : K n → K, pri (x) := xi , für i ∈ x + λy = (x1 , . . . xn ) + λ(y1 , . . . , yn ) = (x1 + λy1 , . . . , xn + λyn ) ⇒ pri (x + λy) = xi + λyi = pri (x) + λpri (y). (6.4) Beispiel. Die Abbildung f : C3 → C3 , f (x1 , x2 , x3 ) := (x2 , 0, x1 ), ist linear, denn (x1 , x2 , x3 ) + λ(y1 , y2 , y3 ) = (x1 + λy1 , x2 + λy2 , x3 + λy3 ) f↓ f↓ f↓ (x2 , 0, x1 ) + λ(y2 , 0, y1 ) = (x2 + λy2 , 0, x1 + λy1 ) ist oenbar richtig. Üb Translationen sind nicht linear. Seien V ein VR und a ∈ V \ {0} fest. Dann heiÿt ta : V → V, ta (x) := x + a, die Translation um a. Sie ist nicht linear, denn ta (2x) = 2x + a, 2ta (x) = 2(x + a) = 2x + 2a ⇒ ta (2x) 6= 2ta (x). a6=0 Üb Sei, wie üblich (s. (4.16)), V := RR versehen mit den punktweise denierten Vektorraumver- (f + λg)(x) = f (x) + λg(x) für alle x ∈ R. Sei F : V → V, (F (f ))(x) := ϕ(x)f (x) für alle x ∈ R, linear ist. knüpfungen, d.h. denitionsgemäÿ ist ϕ∈ RR fest. Zeige, dass 31 weiter Üb (6.5) V := K X der VR mit den punktweise denierten Verknüpfungen, Y eine Y der entsprechende VR. Weiter sei ϕ : Y → X eine Abbildung. weitere Menge und W := K Zeige: F : V → W, F (f ) := f ◦ ϕ ist eine wohldenierte lineare Abbildung. Seien X eine Menge, Satz. Seien x1 , . . . , xn eine Basis in V und y1 , . . . , yn Vektoren aus W . Dann gibt es genau eine lineare Abbildung f : V → W derart, dass f (xi ) = yi für alle i ∈ {1, . . . , n}. Beweis. . Sei x ∈ V . Pnf, g : V → W linear mit f (xi ) = g(xi ) = yi ∀iP g linear sind, folgt f (x) = f ( ni=1 αi xi ) = Dann gibt es αi ∈ K mit x = Pn i=1 αi xi . Weil fPund Pn Pn n i=1 αi g(xi ) = g ( i=1 αi xi ) = g(x). Weil x ∈ V beliebig ist, folgt i=1 αi yi = i=1 αi f (xi ) = f = g. Zur Existenz beachte, dass obige Koordinaten αi ∈ K von x ∈ V bez. der Basis x1 , . . . , xn Pn Pn eindeutig bestimmt sind. Ausgehend von x = i=1 αi xi setze f : V → W, f (x) := i=1 αi yi . Damit ist f wohldeniert und f (xi ) = yi ∀i. Es bleibt die Lineraität von f zu zeigen: ! ! n n n X X X f (x + λx0 ) = f αi xi + λ αi0 xi = f (αi + λαi0 )xi . Zur Eindeutigkeit seien i=1 f Letzteres ist nach Denition von n X i=1 i=1 gleich (αi + λαi0 )yi i=1 = n X αi yi + λ i=1 n X αi0 yi , i=1 was wieder denitionsgemäÿ gleich ist f n X ! αi xi + λf i=1 n X ! αi0 xi = f (x) + λf (x0 ). i=1 Üb Seien V, W K-VR, M ⊂V wann f (yx )x∈M (irgend)eine Familie in W . Zeige: Dann f : V → W mit f (x) = yx für alle x ∈ M . Untersuche, eine Basis und gibt es genau eine lineare Abbildung injektiv, surjektiv oder bijektiv ist. Nach (5) und, allgemeiner, nach obiger Übung ist also eine lineare Abbildung durch ihre Werte auf einer Basis bereits eindeutig bestimmt. Üb (6.6) x1 := (1, 1, 1), x2 := (i, 1, 1), x3 := (0, i, 0) bilden eine Basis in C3 . Weiter seien y1 := (5i, 0, 1), y2 := (0, 0, 0), y3 := (0, 1 + i, 0). Nach (5) gibt es genau eine lineare Abbildung von C3 in C3 mit f (xi ) = yi für i = 1, 2, 3. Man berechne f (i, 1, i + 1) . Zeige: Denition. Sei f : V → W f −1 ({0}) (6.7) =: Kern (f ) ⊂V linear. Dann heiÿen der Kern von f . f (V ) =: Bild (f ) ⊂W das Bild von f und Lemma. Bild(f ) bzw. Kern(f ) ist ein UVR von W bzw. V. Beweis. f (0) = 0 ∈ Bild (f ). Seien y, y 0 ∈ Bild (f ). Dann existieren x, x0 ∈ V mit f (x) = y, = λ ∈ K folgt für x + λx0 ∈ V wegen der Linearität f (x + λx0 ) = f (x) + λf (x0 ) = y + λy 0 ∈ Bild (f ). Also ist Bild(f ) ein UVR von W . −1 ({0}) = {x ∈ V : f (x) = 0} ist 0 ∈ Kern (f ) oensichtlich. Seien x, x0 ∈ Für den Kern (f ) = f 0 0 0 Kern (f ) und λ ∈ K . Dann ist f (x + λx ) = f (x) + λf (x ) = 0 + λ0 = 0, weshalb x + λx ∈ Kern (f ). Also ist Kern (f ) ein UVR von V. f (x0 ) Es ist y 0 . Mit Allgemeiner gilt 32 (6.8) Lemma. Seien f : V → W linear und V 0 ⊂ V und W 0 ⊂ W UVR. Dann ist f (V 0 ) UVR von W und f −1 (W 0 ) UVR von V. Üb (6.9) Weise (6.8) nach. Denition und Lemma. Sei f : V → W Rang von f . Sei dim W < ∞. Dann gilt: f surjektiv Beweis. Zur nicht trivialen Richtung ⇐ dim W , ist nach (5.23), (5.26) (6.10) y1 , . . . , y r sei linear. Dann heiÿt Rang (f ) ⇐⇒ Rang(f ) y1 , . . . , y r = dim Bild (f ) der dim W. eine Basis von Bild bereits eine Basis von := W (f ). Da r = Rang (f ) = = W. und damit Bild (f ) Lemma. Sei f : V → W linear. Dann gilt: f injektiv ⇐⇒ Kern (f ) = {0}. Beweis. ⇒ Sei x ∈ Kern (f ). Dann ist f (x) = 0. Es ist auch f (0) = 0. Weil f injektiv ist, folgt x = 0. ⇐ Seien x, x0 ∈ V mit f (x) = f (x0 ). Dann ist 0 = f (x) − f (x0 ) = f (x − x0 ). Weil nun 0 0 Kern (f ) = {0}, ist x − x = 0, d.h. x = x . (6.11) Beispiel. Die Abbildung f : K n → K m , f (x1 , . . . , xn ) := ( ist linear mit Rang(f ) = 1 und dim Kern(f ) = n − 1. Pn i=1 xi , Pn i=1 xi , . . . , Pn i=1 xi ) Beweis. Die Linearität ist leicht nachzuweisen. Oenbar ist Bild(f ) = K(1, 1, . . . , 1). Daher ist Rang(f ) = 1. Jetzt wird dim Kern(f ) = n − 1 gezeigt. Es ist Kern(f ) = {(x1 , . . . , xn ) ∈ K n : Pn i=1 xi = 0}. Für n = 1 ist Kern(f ) = {0}. Sei nun n > 1. Oenbar liegen x1 := (1, −1, 0, . . . , 0), x2 := (1, 0, −1, 0, . . . , P 0), . . . , xn−1 :=P(1, 0, . . . , 0, −1) in Kern(f ). Weiter sind x1 , . . . P , xn−1 linen−1 n−1 n−1 ar unabhängig, denn i=1 αi = i=1 αi xi = ( i=1 αi , −α2 , . . . , −αn ) = (0, . . . , 0) impliziert 0, α2 = · · · = αn = 0 und somit auch α1 = 0. Damit ist dim Kern (f ) ≥ n − 1. Andererseits ist n Kern (f ) 6= K , weil z.B. (1, 0, . . . , 0) ∈ / Kern(f ), weshalb dim Kern(f ) < n. In diesem Beispiel ist dim Kern(f ) + Rang(f ) = dim K n. Das ist ein allgemeiner Sachverhalt, s. (14). Üb Untersuche Bild und Kern für die bisher betrachteten linearen Abbildungen F : RR → RR , F (f ) = ϕf f aus (4) F : K X → K Y , F (f ) = f ◦ ϕ (6.12) Lemma. Seien V, W VR, M ⊂ V und f : V → W linear. Dann gilt: f (Span M ) = Span f (M ). Insbesondere ist f (M ) eine Erzeugendenmenge von W , wenn M eine solche von V ist und f surjektiv ist. Üb (6.13) Weise (12) nach. Lemma. Seien V, W VR und f : V → W linear und injektiv. Weiter seien x1 , . . . , xn linear unabhängig in V . Dann sind f (x1 ), . . . , f (xn ) linear unabhängig in W . 33 Beweis. Sei P P = 0 für αi ∈ K . Dann folgt: f ( ni=1 αi xi ) = 0 ⇒ ni=1 αi xi = 0 (weil f injektiv ist) ⇒ (α1 , . . . , αn ) = 0 (weil x1 , . . . , xn linear unabhängig sind). Also sind f (x1 ), . . . , f (xn ) linear unabhängig. (6.14) Pn i=1 αi f (xi ) Dimensionsformel. Sei dim V < ∞ und f : V → W linear. Dann gilt: dim V = Rang(f ) + dim Kern(f ). Beweis. Weil V endlich erzeugt ist, ist wegen (12) auch Bild(f ) endlich erzeugt. Damit ist Rang(f ) < ∞. Sei y1 , . . . , yr eine Basis von Bild(f ). Wähle xi ∈ f −1 {yi } für i = 1, . . . , r. Weiter sei xr+1 , . . . , xr+s eine Basis von Kern(f ) ⊂ V . Es bleibt zu zeigen, dass x1 , . . . , xr+s eine Basis von V ist. Zunächst zeigen wir die lineare Unabhängigkeit der xi : 0= r+s X αi xi ⇒ 0 = f (0) = r+s X i=1 αi f (xi ) = i=1 r X αi f (xi ) + 0 = i=1 r X αi yi ⇒ α1 = α2 = · · · = αr = 0 i=1 Pr+s y1 , . . . , yr linear unabhängig sind. Damit ist 0 = i=r+1 αi xi , woraus auch αr+1 = · · · = αr+s = 0 folgt, weil xr+1 , . . . , xr+s linear unabhängig sind. Pr Jetzt wenden wir uns dem Span der xi zu. Sei x ∈ V . Dann ist f (x) = Pr j=1 αj yj mit bestimmten 0 αj ∈ K , da y1 , . . . , yr eine Basis des Bildes sind. Nun betrachte x := i=1 αi xi . Dafür folgt weil f (x − x0 ) = f (x) − f (x0 ) = r X r r r X X X αj yj − f ( αi xi ) = αj yj − αi f (xi ) = 0, j=1 i=1 j=1 i=1 P f (xi ) = yi . Deshalb ist x − x0 ∈ Kern(f ) und somit x − x0 = r+s i=r+1 αi xi mit gewissen αi ∈ K . Pr+s Pr+s 0 Also ist x = x + i=1 αi xi . Das beweist Span{x1 , . . . , xr+s } = V . i=r+1 αi xi = weil Sehen wir uns den Beweis von (14) genauer an. Der UVR U+ Kern (f ) =V und U∩ Kern (f ) U := Span {x1 , . . . , xr } erfüllt = {0}, V = Span {x1 , . . . , xr+s } ⊂ Span U ∪ Kern (f ) = U + Kern (f ) ⊂ V , und U ∩ Kern (f ) = Span {x1 , . . . , xr } ∩ Span {xr+1 , . . . , xr+s } = {0}, weil x1 , . . . , xr+s linear unabhängig sind. denn (6.15) Denition. Ein VR V U + U0 = V und In diesem Fall heiÿt U heiÿt die direkte Summe der UVR U und U 0, U ∩ U 0 = {0}. (bzw. U 0) ein VR-Komplement von U (bzw. V = U ⊕ U 0. Beispiel. a) R2 = G 1 ⊕ G2 wenn für je zwei verschiedene Geraden durch den Ursprung. 34 U 0 ). Man schreibt b) (6.16) R3 = E ⊕ G für jede Ebene E und Gerade G, die den Ursprung enthalten und wofür G 6⊂ E. Lemma. Sei V = U ⊕ U 0 . Dann gilt für jedes x ∈ V : Es existieren u ∈ U, u0 ∈ U 0 mit x = u + u0 Dabei sind u und u0 eindeutig bestimmt. Beweis. u, u0 folgt aus U + U 0 = V . Zur Eindeutigkeit seien v ∈ U und v 0 ∈ U 0 0 0 0 0 0 0 derart, dass ebenfalls x = v + v . Dann ist u − v = v − u , wobei u − v ∈ U und v − u ∈ U . Daher 0 0 0 0 folgt u − v = v − u = 0, d.h. u = v und u = v . Die Existenz von Wendet man (16) auf die Situation in (14). an, so folgt, dass fU : U → Bild(f ), fU (x) := f (x) eine lineare Bijektion ist, d.h. ein sog. Isomorphismus (21). Üb Sei dim V <∞ und f :V →W linear. Sei weiter U ein VR-Komplement von Kern(f ) in V. Zeige, dass fU : U → Bild (f ), fU (x) := f (x) ein Isomorphismus (21) ist. Es folgt ein wichtiges Korollar zu (14). (6.17) Korollar. Sei dim V = dim W < ∞ und f : V → W linear. Dann gilt: f Beweis. injektiv ⇐⇒ f surjektiv Es gelten allgemein: dim Kern(f ) = {0} f ⇐⇒ f surjektiv bijektiv. ⇔ Rang(f ) = dim V (nach (9)), und f injektiv (nach (10)). Die Behauptung folgt daher aus der Dimensionsformel (14). ⇔ Die lineare Gleichung f (x) = b Sei f :V →W ist sie linear und inhomogen. f −1 ({b}). b ∈ W. f (x) = b heiÿt homogen, wenn b = 0, ansonsten x ∈ V der Gleichung f (x) = b ist denitionsgemäÿ Die Gleichung Die Menge aller Lösungen Im Fall der homogenen Gleichung ist daher f (x) = 0 ⇐⇒ x ∈ Kern (f ). x = 0. Allgemein gilt, dass die Lösung hat, wenn b ∈ Bild (f ). Die homogene Gleichung hat stets (mindestens) eine Lösung, nämlich Gleichung f (x) = b genau dann lösbar ist, d.h. (mindestens) eine 35 (6.18) Lösungsmenge. Sei f : V → W linear und b ∈ Bild (f ). Weiter sei x0 ∈ V eine Lösung von f (x) = b. Dann gilt für die Lösungsmenge f −1 ({b}) = x0 + Alle Lösungen x∈V Kern (f ) von := {x0 + z : z ∈ Kern (f )}. f (x) = b sind also von der Form x = x0 + z , wobei spezielle oder partikuläre Lösung der inhomogenen Gleichung ist und z x0 eine sog. alle Lösungen der homogenen Gleichung durchläuft. Beweis. x = x0 + z eine Lösung, denn f (x) = f (x0 + z) = f (x0 ) + f (z) = f (x0 ) = b. x ∈ V eine Lösung, d.h. f (x) = b. Da auch f (x0 ) = b, folgt: f (x) = f (x0 ) ⇒ 0 = f (x) − f (x0 ) = f (x − x0 ) ⇒ x − x0 =: z ∈ Kern (f ). Es ist Umgekehrt sei (6.19) Korollar. Sei dim V = dim W < ∞. Dann sind äquivalent: a) Die inhomogene Gleichung f (x) = b hat für jedes b ∈ W eine Lösung. b) Die homogene Gleichung f (x) = 0 hat nur die triviale Lösung x = 0. Gilt a) oder b), dann hat die inhomogene Gleichung f (x) = b für jedes b ∈ W genau eine Lösung. Beweis. Es bedeutet a), dass f surjektiv ist und b), dass (17). Der restliche Behauptung besagt die Bijektivität von (6.20) Denition. Seien V ein VR, W ⊂V ein UVR und f f injektiv ist. Die Äquivalenz gilt nach und folgt somit auch aus (17). a∈V. Dann nennt man a + W := {a + x : x ∈ W } einen Ist w ∈ W, anen Unterraum von V. a + W = (a + w) + W . x0 + Kern (f ). dann ist oenbar der ane Unteraum Die Lösungsmenge von f (x) = b ist also Isomorphismen (6.21) Denition. Seien V, W VR. Eine Abbildung f linear und bijektiv ist. V und W f : V → W gibt. Man schreibt V ' W. wenn (6.22) f : V → W heiÿen isomorph, Isomorphismus, heiÿt (VR-) wenn es einen Isomorphismus Lemma. Es gilt: f Isomorphismus ⇒ f −1 Isomorphismus. Beweis. f −1 seien y, y 0 ∈ W, λ ∈ K : f (f −1 (y + λy 0 )) = y + λy 0 , f (f −1 (y) + λf −1 (y 0 )) = f (f −1 (y)) + λf (f −1 (y 0 )) = y + λy 0 ⇒ f −1 (y + λy 0 ) = f −1 (y) + λf −1 (y 0 ). (6.23) Zur Linearität von Satz. Seien f : V → W linear und M ⊂ V eine Basis. Dann ist f genau dann ein Isomorphismus, wenn f |M injektiv und f (M ) eine Basis ist. Beweis. f |M injektiv und f (M ) eine Basis. Dann ist f surjektiv nach (12). Zur Injektivität betrachte x ∈ Kern (f ). Weil Pn M eine Basis ist,Pist x = i=1 αi xi mit αi ∈ K und paarweise verschiedenen xi ∈ M . Damit n ist 0 = f (x) = α f (x ) i , wobei f (xi ) paarweise verschiedene Basiselemente sind. Es folgt i=1 i (α1 , . . . , αn ) = 0 und somit x = 0. Nach (10) ist f injektiv. (6.24) Sei f ein Isomorphismus. Die Behauptung folgt aus (12), (13). Sei nun Korollar. Seien V, W VR und dim V < ∞ Dann gilt: V ' W ⇐⇒ dim V = dim W. 36 Beweis. ⇒ f : V → W . Sei x1 , . . . , xn eine Basis von V mit n = dim V. Nach (23) ist f (x1 ), . . . , f (xn ) eine Basis in W , womit dim V = dim W . ⇐ Es existieren Basen x1 , . . . , xn und y1 , . . . , yn von V bzw. W mit n = dim V = dim W . Nach (5) gibt es eine lineare Abbildung f : V → W mit f (xi ) = yi für i = 1, . . . , n. Nach (23) ist f ein Isomorphismus. Üb Es gibt einen Isomorphismus V, W Seien VR und sind isomorph, wenn (6.25) M ⊂ V bzw. N ⊂ W eine Basis M und N gleichmächtig sind. V bzw. von W. Zeige: V W und Korollar. Sei V ein K-VR mit dim V < ∞ und n ∈ N. Dann gilt: V ' K n ⇐⇒ n = Beweis. dim V. x1 , . . . , xn eine Basis von V , dann gibt es nach (5) genau eine lineare Abbildung f (xi ) = ei für i = 1, . . . , n. Dieses f ist ein Isomorphismus nach (23). Hiermit folgt Behauptung. Bilden f : V → Kn die von Üb Sei V mit ein K-VR und y 7→ ey Tipp: Betrachte (6.26) M ⊂V für eine Basis. Zeige: y∈M mit ey V ' K (M ) . aus (5.20). Korollar. Seien dim V = dim W < ∞ und f : V → W linear. Dann ist f ein Isomorphismus genau dann, wenn f injekiv oder surjektiv ist. Beweis. Wende (17) an. (6.27) Lemma. Seien V , V 0 , W und W 0 VR, f : V → W linear, sowie s : V → V 0 und t : W → W 0 Isomorphismen. Setze f 0 := t ◦ f ◦ s−1 . Dann ist f 0 surjektiv bzw. injektiv genau dann, wenn f surjektiv bzw. injektiv ist, und es gelten: Rang(f 0 Üb Beweise (27). Üb Sei V ein ) = Rang(f ) und K VR, X dim Kern(f eine Menge und 0 )= dim Kern(f ). f :V →X eine Bijektion. Führe auf X eine abelsche Gruppenstruktur ein und deniere dazu eine Multiplikation mit Skalaren derart, dass K VR ist und f X ein ein (VR)Isomorphismus. Mengen von linearen Abbildungen Seien V V nach (6.28) und W K-VR. Dann bezeichnet Hom (V, W )∗) die Menge aller linearen Abbildungen von W. Lemma. Hom Verknüpfungen. (V, W ) ist ein UVR von W V versehen mit den punktweise denierten VR Beweis. Seien f, g : V → W linear. Zu zeigen ist, dass αx0 ) f +λg für λ ∈ K linear ist: (f +λg)(x+αx0 ) = + = + λg(x + αx0 ) (nach Denition der VR-Verknüpfungen in W V ) = f (x) + αf (x0 ) λ(g(x) + αg(x0 )) (weil f und g linear sind) = (f (x) + λg(x)) + α(f (x0 ) + λg(x0 )) f (x + λf (x0 ) + (f + λg)(x) + α(f + λg)(x0 ) (nach Denition der VR-Verknüpfung in W V ). V oensichtlich linear und somit 0 ∈ Hom (V, W ). Nullabbildung 0 ∈ W ∗) Hom steht für Homomorphismus. 37 Schlieÿlich ist die (6.29) Lemma. Seien V, W, U VR, f : V → W linear und g : W → U linear. Dann ist g ◦f : V → U linear. Üb Weise (29) nach. Aut (V von V (6.30) ) bezeichnet die Menge aller ) bildet eine Untergruppe der symmetrischen Gruppe −1 ∈ Aut (V ). Aut (V ) und mit f, g ∈ Aut (V ) gilt: f ◦ g Lemma. Aut (V Beweis. Oensichtlich ist idV ist Automorphismen von V , d.i. die Menge aller Isomorphismen auf sich. f◦ ein Isomorphismus. Nach (22) ist g −1 g −1 linear und nach (2.24) bijektiv, also ein Isomorphismus. 38 S(V ), d.h. idV ∈ ein Isomorphismus. Nach (29) 7 Matrizen Lineare Abbildungen zwischen endlichdimensionalen Vektorräumen können in eektiver Weise mittels Matrizen beschrieben werden. Die Abbildungsmatrix W endlichdimensionale K VR mit n := dim V und m := dim W . Weiter seien indizierte Basen v1 , . . . , vn und w1 , . . . , wm von V bzw. W gegeben. Sei nun f : V → W eine lineare Abbildung. Für jedes l = 1, . . . , n ist das Bild f (vl ) des l ten Basisvektors unter f eindeutig als Linearkombination der Basisvektoren wk , k = 1, . . . , m, darstellbar. Es existieren also eindeutig bestimmte Skalare akl ∈ K derart, dass Seien (7.1) V und m X f (vl ) = akl wk l = 1, . . . , n. für k=1 a1l , . . . , aml sind die Koordinaten von f (vl ) bez. der Basis w1 , . . . , wm (s. (5.21)). l = 1, . . . , n. Sei nun x ∈ V beliebig. Seine Koordinaten bez. der Basis v1 , . . . , vn Anders ausgedrückt, Dies gilt für jedes seien ξ1 , . . . , ξn (7.2) x= n X ∗) , d.h. ξl vl . l=1 Entsprechend seien (7.3) f (x) = m X η1 , . . . , ηm die Koordinaten von f (x) bez. der Basis w1 , . . . , wm , d.h. ηk wk .†) k=1 ξ1 , . . ., ξn und η1 , . . . , ηm ? Nach (2) m n P P akl wk = akl ξl wk . Hieraus folgt Welcher Zusammenhang besteht zwischen den Koordinaten und (1) ist f (x) = f n P ξl vl ηk = n X akl ξl für ξl f (vl ) = l=1 l=1 (7.4) = n P n P ξl l=1 m P k=1 k=1 l=1 k = 1, . . . , m. l=1 Man beachte die unterschiedliche Stellung des Summationsindex in (1) und (4). Die Gleichungen (4) schreibt man in der Form η1 a11 a12 . . . a1n ξ1 η2 a21 a22 . . . a2n ξ2 .. = .. . . . . .. . . . . . . . . . ηm ξn am1 am2 . . . amn (7.5) Dabei ist ξ1 .. ξ := . ξn ∗) †) ξ η xi eta 39 Koordinatenvektor von x bez. der Basis v1 , . . . , vn . Entsprechend bildet man den Koordinatenvektor η . Koordinatenvektoren sind stets Spaltenvektoren. Durch Transponieren erhält man aus einem Spaltenvektor einen Zeilenvektor und umgekehrt: der ξ T := ξ1 . . . ξn , ξ1 . . . ξn T := ξ. Weiter ist a11 ... a1n . .. . A := (akl )k=1,...,m = ... . . l=1,...,n am1 . . . amn eine (m × n)-Matrix von Elementen aus K ak1 ak1 . . . akn lautet , die l-te m Zeilen und n Spalten. Die k -te Zeile bestehend aus Spalte lautet a1l .. . . aml Somit ist k der Zeilenindex und l der Spaltenindex. Die Gleichung (5) schreibt man kurz (7.6) η = A ξ. (m × n)-Matrix A = (akl ) mit einem Spaltenvektor η der Länge m zu erhalten. Die Gleichungen (4) geben an, wie man eine der Länge n multipliziert, um einen Spaltenvektor ξ Beispiel. 7 4·1+0·2+1·3 4 0 1 1 −8 · 1 + 2 · 2 + 0 · 3 −4 −8 2 0 1 −1 0 2 = 1 · 1 − 1 · 2 + 0 · 3 = −1 . 3 10 3·1+2·2+1·3 3 2 1 Mit Hilfe dieser Multiplikation gestattet die Matrix x∈V in (5), aus den Koordinaten des Vektors v1 , . . . , vn die Koordinaten des Bildvektors f (x) ∈ W bez. der Basis w1 , . . . , wm f darstellende Matrix oder die Abbildungsmatrix für f bez. der v1 , . . . , vn in V und w1 , . . . , wm in W . bez. der Basis zu berechnen. A heiÿt die indizierten Basen (7.7) A Beispiel. Ist f : K n → K m aus den Komponenten von in Kn und linear, dann ist die (m × n)-Matrix A, f (el ) besteht, die Abbildungsmatrix von f Sei (m × n)-Matrizen über K mit m, n ∈ N wird mit K m×n ξ der Länge n ist eine (n × 1)-Matrix, d.h. ξ ∈ K n×1 . ϕ : V → K n×1 x= n X al bez. der Standardbasen K m. Die Menge der tenvektor deren Spaltenvektoren ϕ(x)l vl die Koordinatenabbildung für bez. der Basis bezeichnet. Ein Koordina- v1 , . . . , vn von V, d.h. x ∈ V. l=1 Oenbar ist n X ϕ bijektiv. Wegen ϕ(x + λx0 )l vl = x + λx0 = l=1 n X ϕ(x)l vl + λ l=1 n X ϕ(x0 )l vl l=1 ϕ(x+λx0 )l = ϕ(x)l +λϕ(x0 )l für jedes l = 1, . . . , n. Wir versehen K n×1 mit komponentenweise n n×1 ein K -VR und ϕ ist denierter Addition und skalarer Multiplikation (so wie K ). Dann ist K folgt linear ϕ(x + λx0 ) = ϕ(x) + λϕ(x0 ) 40 und somit ein VR-Isomorphismus. 0 ... 0 1 0 ... 0 n×1 . Es gilt: Standardbasis von K Die Vektoren bilden die el := ϕ(vl ) = el für T mit der 1 an der l-ten Stelle für l = 1, . . . , n l = 1, . . . , n. (7.8) Zur Gleichung (6) gehört das Diagramm ϕ, ψ ‡) die Koordinatenabbildungen. Das Diagramm ist kommutativ mit fˆ := ψ ◦f ◦ϕ−1 , d.h. es gilt ψ ◦ f = fˆ ◦ ϕ. Die lineare Abbildung fˆ (s. (6.29)) ist die Darstellung von f in mit Koordinaten. (7.9) Korollar. Ist A die Abbildungsmatrix von f , dann gilt fˆ(ξ) = A ξ für alle ξ ∈ K n×1 . Bezeichnung. Im Folgenden ist al := a1l . . . der l -te Spaltenvektor von A. aml (7.10) Matrix als lineare Abbildung. Sei A ∈ K m×n . Dann ist LA : K n×1 → K m×1 , LA (ξ) := A ξ, eine lineare Abbildung, d.h. die Matrixmultiplikation erfüllt für ξ, ξ 0 ∈ K n×1 , λ ∈ K : A (ξ + λξ 0 ) = A ξ + λA ξ 0 . Es ist LA (el ) = A el = al für l = 1, . . . , n und A ist die Abbildungsmatrix für LA bez. der Standardbasen in K n×1 und K m×1 . Ist umgekehrt f : K n×1 → K m×1 linear, dann gilt f = LA , wobei A die f bez. der Standardbasen darstellende Matrix ist. Beweis. (A(ξ + λξ 0 ))k = n P akl (ξ + λξ 0 )l = l=1 für k = 1, . . . , m. A el = ψ l=1 akl (ξl + λξl0 ) = n P l=1 Weiter gilt: a11 . . . am1 ‡) n P 0 . . . . a1n .. a1l m X . . .. . = a = . 1 = akl ek . . l . . .. k=1 . . . amn . aml 0 psi 41 akl ξl + λ n P l=1 akl ξl0 = (Aξ + λAξ 0 )k LA (el ) = al und A die Abbildungsmatrix zu LA (vgl. (1)). Schlieÿlich m P f (el ) = akl el . Dann ist f (el ) = A el = LA (el ) für alle l. Daher ist f = LA . Also ist sei, gemäÿ (1), k=1 Man deniert für jede Matrix naheliegenderweise Kern(A) := Kern(LA ), (7.11) Bild(A) := Bild(LA ), Rang(A) := Rang(LA ), usw. Lemma. Sei A ∈ K m×n . Dann ist Bild(A) = Span{a1 , . . . , an }. Insbesondere ist der Rang einer Matrix die maximale Anzahl ihrer linear unabhängigen Spaltenvektoren. Beweis. Mit (6.12) ist Bild(A) = LA (K n×1 ) = LA (Span{e1 , . . . , en }) = Span{LA (e1 ), . . . , LA (en )} = Span{a1 , . . . , an }. Wegen (11) heiÿt (7.12) Bild(A) auch der Spaltenraum von A. Korollar. Sei A ∈ K m×n eine darstellende Matrix von f ∈ Hom(V, W ). Dann ist LA surjektiv bzw. injektiv genau dann, wenn f surjektiv bzw. injektiv ist, und es gelten: Rang(A) = Rang(f ), dim Kern(A) = dim Kern(f ). Beweis. Nach (9) ist LA = fˆ = ψ ◦ f ◦ ϕ−1 . Wende (6.27) an. Linearkombination von Matrizen Sei g:V →W eine weitere lineare Abbildung und Für die Linearkombination A, B und C? h := f + λg Nach (1) ist einerseits f (vl ) + λg(vl ) = m P akl wk + λ k=1 (7.13) m P für C bkl wk = λ ∈ K. m P ckl wk und andererseits h(vl ) = (f + λg)(x) = k=1 m P (akl + λbkl )wk . Der Koezientenvergleich ergibt k=1 k = 1, . . . , m, k = 1, . . . , n. Alternativ zu dieser Herleitung gilt nach (8) fˆ + λĝ . ihre Abbildungsmatrix (s. (1)). Sei die Abbildungsmatrix. In welcher Beziehung stehen h(vl ) = k=1 ckl = akl + λbkl sei B f\ + λg = ψ◦(f +λg)◦ϕ−1 = ψ◦f ◦ϕ−1 +λψ◦g◦ϕ−1 = Das bedeutet nach (9) C ξ = A ξ + λB ξ ∀ ξ ∈ K n×1 . ξ = el ein, folgt, dass die Spaltenvektoren von A und B sind. D.h. es gilt (13). Setzt man speziell Spaltenvektoren Also bildet man eine von C die Linearkombination der Linearkombination von Matrizen (wie in K n×1 ) komponentenweise. (Na- türlich können nur gleichartige Matrizen, d.h. Matrizen mit jeweils gleicher Zeilenzahl und gleicher Spaltenzahl linear kombiniert werden.) Die Menge ist die Nullmatrix K m×n 0 0 ... 0 0 0 . . . 0 m×n 0 := . . . . . ∈ K .. .. . . .. 0 0 ... 0 42 wird so zu einem K -VR. Das Nullelement Beispiel. 1 2 4−2·2 0−2·2 1 − 2 · 12 0 −4 0 0 = −8 − 2 · 4 2−2·1 0 − 2 · 0 = −16 0 0 . 1 1 0 1 − 2 · 2 −1 − 2 · (− 2 ) 0 − 2 · 0 0 0 0 4 0 1 2 2 −8 2 0 −2 4 1 1 1 1 −1 0 2 −2 A Bezeichnen wir die Abbildungsmatrix der linearen Abbildung dung deutlich zu machen, dann haben wir gerade etabliert f (s. (1)) mit M (f ), um die Zuor- M (f + λg) = M (f ) + λM (g). Nimmt man (10), (9) hinzu, folgt zusammenfassend (für Liebhaber der Abstraktion) der (7.14) Darstellungssatz. M : Hom(V, W ) → K m×n , L : K m×n → Hom(K n×1 , K m×1 ), L(A) := LA , sind VR-Isomorphismen und es gilt fˆ = L(M (f )) Bemerkung. ∀ f ∈ Hom(V, W ). A ∈ K m×n . Sei Dann ist A natürlich auch die Abbildungsmatrix anderer linearer Abbildungen, V 0 , W 0 K -VR f 0 (vl0 ) mit Basen := m X akl wk0 v10 , . . . , vn0 und f := M −1 (A). Aber A ist z.B. von LA . Allgemeiner seien die darstellende Matrix von 0 . w10 , . . . , wm Dann bestimmt l = 1, . . . , m für k=1 nach (6.5) eindeutig ein M 0 (f 0 ) und W Üb =A wofür A ebenfalls die Abbildungsmatrix ist, d.h. wofür ist. Allerdings ändert sich die darstellende Matrix von f, wenn man die Basen in V wechselt. Das wird im Abschnitt Basiswechsel untersucht. Sei A ∈ K m×n (7.15) Die f ∈ Hom(V, W ) und f 0 ∈ Hom(V 0 , W 0 ). t : W → W 0 derart, dass f 0 = t ◦ f ◦ s−1 . darstellende Matrix für Isomorphismen s:V →V 0 und Standardbasis von K m×n 0 .. . 0 ... .. Nach (14) .. . ... ↑ m·n Matrizen Zeile Spalte ist dim Hom(V, W ) = dim K m×n = m · n. Sei speziell dim W = dim V = n. Einheitsmatrix E n = E = (δkl )k=1,...,n l=1,...,n ( 1 δkl := 0 für für f (vl ) := wl , l = f : V → W . Die zugehörige Betrachte die durch gemäÿ (6.5) eindeutig bestimmte lineare Abbildung Abbildungsmatrix ist die Dabei ist besteht aus den Zeige: Es gibt . . . ← k -te 0 1 Bemerkung. 1, . . . , n, 0 . l-te (7.16) f 0 ∈ Hom(V 0 , W 0 ), 1 0 ... 0 0 1 . . . 0 := . . . . . . . . . . . . . 0 0 ... 1 k=l k 6= l das Kronecker Symbol. Oenbar ist LE = idK n×1 . 43 Produkt von Matrizen Seien U ein weiterer Abbildung. Damit ist (7.17) K -VR mit einer indizierten Basis u1 , . . . , up und g : W → U h := g ◦ f eine lineare Abbildung von V nach U (s. (6.29)). eine lineare Satz. Sei A ∈ K m×n bzw. B ∈ K p×m die Abbildungsmatrix von f bez. der Basen v1 , . . . , vn in V und w1 , . . . , wm in W bzw. von g bez. der Basen w1 , . . . , wm in W und u1 , . . . , up in U . Sei C = (cjl )j=1,...,p ∈ K p×n die Abbildungsmatrix von h bez. der Basen v1 , . . . , vn in V und l=1,...,n w1 , . . . , wm in W . Dann gilt: (7.18) cjl = m X bjk akl für j = 1, . . . , p, l = 1, . . . , n. k=1 Man schreibt hierfür kurz Beweis. Nach (1) ist h(vl ) = C = B A. p P cjl uj . Andererseits ergibt die Anwendung von (1) für f und j=1 g: m m m P P P akl akl g(wk ) = h(vl ) = g f (vl ) = g akl wk = anschlieÿend für k=1 k=1 k=1 p P ! bjk uj = j=1 p P j=1 m P bjk akl uj . k=1 Der Koezientenvergleich liefert (18). ϕ : V → K n×1 , = (χ ◦ g ◦ ψ −1 ) ◦ (ψ ◦ f ◦ ϕ−1 ) = ĝ ◦ fˆ. Ein Alternativbeweis erfolgt unter Verwendung der Koordinatenabbbildungen ψ : W → K m×1 und χ§) : U → K p×1 : g[ ◦ f = χ ◦ (g ◦ f ) ◦ ϕ−1 Daher gilt nach (9) C ξ = B (A ξ) Setzt man speziell vektor von A ∀ ξ ∈ K n×1 . ξ = el l-te Spaltenvektor von C sich B gemäÿ (5) anwendet. Das ist ein, folgt, dass der ergibt, indem man auf diesen aus dem (18). l-ten Spalten- Zu (18) gehört das kommutative Diagramm Hieraus ist ersichtlich f[ ◦ g = fˆ ◦ ĝ . Matrixmultiplikation. Formel (18) gibt an, wie man eine (p × m)-Matrix B mit einer (m × n)(p × n)-Matrix C = B A zu erhalten. Wichtig dabei ist, dass die Spaltenzahl von B mit der Zeilenzahl von A übereinstimmt. Es ist (5) ein Beispiel für eine Matrixmultiplikation. Formel (18) besagt auch LBA = LB ◦ LA . Matrix §) χ A multipliziert, um eine chi 44 Beispiel. 0 −3 1 −1 4+6+6+4 0 + 2 + 6 + 12 −3 − 2 − 6 + 0 = 2 −2 −16 − 9 − 4 − 1 0 − 3 − 4 − 3 12 + 3 + 4 + 0 3 0 4 1 2 3 4 3 −4 −3 −2 −1 2 1 20 20 −11 = . −30 −10 19 (7.19) Beispiel. Seien ξ ∈ K n×1 , ζ ¶) ∈ K n×1 , η ∈ K m×1 . Dann sind die Produkte ξ T ζ = ξ1 ζ1 n . X . . . . ξn . = ξl ζl ∈ K 1×1 = K, l=1 ζn ζ1 η1 ζ1 η2 . . . ζ1 ηm ζ1 .. ζ2 η1 ζ2 η2 . . . ζ2 ηm T n×m ζ η = . η1 . . . ηm = . . . = (ζl ηk )l=1,...,n ∈ K .. . . .. . . . k=1,...,m ζn ζn η1 ζn η2 . . . ζn ηm deniert. Letzteres heiÿt das dyadische Produkt. Ebenso ist auch η ζ T deniert. Weil die Komposition von Abbildungen assoziativ ist (s. (2.25)), folgt aus (17), dass auch die Matrixmultiplikation assoziativ ist. Ebenso übertragen sich die Distributivgesetze für lineare Abbildungen auf Matrizen. (7.20) Korollar. Die Matrixmultiplikation ist assoziativ und distributiv. Es gelten A (B C) = (A B) C =: A B C, λA = (λ E m ) A, A (λ E n ) = λA, 0 (A + A ) B = A B + A0 B, A(B + B 0 ) = A B + A B 0 für A, A0 ∈ K m×n , B, B 0 ∈ K n×p , C ∈ K p×q mit m, n, p, q ∈ N, λ ∈ K . Insbesondere ist Üb Zeige für 0 A = 0, 0 A = 0 m, n, p ∈ N und für 0∈K A ∈ K m×n , und den entsprechenden Nullmatrizen. dass K n×p → K m×p , X 7→ AX , linear ist. Wie lautet eine darstellende Matrix hierfür? Invertierbare Matrizen V ein K -VR der Dimension n ∈ N und v1 , . . . , vn eine indizierte Basis von V . f : V → V linear. Man nennt f einen Endomorphismus. Wir bestimmen diejenige Abbildungsmatrix für f , wofür auch die Bildvektoren f (x) nach der Basis v1 , . . . , vn entwickelt Sei, wie bisher, Weiter sei werden: (7.21) f (vl ) = m X akl vk für l = 1, . . . , n. k=1 M (f ) =: A = (akl )k,l=1,...,n E dargestellt, d.h. M (idV ) = E . Die Abbildungsmatrix wird durch ¶) ζ zeta 45 ist quadratisch. Die identische Abbildung idV Man nennt End(V ) := Hom(V, V ) die Endomorphismenalgebra, weil der VR End(V ) eine weitere Verknüfung besitzt, nämlich die Komposition von Abbildungen End(V ) × End(V ) → End(V ), wofür die (g, f ) 7→ g ◦ f, Algebragesetze gelten: h ◦ (g ◦ f ) = (h ◦ g) ◦ f Assoziativität (h + g) ◦ f = h ◦ f + g ◦ f h ◦ (g + f ) = h ◦ g + h ◦ f Distributivgesetze (λg) ◦ f = g ◦ (λf ) = λ(g ◦ f ), λ ∈ K. Entsprechend ist auch K n×n eine Algebra, die K n×n × K n×n → K n×n , Üb Weise für End(V ) und Matrixalgebra, bez. der Algebraverknüpfung (A, B) 7→ A B. K n×n die Algebragesetze nach. Aus (14) und (17) folgt (7.22) Lemma. Die Matrixdarstellung M : End(V ) → K n×n ist ein Algebraisomorphismus, d.i. ein VR-Isomoprhismus mit M (idV ) = E Ein Endomorphismus f ∈ End(V ) und M (g ◦ f ) = M (g)M (f ). ist ein Automorphismus (genau dann), wenn es ein g ∈ End(V ) gibt mit g ◦ f = idV oder f ◦ g = idV . Dies gilt nach (6.26) und (2.24). In diesem Fall folgt (7.23) g = f −1 . Die Anwendung von (22) ergibt Satz mit Denition. Seien A, B ∈ K n×n . Wenn B A = E gilt, dann gilt auch A B = E . Es ist B durch B A = E eindeutig bestimmt. Wenn B A = E gilt, dann heiÿt A invertierbar −1 und A := B die zu A inverse Matrix. GL(n, K) := M (Aut(V )) = {A ∈ K n×n : A invertierbar} eine meine lineare Gruppe über K . Daher gelten z.B. für A, B ∈ GL(n, K): Insbesondere ist (A−1 )−1 = A, Auÿerdem folgt (7.24) allge- (A B)−1 = B −1 A−1 . LA−1 = (LA )−1 . Satz. A ∈ K n×n ist invertierbar genau dann, wenn Rang(A) = n oder wenn dim Kern(A) = 0. Beweis. Wende (6.26), (6.9), (6.10), (12) an. Üb Gruppe, die Zeige: GL(n, R) ist für n≥2 nicht kommutativ. 46 (7.25) Abbildungsmatrix eines Isomorphismus. Isomorphismus und A Seien f die Abbildungsmatrix von dim V = dim W = n, f : V → W ein aus (1). Es ist h(vl ) := wl , g(wl ) := f (vl ) für l = 1, . . . , n gemäÿ h durch E dargestellt. Deshalb Automorphismus g . ein kommutatives Diagramm mit den durch (6.5) eindeutig bestimmten Isomorphismen. Nach (16) wird ist A auch die Abbildungsmatrix des Basiswechsel Wir kehren zur Ausgangssituation zurück. Die Frage ist, wie sich die Abbildungsmatrix wenn man die Basis in V W bzw. in A verändert, V . Wir 0 0 wechselt. Sei v1 , . . . , vn eine weitere indizierte Basis in drücken die neuen Basisvektoren durch die alten aus: 0 (7.26) vj n X = slj vl für j = 1, . . . , n. l=1 s1j , . . . , snj Dabei sind die eindeutig bestimmten Koordinaten von Beachte, dass in (26) über den ersten Index von f (vj0 ) =f n X n X ! slj vl = slj f (vl ) = slj bez. der Basis v1 , . . . , vn . summiert wird. Mit (1) folgt n X akl wk = n n X X k=1 k=1 l=1 l=1 l=1 n X slj vj0 ! akl slj wk . l=1 S := (slj )l,j=1,...,n ∈ K n×n invertierbar, denn S ist ja nach (1) auch die darstellende 0 des Automorphismus s : V → V , der durch s(vj ) = vj , j = 1, . . . , n eindeutig bestimmt ist Dabei ist Matrix ((6.5), (6.23)). Die Matrix ordinaten. Da S beschreibt die x = n P l=1 (7.27) Koordinatentransformation n P ξl0 vl0 = l=1 ξl0 n P sjl vj = j=1 j=1 l=1 von den neuen auf die alten Ko- sjl ξl0 vj , folgt nämlich wegen x = n P ξl vl l=1 S −1 multipliziert, folgt äquivalent zu (27) ξ 0 = S −1 ξ. Jetzt betrachten wir auch in (7.29) n P ξ = S ξ0. Indem man beide Seiten von (27) von links mit (7.28) n P wq0 = m X tpq wp für W eine weitere indizierte Basis 0 . Hierfür sei entsprechend w10 , . . . , wm q = 1, . . . , m. p=1 S ist T := (tpq )p,q=1,...,m ∈ K m×m t : W → W. Wie invertierbar. Wie 47 S bestimmt T einen Automorphismus folgt m P E = T T −1 , d.h. δpq = tpr t̂rq für p, q = 1, . . . , m. r=1 m m m m P P P P tqr wq = δqp wq = wp , d.h. tqr t̂rp wq = T −1 = (t̂pq )p,q=1,...,m . Sei m P r=1 (7.30) t̂rp wr0 = wp = m X m P t̂rp r=1 Dafür gilt q=1 t̂qp wq0 q=1 für Damit q=1 r=1 p = 1, . . . , m. q=1 Vgl. dies mit (29). Hiermit können wir die obige Rechnung fortführen: f (vl0 ) = m n X X k=1 ! akl slj t̂qk wq0 = q=1 l=1 Für die Abbildungsmatrix m X A0 m m X n X X q=1 von f ! t̂qk akl slj wq0 . k=1 l=1 bez. der Basen v10 , . . . , vn0 in V und 0 w10 , . . . , wm in W gilt denitionsgemäÿ 0 (7.31) f (vj ) = m X a0qj wq0 . q=1 Wir schlieÿen daraus (7.32) a0qj = m X n X t̂qk akl slj , q = 1, . . . , m, j = 1, . . . , n. k=1 l=1 Damit ist gezeigt: (7.33) Satz. Seien V , W K -VR mit dim V = n, dim W = m und f : V → W linear. Weiter sei A die Abbildungsmatrix von f bez. der Basen v1 , . . . , vn von V und w1 , . . . , wm von W . Dann ist (7.34) A0 = T −1 A S 0 in W , wobei die Abbildungsmatrix von f bez. der Basen v10 , . . . , vn0 von V und w10 , . . . , wm S und T in (26) und (29) die Basiswechsel beschreiben. Das kommutative Diagramm zu (33) ist: Dabei sind Hieraus ist (7.35) ϕ0 = ϕ ◦ s−1 , ψ 0 = ψ ◦ t−1 0 −1 ◦ fˆ ◦ ŝ. ersichtlich fˆ = t̂ Bemerkung. die Koordinatenabbildungen bez. der gestrichenen Basen. Gleichung (34) ist die Transformation der Abbildungsmatrix unter Koordina- tentransformationen. Dabei ist Rang (A 0 ) = Rang (A), dim Kern (A 0 ) = dim Kern (A) 48 LA0 = (LT )−1 ◦ LA ◦ LS . S ∈ GL(n, K), dass wegen (12), weil GL(m, K) und Kern (T A) = Kern (A), dim Kern (A S) (7.36) Rang (T = dim Kern (A), Allgemeiner folgt hieraus für A ∈ K m×n , T ∈ A) = Rang (A), Bild (A S) = Bild (A). Basiswechsel für einen Endomorphismus. Seien V = W , vl = wl für l = 1, . . . , n und f ∈ End(V ). Dann ist t = s und somit (7.37) A0 = S −1 A S die Transformation der Abbildungsmatrix A bei einem Basiswechsel Koordinatentransformation (27). 49 (26) bzw. unter einer 8 Lineare Gleichungssysteme Für den Fall endlichdimensionaler VR V und W wird ein Verfahren zur Lösung der in Kapitel 6 (speziell (6.18), (6.19)) untersuchten linearen Gleichung (8.1) f (x) = b entwickelt. Sei n := dim V , m := dim W . Wir wählen indizierte f , x und b (s. (7.8), (7.9)) über Basen in V und W und gehen zur Koordinatendarstellung von (8.2) A x = b. A = (akl ) ∈ K m×n die f darstellende Matrix, x = (x1 . . . xn )T Koordinatenvektoren von x und b. Ausgeschrieben lautet (2) Dabei bezeichnet die (8.3) a11 x1 a21 x1 + + a12 x2 a22 x2 . . . + ··· + ··· + + a1n xn a2n xn . . . = = . . . am1 x1 + am2 x2 + · · · und b = (b1 . . . bm )T b1 b2 . . . + amn xn = bm lineares Gleichungssystem (LGS) für n Unbekannte x1 , . . . , xn aus K , was aus m skalaren Bedingungensgleichungen mit Koezienten akl ∈ K und Absolutgliedern bk ∈ K besteht. Das LGS (3) heiÿt homogen, wenn b = 0. Das ist ein Beispiel 3x1 + 2x2 = 1 3x1 + x2 = 5 hat genau eine Lösung, nämlich x1 = 3, x2 = −4. Beispiel 3x1 + 2x2 = 1 3x1 + 2x2 = 5 hat oenbar keine Lösung. Beispiel 3x1 + 2x2 = 1 −9x1 − 6x2 = −3 hat unendlich viele Lösungen, nämlich 1 3 0 − 32 +R 1 1 x1 = (1 − 2λ), x2 = λ für jedes λ ∈ R, d.i. der ane Raum 3 . Im ersten Schritt bildet man die (A|b) := a11 ··· . . . am1 · · · erweiterte Koezientenmatrix a1n b1 .. . . amn bm Der vertikale Strich dient lediglich der deutlichen Abgrenzung. 50 (8.4) Lemma. Das LGS A x = b ist genau dann lösbar, wenn Rang ((A|b)) = Rang (A). Beweis. (7.11)) Es gilt: Lösbarkeit ⇔ dim ⇔ b ∈ Bild (A) ⇔ Span {a1 , . . . , an , b} = = dim Span {a1 , . . . , an }. Span {a1 , . . . , an } (wegen Span {a1 , . . . , an , b} x = (x1 . . . xn )T mit A ∈ K m×n und B ∈ K p×n nennt n×1 ) besitzen. Im Fall nichtleerer Lösungsman äquivalent, wenn sie dieselbe Lösungsmenge (⊂ K n×1 existiert mit A x0 = b und B x0 = c und mengen (s.(4)) bedeutet dies nach (6.18), dass x0 ∈ K dass Kern (A) = Kern (B) gilt. Zwei LSG (8.5) A x = b und B x = c für Lemma. Sei T ∈ GL (m, K) Dann sind A x = b und (T A)x = T b äquivalent. Beachte, dass (T A|T b) = T (A|b). D.h. (A|b) und T (A|b) beschreiben äquivalente LGS. Üb Weise (5) nach. Üb Seien A, B ∈ K m×n derart, dass es zu jedem b ∈ K m×1 ein c ∈ K m×1 gibt, wofür A x = b B x = c äquivalent sind. Zeige: Es existiert T ∈ GL (m, K) mit B = T A. und Die Idee, die jetzt verfolgt wird, ist es, das LGS (2) gemäÿ (5) in ein äquivalentes System zu transformieren, wofür die Lösungen leicht zu bestimmen sind. Elementare Zeilenumformungen Oenbar geht das LGS (2) in ein äquivalentes über, wenn man an taren Zeilenumformungen vornimmt: 1 Vertauschung zweier Zeilen. 2 Multiplikation einer Zeile mit einem Skalar 3 Addition des Vielfachen einer Zeile zu einer anderen. Betrachte dazu die folgenden 1 .. · · · 1 Z := · · · 2 Z := . 1 ··· ··· (m × m) - Matrizen . . . . . . . . . . . . . . . . . . ··· 1 ··· 1 .. ··· 1 ··· . . . . . . . ··· ··· . . . . . . ··· 6= 0. . . . 0 ··· ··· . . . 1 ··· 0 ··· . . . . . . . . . . . . . . . . . . ··· 1 .. . · · · j-te Zeile · · · k-te Zeile 1 1 .. . 1 λ ··· 1 ··· .. . (A|b) eine der folgenden elemen- · · · k-te 1 Zeile 51 für λ 6= 0 . . . 1 3 Z := .. . . . . 1 ··· .. α ··· . . . . 1 ··· . . . .. . . . Alle übrigen Einträge in (8.6) . · · · j-te Zeile · · · k-te Zeile 1 Z 1, Z 2, Z 3 sind 0. Lemma. Sei C ∈ K m×p . Entsteht C̃ aus C 1 Vertauschung der Zeilen j und k, dann ist 2 Multiplikation der k-ten Zeile mit 3 Addition des α-fachen C̃ = Z 1 C . dann ist C̃ = Z 2 C . der k-ten Zeile zur j-ten Zeile, dann ist Z κ , κ = 1, 2, 3 , Z (α)Z (−α) = E m für λ 6= 0. Die Matrizen 3 λ 6= 0, durch 3 sind invertierbar Sie heiÿen C̃ = Z 3 C . ∗) . Genauer gelten Elementarmatrizen. Z 1 Z 1 = Z 2 (λ)Z 2 ( λ1 ) = Daher ist ein Produkt von Ele- mentarmatrizen invertierbar und die Inverse des Produkts wieder ein Produkt von solchen. Gauÿ Eliminationsverfahren Sei 3 A ∈ K m×n , A 6= 0. auf spezielle Zeilenstufenform gebracht. Der erste Teil des Verfahrens besteht aus der wird A (8.7) 1 1, 2, Durch wiederholte Anwendung von elementaren Zeilenumformungen (Abwärts-) Elimination, Zeilenstufenform. ∈ {1, . . . , n} Sei l1 die erste Zeile mit der k-ten Zeile. Es β1 γ2 .. . γm mit ∗ β1 6= 0 k ∈ {1, . . . , m} existiert mit akl1 6= 0. entsteht aus A eine Matrix der Gestalt minimal derart, dass ein Vertausche ∗ und gewissen γ2 , . . . , γn ∈ K †) in der l -ten Spalte und unspezizierten Einträgen 1 . Alle übrigen Einträge sind null. 3 Addiere das neue Matrix (− γβk1 )-fache der ersten Zeile zur k-ten Zeile für k = 2, . . . , m. A0 , wofür in der l1 -ten Spalte unterhalb β1 nur Nullen stehen: β1 ∗ ↑ l1 -te ∗) †) κ γ Spalte kappa gamma 52 Es entsteht eine Gibt es kein a0kl 6= 0 für k ∈ {2, . . . , m}, ∗ β1 A0 = dann ist ↑ l1 -te Spalte 1 und 3 wiederholen: und die Elimination endet hier. Andernfalls lassen sich 1 Sei l2 ∈ {l1 + 1, . . . , n} Vertausche die zweite Zeile mit der k-ten Zeile. Es β2 δ3 3 β2 6= 0 Addiere das ∗ . . . ↑ l1 mit β1 δm ↑ l2 -te ‡) Spalte in der l2 -ten Spalte. (− βδk2 )-fache der zweiten Zeile zur k-ten Zeile für neue Matrix, wofür in der l2 -ten Spalte unterhalb β1 ↑ l1 ↑ l2 -te ∗ (8.8) (m × n)-Matrix in ∗ β2 β3 . . . βr ↑ ··· l3 ↑ lr (8.9) ‡) δ r Zeilen m−r Zeilen -te Spalte β1 6= 0, . . . , βr 6= 0. In jeder Zeile der ersten r Zeilen stehen links von βk nur Nullen. Die m − r Zeilen (falls überhaupt vorhanden) sind Nullzeilen. Es ist 1 ≤ l1 < l2 < · · · < lr ≤ n. Dabei sind letzten Zeilenstufenform ↑ l2 nur Nullen stehen: β1 ↑ l1 Es entsteht eine Spalte Die Elimination endet mit einer β2 k = 3, . . . , m. β2 k ∈ {2, . . . , m} existiert mit a0kl2 6= 0. 0 entsteht aus A eine Matrix der Gestalt minimal derart, dass ein Beispiel. Gegeben sei das homogenen LGS delta 53 2x4 x2 − 2x3 + 2x4 2x2 − 4x3 + 4x4 − 21 x2 + x3 − 5x4 Man schreibt es in der Form 0 0 0 1 A= 0 2 0 − 21 − + + + + x5 + 4x5 + 7x5 − 4x5 A x = 0. 4x6 2x6 7x6 7x6 = = = = 0 0 0 0 Die Koezientenmatrix 0 2 1 −4 −2 2 4 2 −4 4 7 7 1 −5 −4 7 wird auf Zeilenstufenform durch Abwärtselimination gebracht. 1 Vertausche erste Zeile mit zweiter Zeile: 0 1 0 0 0 2 0 − 21 3 (−2)-fache der ersten Zeile 0 1 −2 2 4 2 0 0 0 2 1 −4 0 0 0 0 −1 3 0 − 21 1 −5 −4 7 Addiere das Addiere das 0 0 0 0 3 −2 2 4 2 0 2 1 −4 −4 4 7 7 1 −5 −4 7 1 2 -fache der zur dritten Zeile: ersten Zeile zur vierten Zeile: 1 −2 2 4 2 0 0 2 1 −4 0 0 0 −1 3 0 0 −4 −2 8 Addiere das 2-fache der zweiten Zeile zur vierten Zeile. Die entstehende Matrix hat Zeilen- stufenform: 0 0 C := 0 0 Es sind 1 −2 2 4 2 0 0 2 1 −4 . 0 0 0 -1 3 0 0 0 0 0 r = 3 , l1 = 2 , l2 = 4 , l3 = 5 und β1 = 1 , β2 = 2 , β3 = −1. Der zweite Teil des Verfahrens besteht in der Aufwärts-)Substitution. (8.10) ( An der Matrix in Zeilenstufenform aus (8) werden folgende Zei- 3 vorgenommen: Addiere geeignete Vielfache der lenumformungen vom Typ den Zeilen r − 1, r − 2, . . . , 1, um in der fahre anschlieÿend so mit der (m × n)-Matrix β1 lr−1 -ten lr -ten Spalte oberhalb βr r-ten Zeile zu Nullen zu erzeugen. Ver- Spalte und so fort. Die Substitution endet mit einer der folgenden Gestalt: ∗ β2 ∗ ∗ β3 . . . ∗ ... βr 54 Der letzte Teil besteht in der Freistellung der abhängigen Variablen. Dazu benötigt man Zeilenum2. formungen von Typ (8.11) Freistellung, spezielle Zeilenstufenform. mit −1 βk für k = 1, . . . , r. −1 Es entsteht eine ∗ ∗ −1 B= Multipliziere die m×n - Matrix in k -te Zeile der Matrix in (10) spezieller Zeilenstufenform ∗ −1 . . . ∗ ... −1 Speziell gegenüber der Matrix in (8) ist also, dass die k = 1, . . . , r. B lk -te Spalte von r Zeilen m−r B gleich ist für = r, vgl. (7.11). Auch die maximale Anzahl linear unabhängiger Zeilenvektoren von Bemerkung. −ek Damit ist Rang (B) der sog. Zeilen Zeilenrang, ist oenbar r. Der Übergang von βk nach −1 B in K 1×n , in (11) lässt sich bereits während der Elimination vollziehen. Das hat den Vorteil, leichter rechnen zu können. (8.12) Korollar. Sei A ∈ K m×n . Dann existiert Z ∈ GL(m, K) derart, dass B := Z A spezielle Zeilenstufenform besitzt. Dabei ist Z als Produkt von Elementarmatrizen Z κ wählbar; für B in der Form von (10) genügen Z 1 und Z 3 Matrizen. Beweis. Üb Wende das Verfahren (7), (10), (11) an und beachte (6). Eindeutigkeit der speziellen Zeilenstufenform. A ∈ K m×n und Z ∈ GL (m, K) 0 derart, dass B := Z A spezielle Zeilenstufenform besitzt. Zeige: B ist eindeutig, d.h. ist Z ∈ 0 0 0 GL (m, K) derart, dass auch B := Z A spezielle Zeilenstufenform besitzt, dann ist B = B . Er Zeige weiter: Es existiert T ∈ GL (m, K) derart, dass T = mit r := Rang (A) und Seien ∗ Z0 = T Z. (8.13) Zeige schlieÿlich: Z ist eindeutig genau dann, wenn r = m. Korollar. Für jede Matrix sind Spaltenrang und Zeilenrang gleich. Beweis. Nach (11) gilt die Behauptung für Matrizen in spezieller Zeilenstufenform. Elementare Zeilenumformungen erhalten oenbar den Zeilenrang. Wegen (6) gilt dies nach (7.35) auch für den Spaltenrang. Die Aussage gilt daher wegen (12). (8.14) Lösung des homogenen LGS. Das LGS A x = 0 wird durch Elimination (7), Substitution B x = 0 transformiert, wofür B Die Menge aller Lösungen von A x = 0 ist (10), und Freistellung (11) in ein äquivalentes LGS Zeilenstufenform (s. (11)) besitzt. Kern (A) spezielle = Kern (B). xl1 , . . . , xlr heiÿen abhängige Variable, die restlichen heiÿen freie Variable. Das LGS B x = 0 mit freigestellten abhängigen Variablen lautet Die Unbekannten xlk = n X bkl xl , k = 1, . . . , r, l=1 55 wobei auf der rechten Seite eektiv nur die freien Variablen vorkommen. Diese können beliebig gewählt werden. Jede Wahl liefert eine Lösung des LGS A x = 0. Um die Lösungsmenge leichter beschreiben zu können, benennen wir die Unbekannten so um, dass die ersten r die abhängigen Variablen sind. Dann lautet die Lösungsmenge n X b1l xl l=r+1 . x . 1 . .. n . X Kern (A) = brl xl : xr+1 , . . . , xn ∈ K .. = . l=r+1 x x n r+1 . . . xn b1,r+2 b1,r+1 b1,n .. .. . .. . . br,r+2 br,r+1 br,n 0 =K 1 + K 1 + ··· + K 0 0 .. 0 . .. .. . 0 . 0 1 0 in der (8.15) Parameter- bzw. Basisdarstellung. Es ist ein (n − r)dimensionaler UVR von K n×1 . Bedeutung von m, n, r. Sei A ∈ K m×n m und Ax=0 das zugehörige LGS. Dann ist Anzahl der Gleichungen = Anzahl der Zeilen n Anzahl der Unbekannten = Anzahl der Spalten r Anzahl der abhängigen Variablen = maximale Anzahl linear unabhängiger Zeilenvektoren (Zeilenrang) = maximale Anzahl unabhängiger Spaltenvektoren (Spaltenrang) = Rang (A) n−r (8.16) Anzahl freier Variablen = Dimension des Lösungsraums = dim Kern (A). Folgerungen aus (15). a) r ≤ n , r ≤ m. b) r = n ⇐⇒ 0 ∈ K n×1 ist die einzige Lösung. c) m < n (d.h. mehr Unbekannte als Gleichungen) ⇒ es gibt mindestens n − m linear unabhängige Lösungen x ∈ K n×1 . Bemerkung. Die Gleichheit Rang (A) altbekannte Dimensionsformel (6.14) Üb Sei A ∈ K n×n . Zeige: Zeilenvektoren von (8.17) A A ∈ + dim für LA . bilden Basis = r+n−r = n = ⇔ Spaltenvektoren 1×n . von K GL (n, K) Fortsetzung Beispiel (9). Die Matrix C 0 0 C→ 0 0 Kern (A) von A dim K n×1 ist die bilden Basis von K n×1 ⇔ in (9) wird auf spezielle Zeilenstufenform gebracht: 1 −2 2 0 14 0 0 0 0 2 0 −1 → 0 0 0 0 −1 3 0 0 0 0 0 0 56 1 −2 0 0 15 0 0 2 0 −1 0 0 0 −1 3 0 0 0 0 0 0 −15 0 −1 2 0 1 0 0 0 −1 0 2 . → B := 0 0 0 0 −1 3 0 0 0 0 0 0 Damit sind x1 , x3 , x6 die freien Variablen und das LGS mit freigestellten abhängigen Variablen lautet x2 = 2x3 − 15x6 x4 = 21 x6 x5 = 3x6 . Sei ν := x1 , µ := x3 , λ := x6 .§) Ax=0 Hieraus folgt für die Lösungsmenge von in Parame- terdarstellung ν x1 x2 2µ − 15λ x3 µ : = 1 x4 2 λ x5 3λ λ x6 ν, µ, λ ∈ R und in Basisdarstellung 1 0 0 0 2 −15 0 1 0 R + R + R 1 . 0 0 2 0 0 3 0 1 0 R6×1 . Die Lösungsmenge Kern (A) ist also ein 3-dimensionaler UVR von Üb gilt: Üb Z ∈ R4×4 als Produkt von Elementarmatrizen, B = Z A. Bestimme Z −1 . Tipp: s. (6). Bestimme Zeilenstufenform (8.18) (B|c) = B (A|b) Ax=b B in (17) A auf c=Z b die gleichen elementaren Zeilenumformungen aus, die bringen. Dabei geht −1 erinnern wir uns an (5). Wir führen an der erweiter- ∗ −1 b in c über. Es ist ∗ B=Z A (s. (12)) und ∗ −1 . . . ∗ . . . −1 c1 c2 c3 spezielle mit . . . . cr cr+1 . . . cm Lösbarkeit des inhomogenen LGS. Das LGS A x = b ist genau dann lösbar, wenn cr+1 = cr+2 = · · · = cm = 0. Insbesondere ist A x = b lösbar, wenn r = m. ν in (9) und W := Span {a, b, c, d, e} ⊂ C4 , wobei a := (0, 0, i, 1 + i), b := (0, 2, 0, 1 − i), c := (2, 1 − i, 0, 0), d := (−1, 0, 1, 0) und e := (0, 2i, 2, 0). Berechne eine Basis von W . ten Koezientenmatrix §) A Sei Zur Lösung des inhomogenen LGS (8.19) so dass für nü, µ mü 57 Beweis. Nach (5) ist Ax=b genau dann lösbar, wenn genau dann lösbar, wenn Rang ((B|c)) (8.20) = Rang (B). B x=c lösbar ist. Letzteres ist nach (4) Hieraus folgt die Behauptung. Lösung des inhomogenen LGS. Im Fall der Lösbarkeit lautet das LGS B x = c mit freigestellten abhängigen Variablen xlk = n X blk xl − ck , (14) k = 1, . . . , r. l=1 Eine partikuläre Lösung x0 = (γ1 , . . . , γn )T erhält man durch Nullsetzen der freien Variablen: γlk = −ck für k = 1, . . . , r und γl = 0 sonst. Die Lösungsmenge von A x = b ist dann der ane Raum x0 + Kern (A). Beweis. Siehe (6.18), (6.20) und vor (5). Für den Kern (A) siehe (14). 58 9 Weitere Folgerungen des Eliminationsverfahrens Das Eliminationsverfahren nach Gauÿ erönet weitere Einsichten in die Matrizenrechnung. (9.1) Dention. Sei A = (akl )k=1,...,m ∈ K m×n . Die zu A transponierte Matrix AT hat als l -te l=1,...,n Zeile die l -te Spalte von a11 a21 a12 a22 AT = . . . .. . a1n a2n Damit ist A l = 1, . . . , n: . . . am1 . . . am2 . .. . . . . . . amn für AT =: (aTlk )l=1,...,n ∈ K n×m aTlk = akl . mit k=1,...,m Beispiel. (9.2) 1 8 T 0 −7 1 0 −3 2i = −3 i 8 −7 i 0 2i 0 Regeln für das Transponieren. Seien A, B ∈ K m×n , C ∈ K n×p , λ ∈ K . Dann ist (A + λ B)T = AT + λ B T , Üb Denition. T A =A Es gilt: A A ∈ K m×n , ξ ∈ K n×1 . A ∈ K n×n . A = −A. Dann heiÿt T symmetrisch ⇔ akl = alk ; A A symmetrisch bzw. schiefsymmetrisch, AT A und AAT wenn ⇔ akl = −alk . Für schiefsymmetrische A ∈ K n×n , dann ist A = 12 (A + AT ) + 21 (A − m×n , schiefsymmetrischen Matrix. Ist A ∈ K schiefsymmetrisch Diagonalelemente akk null. Ist die Summe einer symmetrischen und einer dann sind Üb für Sei bzw. Matrizen sind die AT ) (B C)T = C T B T . Weise (2) nach. Beispiel. (Aξ)T = ξ T AT (9.3) (AT )T = A , deniert und symmetrisch. A, B, C ∈ K n×n mit A = B + C B= + AT ), C = 12 (A − AT ). Seien und B symmetrisch, C schiefsymmetrisch. Zeige: 1 2 (A (9.4) Defnition. Eine quadratische Matrix A heiÿt Diagonalmatrix, wenn akl = 0 für k 6= l, d.h. es ist ∗ ∗ A= .. . . Man schreibt λ1 λ2 diag(λ1 , λ2 , . . . , λn ) := ∗ .. . . λn Jede Diagonalmatrix ist symmetrisch, insbesondere ist es (9.5) λE für λ ∈ K. Lemma. Sei A ∈ GL(n, K). Dann ist AT ∈ GL(n, K) mit (AT )−1 = (A−1 )T . Ist zudem A (schief-)symmetrisch, dann ist es auch A−1 . 59 Beweis. AT (A−1 )T = (A−1 A)T = E T = E ⇒ (AT )−1 = (A−1 )T . Für AT = A folgt daraus −1 sofort A = (A−1 )T . Für AT = −A erhält man (−A)−1 = (A−1 )T . Da (−A)(−A−1 ) = AA−1 = E , −1 = −A−1 , gilt somit −A−1 = (A−1 )T . weshalb (−A) Es ist: Defnition. A ∈ K n×n (9.6) obere Dreiecksmatrix, wenn akl = 0 für k > l, d.h. heiÿt a11 a12 . . . a1n a22 . . . a2n A= . . .. . . . ann A ∈ K n×n untere Dreiecksmatrix, wenn AT heiÿt eine obere Dreiecksmatrix ist. Lemma. Eine Dreiecksmatrix ist invertierbar genau dann, wenn die Diagonalelemente un- (9.7) gleich Null sind. Beweis. x = 0, Sei A eine Dreiecksmatrix. Das LGS wenn die Diagonalelemente Speziell ist 6= 0 Ax = 0 hat oenbar genau dann nur die Lösung sind. Wende (7.24) an. diag(λ1 , . . . , λn )−1 = diag( λ11 , . . . , λ1n ) für λ1 , λ2 , . . . , λn 6= 0. A ∈ K m×n . Nach (7.11) ist der Spaltenraum von A gleich Span{a1 , . . . , an } = Bild(A) = {Ax : x ∈ K n×1 }. Betrachte jetzt die Zeilenvektoren a01 , . . . , a0m ∈ K 1×n von A. Entsprechend heiÿt Sei Span{a01 , . . . , a0m } = {y A : y ∈ K 1×m } Zeilenraum der gilt oenbar, dass von A A. und Wie in (8.13) gezeigt, ist Spaltenrang = Zeilenrang. Für TA T ∈ GL(m, K) gleichen Zeilenraum haben. Vgl. dazu die Aussagen in (7.35). A ∈ K m×n . Zeige, dass RA : K 1×m → K 1×n , RA (ζ) := ζA ∗) eine lineare Abbildung ist. Oenbar ist Bild(RA ) der Zeilenraum von A. Bestimme die Abbildungsmatrix für RA bez. der 1×m und K 1×n . Standardbasen in K Üb Sei Üb Sei Üb A ∈ K m×n , T ∈ GL(m, K), S ∈ GL(n, K). Welche Beziehungen bestehen zwischen Bild(A), Kern(A), Bild(T A), Kern(T A), Bild(A S), Kern(A S), Bild(AT ), Kern(AT ), Bild((T A)T ), Kern((T A)T ), Bild((A S)T ), Kern((A S)T ), den zugehörigen Dimensionen und n, m, sowie den jeweiligen Spalten und Zeilenräumen? C ∈ GL(n, K). Zeige: LC und RC sind Automorphismen. Sei Analog zu den elementaren Zeilenumformungen deniert man (9.8) Elementare Spaltenumformungen. Elementarmatrizen aus Kap. 8. Ensteht 1 Vertauschen der Spalten 2 Multiplikation der 3 Addition des Beweis. dass (9.9) 1 Da Z ,Z 2 k ten αfachen C Z T = (Z C T )T , j und k, C ∈ K p×m e aus C durch C Seien j ten κ = 1, 2, 3 die Spalte zur k ten Spalte, dann ist e = C Z 3. C folgt die Behauptung aus (8.6) aufgrund von (1). Beachte dabei, symmetrisch sind und dass (Z 3 (j, k))T = Z 3 (k, j) gilt. Struktursatz für Matrizen. Sei A ∈ K m×n . Es gibt T ∈ GL(m, K) und S ∈ GL(n, K) T AS = Er mit r = Rang(A). Jede invertierbare Matrix ist Produkt von Elementarmatrizen. ζ für e = C Z 1. C e = C Z 2. λ, dann ist C derart, dass ∗) Z κ ∈ K m×m dann ist Spalte mit der und zeta 60 Beweis. Nach (8.12) existiert Z ∈ GL(m, K) derart, dass B := Z A spezielle Zeilenstufenform hat. Indem man geeignete Vielfache der l1 -ten Spalte von erste Zeile gleich −el1 . B zu den folgenden Spalten addiert, wird die Verfahre ebenso mit den Zeilen 2, . . . , r. Jetzt vertausche die erste Spalte mit der l1 -ten Spalte, dann die zweite Spalte mit der l2 -ten Spalte, u.s.w. Anschlieÿend multipliziere jede Spalte mit −1. Es entsteht aus B Elementarmatrizen Sei nun S ∈ K n×n A ∈ GL(n, K). die Matrix Er BS = gibt, so dass B = −E Dann ist . Es folgt aus (8), dass es ein Produkt von Er und daher . Mit T := Z A = −Z −1 . folgt T AS = Er . Die Behauptung folgt nun mit (8.6). Üb V und W endlichdimensionale VR, f : V → W eine lineare Abbildung und B eine (m × n)Matrix. Es gelte: n = dim V , m = dim W und Rang(f ) = Rang(B). Gibt es Basen in V und W derart, dass B die darstellende Matrix von f bez. dieser Basen ist? Seien A ∈ K m×n , B ∈ K m×p . Indem man A durch die p Spalten von B erweitert, erhält man (A|B) ∈ K m×(n+p) . Für T ∈ K q×m ist T (A|B) = (T A|T B). Das bedeutet: Nimmt man an (A|B) elementare Zeilenumformungen vor, so nimmt man diese gleichzeitig an A und B vor. Seien (9.10) (9.11) Anwendung: Spezielle Zeilenstufenform. Berechnung der Inversen. A (9.12) A ∈ K m×n . Wie berechnet man Z ∈ GL(m, K) derart, dass B := Z A spezielle Zeilenstufenform hat? Antwort: Wende auf (A|E m ) jene elementaren Zeilenstufenumformungen (Elimination, Substitution, Freistellung) an, die A in B überführen. E m geht dabei in Z über, denn Z (A|E m ) = (B|Z). gleich −E n . Also ist A −1 Sei = −Z Sei A ∈ GL(n, K). Dann ist die spezielle Zeilenstufenform für aus (10). α β und ∆ := αδ − βγ . Gemäÿ (11) wird (A|E 2 ) umgeformt: γ δ β δ α β 1 0 α β 1 0 α 0 αδ − αβ −∆ 1 0 ∆ ∆ ∆ → → → . γ α γ δ 0 1 (α6=0) 0 ∆ − αγ 1 (∆6=0) 0 ∆ 0 1 −∆ − αγ 1 ∆ α −1 α 1 δ −β α β für ∆ 6= 0, auch falls α = 0. Allgemein gilt ∆ E 2 = = So ist γ δ −γ α ∆ δ −β α β , wie man leicht nachrechnet. −γ α γ δ Beispiel. Sei A = m×n , C ∈ K p×n . Indem man A durch die p Zeilen von C A ∈ K A A AS (m+p)×n n×q ∈ K . Für S ∈ K ist S = . Das bedeutet: C C CS elementare Spaltenumformungen vor, so nimmt man diese gleichzeitig an A Seien (9.13) Anwendung: Spaltenstufenform. lenstufenform deniert. C ∈ K m×n dass man auf A En C = AS geht dabei in C vor. A∈ CT S ∈ GL(n, K) von EleS dadurch, Spaltenstufenform besitzt. Man berechnet jene elementaren Spaltenumformungen anwendet, die S über, denn A En A in C überführen. C S= . S A und C C . Diese sind also Da elementare Spaltenumformungen den Spaltenraum nicht verändern, haben den gleichen Spaltenraum. Eine Basis davon bilden die ersten eine Basis von Zeilenstu- K m×n mittels elementarer Spaltenum- En und A C Die Spaltenstufenform einer Matrix ist analog zur Zei- formungen in Spaltenstufenform bringen. Damit gibt es ein Produkt Nimmt man an hat Spaltenstufenform genau dann, wenn fenform hat. Entsprechend lässt sich eine Matrix mentarmatrizen derart, dass erweitert, erhält man Bild(A). 61 r Spalten von Üb Sei V v1 , v2 , . . . , vp linear unabhängige Vektoren aus V . Weiter seien q P ul = pk=1 akl vk mit akl ∈ K für l = 1, . . . , q aus V gegeben. Berechne eine Basis Span{u1 , . . . , uq } für den Fall, dass p = 4, q = 5 und A = (akl ) die folgende Matrix ist: ein VR und seien Vektoren von 0 0 2 −1 0 0 2 1 − i 0 2i . A= i 0 0 1 2 1+i 1−i 0 0 0 62 10 Determinanten A ∈ K n×n lässt sich ein Skalar det A ∈ K , die sog. Determinante A berechnen, der genau dann nicht null ist, wenn A invertierbar ist. Es ist also GL (n, K) = {A ∈ K n×n : det A 6= 0}. Die Determinatenfunktion hat weitere wichtige Eigenschaften wie z.B. die Multiplikativität det (A B) = (det A)(det B). Für jede quadratische Matrix von Für (10.1) (2 × 2)Matrizen haben wir die a1 b1 det := a1 b1 − a2 b1 . a2 b2 Im Fall K=R ist det a1 b1 a2 b2 Determinante bereits kennengelernt (9.12): die Fläche F des von den Vektoren a = (a1 , a2 ) und b = (b1 , b2 ) aufgespannten Parallelogramms. Es ist von Üb Rechne die Multiplikativität der Determinante (1) für Für (10.2) a F = a1 b2 − a2 b1 , falls b positiv ist. der kleine Winkel nach (2 × 2)Matrizen nach. (3 × 3)Matrizen deniert man a1 b1 c1 det a2 b2 c2 := a1 b2 c3 + b1 c2 a3 + c1 a2 b3 − a3 b2 c1 − b3 c2 a1 − c3 a2 b1 . a3 b3 c3 Es ist das Spatprodukt [a, b, c] = a· (b × c) c = (c1 , c2 , c3 ). Im Fall K=R ist |[a, b, c]| der Vektoren das Volumen 63 V a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ) a, b, c. des Spats mit den Kanten und Es ist V = [a, b, c] für ein Rechtssystem a, b, c. Merkregeln. det det a1 b1 a2 b2 a1 b1 % & = a2 b2 a1 b1 c1 a1 b1 a1 b1 c1 % % % a2 b2 c2 = a2 b2 c2 a2 b2 a3 b3 c3 & & & a3 b3 c3 a3 b3 Dabei bezeichnen Regel von Sarrus & (%) Produkte versehen mit einem positiven (negativen) Vorzeichen. Ihre Sum- me ergibt die Determinante. Also ist die Determinante im Fall n = 2, 3 für K = R eine sog. Volumenform. Sie ist genau dann null, wenn das Parallelogramm zur Strecke oder der Spat zum Parallelogramm entartet, d.h. wenn die Spaltenvektoren linear abhängig sind. Als Volumenform ist die Determinante, wie geometrisch ersichtlich, linear in jeder Spalte. Die Fläche des Parallelogramms mit Seiten a, c ist die Suma, b und me der Flächen der Parallelogramme mit Seiten a, b0 . 3 × 3Matrix 0 c1 a1 b1 c1 a1 b1 c1 c2 = det a2 b2 c2 + λ det a02 b2 c2 c3 a3 b3 c3 a03 b3 c3 Z.B. gilt für die Determinante einer a1 + λa01 b1 a2 + λa02 b2 a3 + λa03 b3 (10.3) det Üb Rechne die Linearität der Determinante in (3) nach. Auÿerdem ist die Determinante normiert, indem (10.4) det E2 =1, det E3 = 1. 64 A ∈ K n×n (K n×1 )n . Im Folgenden schreiben wir n×n mit identizieren K (10.5) als nTupel (a1 , a2 , . . . , an ) ihrer Spaltenvektoren. D.h. wir Denition. Wir nennen eine Abbildung det eine : K n×n −→ K Determinatenfunktion, wenn sie folgende Eigenschaften besitzt: (a) det ist multilinear bez. der Spalten, d.h. für jedes k = 1, . . . , n ist + λa0k , ak+1 , . . . , an ) = 0 det (a1 , . . . , an ) + λ det (a1 , . . . , ak−1 , ak , ak+1 , . . . , an ), det (a1 , . . . , ak−1 , ak (b) det (a1 , . . . , an ) (c) det En =0 falls a1 , . . . , an ∈ K n×1 linear abhängig sind, = 1. Bemerkung. (a)(c) sind für (1) und (2) erfüllt. Im Fall n = 1 gilt dies oenbar für (10.6) det A := a, wobei A = (a), a ∈ K. Es geht nun darum, allgemein für (10.7) n∈N die Existenz und Eindeutigkeit von det zu zeigen. Lemma. Sei δ : K n×n −→ K multilinear im Sinne von Aussagen (i) (ii) (iii) (i), (ii) Eigenschaft und (iii) (5)(a). äquivalent: Dann sind die folgenden (5)(b). δ(a1 , . . . , an ) = 0 falls a1 , . . . , an nicht paarweise verschieden sind. δ ist alternierend, d.h. δ ändert das Vorzeichen bei Platzwechsel, d.h. bei Vertauschung benachbarter Spaltenvektoren. Beweis. (i) ⇒ (ii) gilt, weil nicht paarweise verschiedene ak linear abhängig sind. (ii) ⇒ (iii): Ersetze die l -te und (l + 1)-te Komponente für l<n durch al + al+1 . Dann ist wegen der Multilinearität 0 = δ(. . . , al + al+1 , al + al+1 , . . . ) = δ(. . . , al , al + al+1 , . . . ) + δ(. . . , al+1 , al + al+1 , . . . ) = δ(. . . , al , al , . . . ) + δ(. . . , al , al+1 , . . . ) + δ(. . . , al+1 , al , . . . ) + δ(. . . , al+1 , al+1 , . . . ) = δ(. . . , al , al+1 , . . . ) + δ(. . . , al+1 , al , . . . ). Pn Es bleibt (iii) ⇒ (i) zu zeigen. Sei aq = k=1,k6=q αk ak mit αk ∈ K für ein q ∈ {1, . . . , n}. Dann ist Pn δ(a1 , . . . , aq , . . . , an ) = k=1,k6=q αk δ(a1 , . . . , ak , . . . , a1 ) mit ak als q -te Komponente. Weil k 6= q , stimmen für den k -ten Summanden die k -te und die q -te Komponente überein. Sind k und q benachbart, dann ist der Summand null als unmittelbare Folge von (iii). Den allgemeinen Fall führt man auf diesen durch mehrfachen Platzwechsel zurück: . . . , ∗, a, ∗, ∗, a, ∗. · · · → . . . , ∗, ∗, a, ∗, a, ∗. · · · → . . . , ∗, ∗, ∗, a, a, ∗. . . . Eine Determinatenfunktion ist demnach eine K n×n ' (K n×1 )n . normierte alternierende Multilinearform auf Existenz und Eindeutigkeit der Determinantenfunktion ist gleichbedeutend mit der Existenz eines einfacheren Objekts. Gemäÿ dem physikalischen Sprachgebrauch ist es (10.8) Der vollständig antisymmetrische Tensor n-ter Stufe . Sei n ∈ N. Zu j1 , . . . , jn ∈ {1, . . . , n} gibt es j1 ...jn ∈ K derart, dass 12...n = 1 und bei Platzwechel der Indexwerte das Vorzeichen ändert. ist eindeutig und nimmt für n ≥ 2 genau die Werte −1, 0, 1 an. 65 Beweis. Zur Eindeutigkeit von null ist, wenn zwei Indexwerte überein- j1 ...jn für paarweise j1 , . . . , jn liegt fest, weil man diese durch mehrfache Vertauschung benachbarter Indizes in die Ordnung 12 . . . n bringen kann, wofür eins ist. Damit ist auch klar, dass für n ≥ 2 genau die Werte −1, 0, 1 annimmt. (1) Die Existenz wird durch rekursive Denition gezeigt. Für n=1 sei 1 := 1 := 1. Seien nun die (1) , . . . , (n) bereits konstruiert. Setze Tensoren ( 0 falls zwei Indizes übereinstimmen (n+1) j1 ...jq ...jn jn+1 := (n) (−1)n+1−q j1 ...\ jq ...jn jn+1 sonst stimmen, weil stellt man fest, dass alternierend ist (vgl. Beweis von (7)). Aber auch der Wert von verschiedene Indexwerte q ∈ {1, . . . , n + 1} derart, dass jq = n + 1. Zunächst beachte, dass jk ∈ {1, . . . , n} für (n+1) (n) k ∈ {1, . . . , n + 1}, k 6= q , womit die Denition sinnvoll ist. Weiter ist 1...n(n+1) = (−1)0 · 1...n = 1. wobei jq Bei einem Platzwechsel, der nicht betrit, liefert (n) ein Minuszeichen. Rückt hingegen (n) unverändert aber der Vorfaktor liefert ein Minuszeichen. Also ist einen Platz, bleibt normiert und vollständig antisymmetrisch. j1 . . . jn Sind idSn π(k) := jk eine Permutation π ∈ Sn (s. (4.3).). schreibt man π := j1 ...jn und nennt π das Vorzeichen oder Signum der Per−1 durch die gleiche Anzahl von Platzwechsel aus gilt stets π = π −1 , weil π und π paarweise verschieden, dann deniert In diesem Fall mutation. jq um (n+1) Es hervorgehen. Produktschreibweise. Alternativ zur Pünktchenschreibweise benutzt man für m < n, m, n ∈ Z, n Y αi := αm αm+1 . . . αn ∗) i=m (10.9) Leibniz Formel für Determinanten. Es gibt genau eine Determinantenfunktion, nämlich det A X := π π∈Sn Beweis. n Y aπ(k)k A ∈ K n×n . für k=1 Zum Nachweis der Eindeutigkeit sei δ eine Determinantenfunktion, d.h. eine normierte n×1 )n . Dann ist alternierende Multilinearform auf (K δ(A) = δ n X aj1 1 ej1 , j1 =1 n X = n X n X aj2 2 ej2 , . . . , j2 =1 ··· j1 =1 j2 =1 n X ajn n ejn jn =1 aj1 1 aj2 2 . . . ajn n δ(ej1 , ej2 , . . . , ejn ). jn =1 δ(ej1 , ej2 , . . . , ejn ) = j1 j2 ...jn δ(A) = det (A). Oensichtlich ist d.h. n X Zur Existenz bleibt zu zeigen, dass und somit (s. (8).) δ(A) = P π∈Sn π aπ(1)1 . . . aπ(n)n , det wie oben deniert wirklich eine Determinatenfunktion ist, d.h. normiert, alternierend und multilinear. Q P ( nk=1 δπ(k)k ) = π∈Sn ,π=id π = 1. Bei einem Wechsel der Plätze l und l + 1 geht A in die Matrix B σ ∈ Sn , σ(l) := l + 1, σ(l + 1) =: l und σ(k) = k sonst. Demnach ist Es ist det E n Y k=1 ∗) Q = P bπ(k)k = π∈Sn π n Y aπ(k)σ(k) = k=1 n Y aπ(σ−1 (j))j j=1 Pi , das groÿe griechische P 66 über mit bk = aσ(k) , wobei und somit det B X = π n Y aπ◦σ−1 (j)j = j=1 π∈Sn X κ◦σ n Y aκ(j)j = j=1 κ∈Sn X (−κ ) n Y aκ(j)j = −det (A). j=1 κ∈Sn bl := al + λa0l , Es bleibt die Multilinearität zu zeigen. Ersetzt man die l -te Spalte durch n Y n Y bπ(k)k = k=1 k=1 a0k := ak wobei aπ(k)k + λ für n Y dann ist a0π(k)k , k=1 k 6= l. Einsetzen in die Leibniz Formel liefert die Behauptung. Konkrete Berechnungen mit Hilfe der Leibniz Formel sind oftmals sehr umfangreich wegen der groÿen Anzahl n! von Summanden (s. Üb. zu (4.3)). Es werden jetzt ausgehend von (9) die wichtigsten Eigenschaften der Determinantenfunktion bewiesen. (10.10) Korollar. Für A ∈ K n×n gilt Beweis. Zunächst ist det (A T ), weil Qn k=1 aπ(k)k κ−1 = κ Identiziert man det (A = T ) = det (A). Qn j=1 ajπ −1 (j) . Damit folgt det (A) = P κ∈Sn κ−1 nach (8). K n×n ' (K 1×n )n und schreibt A ∈ K n×n als n-Tupel Qn j=1 ajκ(j) = ihrer Zeilenvektoren, dann folgt sofort aus (10) (10.11) Korollar. det : K n×n −→ K ist eine (die einzige) normierte, alternierende Multilinearform bez. der Zeilen. Sei A ∈ K n×n Matrix, die aus (10.12) (k, l) ∈ {1, . . . , n}2 . Dann deniert man A(kl) ∈ K (k−1)×(n−1) A durch Streichen der k -ten Zeile und der l-ten Spalte ensteht. und als diejenige Lemma. Sei A ∈ K n×n und (k, l) ∈ {1, . . . , n}2 derart, dass al = ek , d.h. der l-te Spalten- vektor von A ist der k -te Standardspaltenvektor. Dann gilt det (A) = (−1)k+l det A(kl) , Die gleiche Formel gilt, wenn der k -te Zeilenvektor von A gleich dem l-ten Standardspaltenvektor ist. Beweis. Durch n − l Platzwechsel ...∗ tausche ek ek ∗∗∗ → . . . ∗∗ von der l -ten Spalte in die n-te ek ∗∗ → Zeile. Für die neue Matrix B ek ∗ → . . . ∗∗∗∗ ek Spalte ohne die Reihenfolge der übrigen Spaltenvektoren zu verändern. Anschlieÿend tausche analog durch n-te . . . ∗∗∗ n−k gelten: 67 Platzwechsel den k -ten Zeilenvektor in die (i) der letzte Spaltenvektor von n-ten (ii) durch Streichen der (iii) det B ist en , n-ten Zeile und der Spalte von B entsteht A(kl) , = (−1)(k+l) det A. Letzteres gilt, weil det B B (n − l) + (n − k) X = π π∈Sn (i) κ π∈Sn−1 X bπ(k)k = k=1 X = n Y Platzwechsel vorgenommen werden. Jetzt wende (9) auf π π∈Sn ,π(n)=n n−1 Y n−1 Y an: bπ(k)k k=1 (ii) bκ(k)k = det A(kl) . k=1 Schlieÿlich beachte (iii). Der Rest der Behauptung gilt wegen (10). Es folgt der Entwicklungssatz von (10.13) B Laplace. Entwicklung nach Zeile oder Spalte. Sei A ∈ K n×n beliebig. Dann gelten die Entwicklung von det A nach der lten Spalte (Sl ) det A = n X (−1)k+l akl det A(kl) k=1 und die Entwicklung von det A nach der k ten Zeile (Zk ) det A = n X (−1)k+l akl det A(kl) . l=1 Beweis. P Aufgrund der Linearität bez. der lten Spalte ist det A = det (a1 , . . . , al , . . . , an ) = (Sl ) mit (12). Analog zeigt man (Zk ). n k=1 akl det (a1 , . . . , ek , . . . , an ). Hieraus folgt (10.14) Verhalten bei elementaren Umformungen. Seien Z κ , κ = 1, 2, 3, die drei Typen von Elementarmatritzen und C ∈ K n×n , vgl. (8.6) 1 det (Z 1 C) = det (C Z 1 ) = −det (C), 2 det (Z 2 C) = det (C Z 2 ) = λdet (C), 3 det (Z 3 C) = det (C Z 3 ) = det (C). und (9.8). Dann gelten Beweis. Diese Beziehungen sind eine unmittelbare Folge der Multilinearität und der vollständigen Antisymmetrie der Determinantenfunktion. Üb Drücke in Worten die Bedeutung von (14) aus. Die Sätze (13) und (14) erlauben in eektiver Weise Determinanten auszurechnen. (10.15) Beispiel. Vandermonde Determinante. 1 x x2 1 x x2 y 2 = det 0 y − x y 2 − x2 = det 1 y 1 z z2 0 z − x z 2 − x2 y − x y 2 − x2 1 y+x det = (y − x)(z − x) det = z − x z 2 − x2 1 z+x 1 y (y − x)(z − x) det = (y − x)(z − x)(z − y). 1 z 68 Allgemein gilt 1 x1 . . . 1 x2 . . . det . . .. .. 1 xn . . . Üb (10.16) xn−1 1 Y xn−1 2 (xj − xi ). = . . . 1≤i<j≤n xn−1 n Weise die allgemeine Formel für die Vandermonde Determinante aus (15) nach. Multiplikationssatz. Für A, B ∈ K n×n gilt det (A B) = (det A)( det B). Beweis. Da det (E) = 1, folgt aus (14) für C = E , dass det (Z (10.17) 1 Daher gilt det (Z ) = −1, κ C) = det (Z det (Z κ 2 ) = λ, ) det (C) det (Z für 3 ) = 1. κ = 1, 2, 3. Dies wird nun mehrfach angewendet. A invertierbar. Dann existieren nach (9.9) Elementarmatritzen Z 1 , . . . , Z m derart, dass A = Z 1 . . . Z m . Daher gilt: det (A B) = det (Z 1 . . . Z m B) = det (Z 1 ) det (Z 2 . . . Z m B) = det (Z 1 ) det (Z 2 ) det (Z 3 . . . Z m B) = · · · = det (Z 1 ) . . . det (Z m ) det (B) = det (Z 1 ) . . . det (Z m−2 ) det (Z m−1 Z m ) det (B) = · · · = det (Z 1 . . . Z m ) det (B) = det (A) det (B). Sei zunächst Nun sei A nicht invertierbar, d.h. Rang(A)< (5)(b) gilt det (A) =0 und det (A B) Wir erinnern an (7.24): A ∈ K n×n n. Dann ist auch Rang(A B )< n. Nach Denition = 0. ist invertierbar genau dann, wenn Rang (A) = n oder wenn dim Kern (A) = 0. (10.18) Invertierbarkeitskriterium. Es ist GL(n, K) = {A ∈ K n×n : det (A) 6= 0}, d.h. für A ∈ K n×n gilt: A invertierbar ⇔ det (A) 6= 0. Beweis. Wir wissen bereits: A nicht invertierbar ⇒ Rang (A) < n ⇒ det (A) = 0. Sei nun A invertierbar. Dann gilt: (10.19) E = A A−1 ⇒ 1 = det (E) = det (A A−1 ) = det A det (A−1 ) ⇒ det A 6= 0. Korrolar. Für A, B, C ∈ K n×n und S ∈ GL(n, K) gelten: • det (A B C) = det (B A C) = det (B C A). • det (Ak ) = (det A)k für k ∈ N, wobei Ak := . . . ((A A) A) . . . A mit k Faktoren. • det (S −1 ) = (det S)−1 . • det (S −1 A S) = det (A). Üb Weise (19) nach. 69 Üb Blockmultiplikation von Matrizen. Akl seien (mk × nl )Matrix eine C kj := n X und Für B lj k = 1, . . . , m, l = 1, . . . , n (nl × pj )Matrix. Damit ist und j = 1, . . . , p eine Akl B lj l=1 Pn Setze (Akl )k=1,...,m, l=1,...,n Pm (mk × pj )Matrix. l=1 nl zusammen: k=1 mk und N := A11 A12 · · · A1n A 21 A22 · · · A2n A= . . . . . . .. .. . . Am1 Am2 · · · Amn eine B ∈ K N ×P Ebenso bilde Üb Sei A ∈ K n×n B wobei mit P := (M × N )Matrix A Pp j=1 pj . Zeige mit M := C = A B. B C B bzw. A = , D C D det A = (det B)(det D). derart, dass als Blockmatrix D und C ∈ K M ×P und zu einer quadratisch sind. Zeige: A= Tipp: Zeige die Behauptung für den Spezialfall D=E und schreibe A in geeigneter Weise als Produkt zweier Matrizen. Üb Dreiecksblockmatrizen. Sei A11 A= eine App A= B C D Übung folgt, dass von Üb . mit quadratischen Aii , i = 1, . . . , p. Zeige die Formel p . Entsprechendes gilt für untere Dreiecksblockmatrizen. det A ii i=1 = Sei .. obere Q Dreiecksblockmatrix det A Üb ∗ A22 B −1 D und Eine Matrix −1 mit A B, D quadratische invertierbare Matrizen. Aus der vorangegangenen invertierbar ist. Wie lautet die Blockmatrix für A−1 unter Verwendung ? P ∈ K n×n heiÿt Permutationsmatrix, von Spalten hervorgeht, d.h. wenn es eine Permutation wenn P π ∈ Sn aus En durch Vertauschung (s. (4.3).) gibt derart, dass P = (eπ(1) |eπ(2) | . . . |eπ(n) ) oder, anders ausgedrückt, wenn P ek = eπ(k) für k = 1, . . . , n. Also besteht eine eineindeutige Zuordnung π 7→ Pπ zwischen den Permutationen aus Sn und den (n × n)Permutationsmatrizen. die Menge der Permutationsmatrizen. a) Zu welcher Permutation gehört 0 0 0 1 0 1 0 0 70 1 0 0 0 0 0 ? 1 0 Sei Πn ⊂ K n×n π ∈ S5 b) Wie sieht die Permutationsmatrix zu π(5) := 1 mit π(i) := i + 1 i ∈ {1, . . . , 4} für aus? Πn ⊂ GL(n, K) c) Weise nach: Es ist Gruppenhomomorphismus und Sn → GL(n, K), π 7→ Pπ , ist ein injektiver ∀ π, κ ∈ Sn , Pπ◦κ = Pπ Pκ Πn ist. Allgemein nennt man einen Gruppenhomomorphismus GL(n, K) eine ndimensionale Matrixdarstellung von G. dessen Bild gleich Gruppe G in d) Weise nach: gruppe von e) Sei π Πn ist eine GL(n, K). Gruppe bez. der Gruppenmultiplikation, d.h. π ∈ Sn . das Vorzeichen der Permutation Tipp: Wie hängen Pπ π und Zeige: nter antisymmetrischen Tensor Πn einer ist eine Unter- π◦κ = π κ ∀π, κ ∈ Sn . zusammen? f ) Finde einen Zusammenhang zwischen gewissen (10.20) und Stufe (n × n)Matrizen und dem vollständig . Cramer Regel. Seien A ∈ GL(n, K) und b ∈ K n×1 . Dann hat A x = b die eindeutige Lösung x mit xk = 1 det A det (a1 , . . . , ak−1 , b, ak+1 , . . . , an ). Beweis. Es ist b = A x = Pn Pn l=1 xl al und somit det (a1 , . . . , ak−1 , b, ak+1 , . . . , an ) = l=1 xl det (a1 , P . . . , ak−1 , al , ak+1 , . . . , an ) = nl=1 xl δkl det A = xk det A. (10.21) Korollar. Sei A ∈ GL(n, K). Setze (âkl )k, l=1,...,n := A−1 . Dann ist âkl = 1 (−1)k+l det A(lk) für k, l = 1, . . . , n. det A Beachte die Reihenfolge der Indizes. Beweis. Für b = el x = A−1 el = âl die lte Spalte von A−1 . 1 1 âkl = det det (a1 , . . . , ak−1 , el , ak+1 , . . . , an ) = (−1)k+l det A(lk) . A det A (10.22) in (20) ist Die Adjunkte. Zu A ∈ K n×n à = (ãkl )k,l=1,...,n Die Matrix à heisst die mit Also ist nach (20) und (12) setze ãkl := (−1)k+l det A(lk) . Adjunkte zu A. Sie erfüllt (vgl. (21)) à A = A à = (det A) E n . Beweis. Mit (12) gilt Pn l=1 ãkl alj = Pn l=1 det (a1 , . . . , ak−1 , el , ak+1 , . . . , an ) alj = det (a1 , . . . , ak−1 , aj , ak+1 , . . . , an ) = δkj det A. à A = ( det A) E n . Nun ist (A˜T )T = Ã, wie man sich A˜T AT = ( det AT )E n durch Transponieren A à = ( det A) E n . Also gilt (10.23) Beispiel. Die Adjunkte zu A = α β γ δ ist 71 à = δ −β −γ α leicht überzeugt. Damit folgt aus , vgl. (9.12). Üb Seien f : Rn → Rn linear und b1 , . . . , b n ( n X Vektoren des Rn . Die Teilmenge des Rn ) λl bl : λl ∈ [0, 1] für l = 1, . . . , n l=1 heiÿt Spat mit Kanten b1 , . . . , bn . bl der Spaltenvektor in Rn×1 bestehend aus den Komponenten (b1 . . . bn ) ∈ Rn×n . In Übereinstimmung mit der Anschauung im R2 Sei von und bl ∈ Rn . Setze B := R3 (vgl. die Erläute- rungen zu (1) und (2)) nennt man allgemein V := | det B | das Volumen des Spats mit Kanten f (b1 ), . . . , f (bn ) ist b1 , . . . , b n . | det f | V . 72 Zeige: Das Volumen des Spats mit Kanten 11 Eigenwerte und Eigenvektoren Gegeben sei eine lineare Abbildung f : V → W von einem ndimensionalen K VR V in einen mdimensionalen K VR W . (11.1) Struktursatz für Homomorphismen. Bei geeigneter Wahl von Basen in V und W ist die Abbildungsmatrix A ∈ K m×n von f gleich Er A= mit r := Rang (f ). Jede weitere Abbildungsmatrix A0 von f ist von der Form A0 = T −1 A S mit T ∈ GL(m, K) und S ∈ GL(n, K). Beweis. Die Behauptung folgt sofort aus (9.9) und (7.33). Ähnlichkeit von Matrizen A ∈ K n×n von f , indem man auch die Bildvektoren f (x) bez. derselben Basis entwickelt. Ein Basiswechsel in V führt 0 auf eine zu A ähnliche Matrix A , nämlich Im Fall eines Endomorphismus (11.2) mit f von V bestimmt man eine Abbildungsmatrix A0 = S −1 AS S∈ GL(n, K), s. (7.36). Die Aufgabe ist, S so zu bestimmen, dass A0 eine möglichst einfache Gestalt hat. Diese Aufgabenstellung hat einen prinzipiellen Aspekt, auf den wir kurz eingehen wollen. (11.3) Denition. schaften für • x∼x Sei X eine Menge. Eine Äquivalenzrelation ∼ auf X hat x, y, z ∈ X . Dabei steht x ∼ y für "x ist äquivalent zu y ". (Reexivität) • x∼y⇒y∼x (Symmetrie) • x ∼ y, y ∼ z ⇒ x ∼ z Zu jedem die folgenden Eigen- x∈X (Transitivität). bildet man nun die zugehörige Äquivalenzklasse [x] := {y ∈ X : y ∼ x} ⊂ X. Je zwei Äquivalenzklassen [x] und [x0 ] sind gleich [x] = [x0 ], wenn x ∼ x0 , und disjunkt [x] ∩ [x0 ] = ∅, wenn x x0 . (Denn ist x ∼ x0 und sind y, y 0 ∈ X mit y ∈ [x] und y 0 ∈ [x0 ], dann gilt y ∼ x ∼ x0 ∼ y 0 , 0 0 0 0 0 weshalb y ∈ [x ] und y ∈ [x]. Ist hingegen x x , dann ist für jedes y ∈ [x] auch y x und somit 0 y ∈ / [x ].) Ist K ⊂ X eine Äquivalenzklasse und x ∈ X , dann ist [x] = K und x heiÿt ein Repräsentant von K . (11.4) Beispiel. aus K K mit Sei X eine Menge. Sei K ⊂ P(X). Ist K eine sind paarweise disjunkt und ihre Vereinigung ist x, y ∈ K " eine Äquivalenzrelation auf 73 X. Partition X, von X, d.h. die Mengen dann deniert "x ∼ y :⇔ ∃K ∈ (11.5) Beispiel. Die Isomorphie ist eine Äquivalenzrelation auf der Menge der endlichdimensionalen K -VR. (11.6) (11.7) (11.8) Üb Beispiel. Sei Beispiel. Für W ⊂ V ein UVR. Dann deniert "x ∼ y : y − x ∈ W " eine Äquivalenzrelation auf V . Zu x ∈ V ist [x] = x + W . Die Menge der Äquivalenzklassen heiÿt Quotientenraum und wird mit V /W bezeichnet. V ein VR und A, B ∈ K m×n sei A ∼ B , falls T ∈ GL(m, K) und S ∈ GL(n, K) existieren mit B = T A S . Damit ist eine Äquivalenzrelation auf K m×n deniert. Die Anzahl der Äquivalenzklassen ist endlich, nämlich min{n, m} + 1. Repräsentanten der Äquivalenzklassen Er sind die Nullmatrix und für r = 1, . . . , min{n, m}. Vgl. (1). −1 Beispiel. Die Ähnlichkeit (2) für Matrizen aus K n×n ist eine Äquivalenzrelation. Weise die Behauptungen in (4) - (8) nach. Die Aufgabe besteht also darin, möglichst einfache Repräsentanten der nden. Diagonalmatrizen D := diag(λ1 , . . . , λn ), Abbildungsmatrix eines Endomorphismus v1 , . . . , vn (11.9) von f (vl ) = V f von Ähnlichkeitsklassen zu λl ∈ K , sind besonders einfach. Wann ist D die V ? Die Antwort ist oenbar, wenn es eine Basis gibt derart, dass nach (7.21) n X (λk δkl ) vk = λl vl für l = 1, . . . , n. k=1 (11.10) Denition. Sei V ein K -VR, f ∈ End (V ) und λ ∈ K . Dann heiÿt λ ein Eigenwert von f , v ∈V, v = 6 0, existiert mit f (v) = λv . Man nennt v einen Eigenvektor von f zum Eigenwert λ. wenn ein Beachte, Eigenvektoren sind stets ungleich x ∈ Kern (f ) \ {0} 0 ∈ V, während 0∈K ein Eigenwert sein kann. Jedes 0. f diagonalisierbar, wenn es eine Basis von Eigenvektoren von f gibt. Im Fall n = dim V < ∞ wird f bez. einer solchen Basis durch eine Diagonalmatrix diag (λ1 , . . . , λn ), λl ∈ K dargestellt, wobei λl die zugehörigen Eigenwerte sind. ist Eigenvektor zum Eigenwert Man nennt einen Endomorphismus (11.11) Sei A ∈ K n×n . Im Sinne von (7.10). spricht man von Eigenwerten, Eigenvektoren und Dia- gonalisierbarkeit von A anstelle von LA . = n < ∞, f ∈ End (V ) und A ∈ K n×n ist f genau dann diagonalisierbar, wenn A Sei dim V eine Abbildungsmatrix von haben, ähnlich zu einer Diagonalmatrix ist. Das ergibt f. Wie wir gesehen zusammenfassend (11.12) (i) (ii) Üb (11.13) Lemma. Sei A ∈ K n×n . Dann sind äquivalent: A ist diagonalisierbar. A ist ähnlich zu einer Diagonalmatrix. Weise (12) direkt nach. Diagonalisierung. Sei A ∈ K n×n diagonalisierbar. Sei s1 , . . . , sn eine Basis in K n×1 von Eigenvektoren von A zu den Eigenwerten λ1 , . . . , λn in K . Setze S := (s1 · · · sn ) ∈ K n×n . Dann ist S invertierbar und S −1 A S = diag (λ1 , . . . λn ). Umgekehrt, ist A ∈ K n×n und sind S = (s1 . . . sn ) ∈ GL(n, K) und λ1 , . . . λn aus K derart, dass S −1 A S = diag (λ1 , . . . λn ), dann ist s1 , . . . , sn eine Basis von Eigenvektoren von A zu den Eigenwerten λ1 , . . . , λn . 74 Beweis. S el = sl und somit el = S −1 sl −1 A S el = S −1 A sl = S −1 (λsl ) = λS −1 sl = λel für alle l. Zur für l = 1, . . . , n. Damit folgt: S Umkehrung beachte S el = sl und somit A sl = A S el = S diag(λ1 , . . . , λn ) el = Sλl el = λl sl . (11.14) Da Rang (S) = n, ist S invertierbar (7.24). Weiter ist Lemma. Seien v1 , . . . , vm Eigenvektoren zu paarweise verschiedenen Eigenwerten λ1 , . . . , λm von f ∈ End (V ). Dann sind v1 , . . . , vm linear unabhängig. Beweis. Der Beweis erfolgt durch Induktion nach mP . Für m = 1 gilt die Aussage, weil v1 6= 0. Für den Induktionsschluss von 0 = λm+1 0 = 0 = f (0) = m+1 X k=1 m+1 X m nach m+1 m+1 k=1 αk vk betrachte =0 mit αk ∈ K . Dann ist λm+1 αk vk , λk αk vk . k=1 Pm k=1 (λm+1 −λk )αk vk = 0. Aus der Induktionsvoraussetzung folgt (λm+1 −λk )αk = 0 und somit αk = 0 für k = 1, . . . , m. Daher ist αm+1 vm+1 = 0. Weil vm+1 6= 0 als Eigenvektor, ist auch αm+1 = 0. Die Dierenz der beiden Ausdrücke ist (11.15) Korollar. dann ist Seien V ist mit (11.16) und f W Ist n := dim V <∞ und hat f ∈ End (V )n paarweise verschiedene Eigenwerte, K -VR und s:V →W ein Isomorphismus. Das Diagramm diagonalisierbar. (beliebig dimensionale) f 0 := s ◦ f ◦ s−1 kommutativ. Lemma. Sei v ein Eigenvektor zum Eigenwert λ von f ∈ End (V ). Dann ist λ ein Eigenwert und s(v) dazu ein Eigenvektor von f 0 . Üb Weise (16) nach. Charakteristisches Polynom Wie aus dem Bisherigen hervorgeht, ist es wichtig, die Eigenwerte eines Endomorphismus V < ∞ folgt aus Eigenwerte wie f besitzt. kennen. Dies gilt besonders in Hinblick auf die Aussage (15). Im Fall dim mit (7.8)(7.10), dass jede Darstellungsmatrix (11.17) A von f die gleichen Hauptlemma. Für f ∈ End (V ) gilt: λ Eigenwert von f ⇔ Kern (f − λidV ) 6= {0}. Für A ∈ K n×n gilt: λ Eigenwert von A ⇔ Kern (A − λE n ) 6= {0} ⇔ det (A − λ En ) = 0. 75 f zu (16) Beweis. Oenbar ist f (x) = λx äquivalent zu (f − λidV )(x) = 0, d.h. x ∈ Kern (f − λidV ). Ferner gilt: Kern (A − λE n ) 6= {0} ⇔ A − λE n nicht invertierbar ⇔ det (A − λE n ) = 0. Siehe dazu (7.24) und (10.18). Sei X eine Unbestimmte. Dann ist a11 − X a12 ··· a21 a22 − X · · · A − XE n = . . .. . . . . . an1 an2 ··· a1n a2n . . . ann − X und (11.18) χA := det (A − XE n ) bezeichnet das Polynom in n Y χA = X gemäÿ der Leibniz Formel (10.9). Danach ist (akk − X) + Q, k=1 π = id ist und Q die Summe über π ∈ Sn \ {id} bezeichnet. Q ≤ n − 2. Nach fallenden Potenzen in X geordnet ist wobei das Produkt der Summand zu ist ein Polynom in (11.19) X vom Grad χA = (−1)n X n + (−1)n−1 (Spur A)X n−1 + . . . + det A, Spur von A deniert ist als wobei die (11.20) Spur A := n X akk die Summe der Diagonalelemente von A. k=1 Man nennt χA das charakteristische Polynom von A ∈ K n×n . Es ist ein Polynom vom Grad n in einer Unbestimmten mit Koezienten aus Üb Sei B ∈ K m×n und C ∈ K n×m . K. Der Leitkoezient ist Zeige: Spur (B (−1)n . C) = Spur (C B). Polynome über K Polynomrings K[X] einzuschieben. Die Elemente Polynome über K in einer Unbestimmten. K[X] ist der VR K (N0 ) (s. (5.4)) Hier ist es angebracht, eine srenge Denition des von K[X] heiÿen versehen mit einer weiteren inneren Verknüpfung, einem Produkt. Zu seiner Denition wird die kanonische Basis in K (N0 ) wie folgt bezeichnet: X l := (0, . . . , 0, 1, 0, . . .) für l ∈ N0 , wobei l Nullen vor der p= stehen. p ∈ K[X] schreibt man als Linearkombination der Basisvektoren X l , l ∈ N0 , n ∈ N0 und eindeutig bestimmte αl ∈ K für l = 0, . . . , n mit Ein Polynom existiert ein 1 n X d.h. es αl X l . l=0 αl = 0, dann heiÿt p = 0 das Nullpolynom. Andernfalls existiert ein maximales d ∈ N0 d ≤ n und αd 6= 0. Dann heiÿt p ein Polynom von Grad d, bezeichnet mit d =: grad p, und Sind alle mit 76 Leitkoezient αd . Im Fall d = 0 schreibt man p = α0 X 0 =: α0 , lynom hat keinen Grad. Die Sprechweise "p ist ein Polynom vom Grad Nullpolynom mit ein. Ist q= Pm p q := k=0 βk X n X m X k ein weiteres Polynom, dann deniert man das αl βk X l+k = n+m X γj X j mit j=0 l=0 k=0 Produkt αl βk . l,k mit l+k=j Dieses Produkt hat folgende Eigenschaften für a) p (q r) = (p q) r b) pq = qp c) p (q + r) = p q + p r, (p + q) r = p r + q r p, q, r in K[X]: assoziativ kommutativ d) grad (p q) = (grad p) + (grad q) für distributiv p 6= 0, q 6= 0. Mit Hilfe des Produkts deniert man auch die p ◦ q := X γj := α0 6= 0. Das Nullpo≤ n" schlieÿt jedoch das wobei n X αl l=0 m X Komposition zweier Polynome: !l βk X k . k=0 Hierfür gilt die Assoziativität (p ◦ q) ◦ r = p ◦ (q ◦ r), denn (p ◦ q) ◦ r = Pn l=0 αl Pm k=0 βk P p j j=0 γj X k l = p ◦ (q ◦ r). P p ∈ K[X] ist die Polynomfunktion p̂ : K → K, p̂(λ) := nl=0 αl λl , zugeordnet. Die Abbildung p → 7 p̂ ist für unendliche Körper injektiv, s. (22) unten. Für endliche Körper ist das nicht der Fall. Eine Nullstelle von p ist ein λ ∈ K mit p̂(λ) = 0. Wenn es nicht zu Missverständnissen führt, schreiben wir p(λ) anstelle von p̂(λ). Für p, q, r ∈ K[X], λ ∈ K gelten Jedem Polynom (p + q)(λ) = p(λ) + q(λ) Üb und (pq)(λ) = p(λ)q(λ), sowie (p ◦ q ◦ r)(λ) = p(q(r(λ))). Polynomdivision mit Rest. Sei q ∈ K[X]\{0} und p ∈ K[X]. Zeige: Es existieren eindeutig bestimmte h ∈ K[X] und r ∈ K[X] derart, dass p = hq + r mit r=0 oder grad r < grad q . Wir fahren mit der Untersuchung des charakteristischen Polynoms fort. Aus (17) folgt sofort (11.21) Sei Satz. Die Nullstellen von χA in K sind genau die Eigenwerte von A. A0 ähnlich zu A, s. (2). Dann ist χA (λ) = χA0 (λ) für alle λ ∈ K, d.h. die charakteristischen Polynomfunktionen sind gleich, denn: χA0 = det(A0 − λE n ) = det(S −1 A S − λS −1 S) = det(S −1 (A − λE n )S) = det(A − λE n ) = χA (λ). Im Fall, dass K unendlich viele Elemente hat, wie etwa Q, R oder C, folgt daraus, dass χA und χA0 selbst gleich sind, denn es gilt: (11.22) Lemma. Seien p, p0 zwei Polynome über K vom Grad ≤ n, die für n + 1 paarweise verschiedene Werte λ1 , . . . , λn+1 aus K übereinstimmen. Dann ist p = p0 . 77 Beweis. Oenbar genügt es zu zeigen, dass q := p − p0 n X q= αl X l mit das Nullpolynom ist. Sei al ∈ K, l = 1, . . . , n. l=0 q(λj ) = 0, j = 1, . . . , n + 1, ··· λn1 x1 ··· λn2 x2 . . = 0. . . . . n · · · λn+1 xn+1 Betrachte das LGS 1 λ1 1 λ2 .. . . . . 1 λn+1 d.h. (x1 , . . . , xn+1 ) = (α0 , . . . , αn ). Die Vandermonde (λ − λ ) = 6 0. Daher hat das LGS nur die Nulllösung. j k 1≤k<j≤n+1 Eine Lösung davon ist Q (11.23) Satz. Die charakteristischen Polynome für ähnliche Matrizen sind gleich. Beweis. Für den Fall unendlichem K siehe (21) fol. Der Fall endlichen Körpers folgt mit etwas formalen Aufwand, indem man direkt von det(S (11.24) Determinante (10.15) ist −1 (A − XE n )S) ausgeht. Denition. Ist dim V < ∞ und f ∈ End (V ), dann setzt man χf := χA , wobei A (irgend)eine Abbildungsmatrix von f ist. Dies ist sinnvoll wegen (23) und (7.36). Ebenso ist detf := detA wohldeniert. Eigenräume Zu einem Eigenwert einfaches Beispiel ist λ ∈ K von f kann es mehrere linear unabhängige Eigenvektoren geben. Ein f := α idV für ein α ∈ K : Einziger Eigenwert von f ist α und jedes x ∈ V \ {0} ist Eigenvektor dazu. λ ∈ K nennt man E(λ) := Ef (λ) := Kern(f − λ idV ) den Eigenraum von f bez. λ. Oenbar ist λ genau dann ein Eigenwert von f , wenn Ef (λ) 6= {0} ; in diesem Fall heiÿt γf (λ) := dim Ef (λ) die geometrische Vielfachheit oder die Entartung von λ. Jedes x ∈ Ef (λ) \ {0} ist ein Eigenvektor zu λ von f . Aufgrund von (14) ist für paarweise verschiedene λ1 , . . . , λm aus K gemäÿ folgender Denition die Summe der Eigenräume Ef (λi ) direkt. Für (11.25) Denition. V ein VR und W1 , . . . , Wn UVR von V . In Verallgemeinerung von (6.15) W := W1 +W2 +. . .+Wm direkt, wenn {x1 , . . . , xm }\{0} linear unabhängig xk ∈ Wk für k = 1, . . . , m. Man schreibt Seien heiÿt die Summe ist, falls W = W1 ⊕ W2 ⊕ . . . ⊕ Wm . Üb Sei W1 , . . . , Wm . Zeige: Jedes v ∈ V lässt sich in eindeutiger v = w1 + . . . + wm mit wk ∈ Wk für k = 1, . . . , m schreiben. Zeige weiter: Ist Mk Basis von Wk für k = 1, . . . , m, dann ist M := M1 ∪ . . . ∪ Mm eine Basis von V . V die direkte Summe der UVR Weise als eine Üb Verallgemeinere die obige Denition der direkten Summe von UVR für beliebig viele UVR und beweise dafür die Aussagen der vorangegangenen Übung. Für A ∈ K n×n EA (λ) := Ef (λ) für f := LA . Zur Berechnung (A − λE) x = 0. Es folgen drei typische Beispiele dazu. setzt man natürlich löst man das homogene LGS 78 von EA (λ) (11.26) Beispiel 1. 0 −1 1 A = −3 −2 3 ∈ K 3×3 . −2 −2 3 Sei χA = −X det −2 − X 3 −2 3−X Dann ist + 3 det −X −1 1 3 A − XE 3 = −3 −2 − X −2 −2 3−X −1 1 −2 3 − X − 2 det und −1 1 = −2 − X 3 −X((−2 − X)(3 − X) + 6) + 3(−(3 − X) + 2) − 2(−3 + 2 + X) = −X 2 (X − 1) + 3(X − 1) −2(X − 1) = (X − 1)(−X 2 + 1) = −(X − 1)2 (X + 1) = −X 3 + X 2 + X − 1. Also ist 1, −1. χA = −X 3 + X 2 + X − 1. Die Nullstellen von χA sind die Eigenwerte von A. Sie lauten Jetzt lassen sich die Eigenräume dazu berechnen. EA (1) = Kern(A − E 3 ) (A − E 3 ) X = 0, ist die Lösungsmenge des LGS d.h. 0 −1 −1 1 x1 −3 −3 3 x2 = 0 . 0 −2 −2 2 x3 EA (1) wende das Gauÿ −1 −1 1 −1 −1 1 −3 −3 3 −→ 0 0 0 0 0 0 −2 −2 2 Zur Berechnung von Verfahren an: λ := x2 , µ := x3 die freien −λ + µ −1 1 x1 x2 = λ 1 + K 0 EA (1) = : λ, µ ∈ K = K x3 µ 0 1 ist bereits die spezielle Zeilenstufenform. Damit sind in Parameter und Basisdarstellung. Also ist der Eigenwert Vielfachheit von 1 ist Variablen und 1 zweifach entartet, d.h. die geometrische γA (1) = dim EA (1) = 2. EA (−1) = Kern(A + E 3 ): 1 −1 1 1 −1 1 1 −1 1 1 0 − 21 −1 0 12 A + E 3 = −3 −1 3 −→ 0 −4 6 −→ 0 −4 6 −→ 0 −4 6 −→ 0 −1 32 −2 −2 4 0 −4 6 0 0 0 0 0 0 0 0 0 Berechne jetzt λ := x3 die freie 1 1 x1 2λ 2 EA (−1) = x2 = 32 λ : λ ∈ K = K 32 x3 λ 1 ist die spezielle Zeilenstufenform. Damit ist in Parameter und Basisdarstellung. Also ist von −1 ist Es folgt −1 Variable und nicht entartet, d.h. die geometrische Vielfachheit γA (−1) = dim EA (−1) = 1. K 3×1 = EA (1) ⊕ EA (−1). Damit ist A diagonalisierbar. Explizit erhält man nach (13) −1 1 12 S := 1 0 32 . 0 1 1 S −1 A S = diag(1, 1, −1) mit 79 (11.27) Sei Beispiel 2. ϕ∈R und Dϕ := Die Matrix Winkel ϕ, Dϕ beschreibt eine Drehung in der Ebene R2 (' R2×1 ) in positivem Drehsinn um den denn: Dϕ cos(ϕ) − sin(ϕ) ∈ R2×2 . sin(ϕ) cos(ϕ) cos(ϕ + α) cos(ϕ) cos(α) − sin(ϕ) sin(α) cos(α) . = = sin(ϕ + α) sin(ϕ) cos(α) + cos(ϕ) sin(α) sin(α) χ = (cos(ϕ) − X)2 + sin2 (ϕ) = X 2 − (2 cos(ϕ))X + 1 hat eine reelle 2 Lösung nur für 4 cos (ϕ) − 4 ≥ 0, d.h. nur für ϕ ∈ πZ, wozu zwei unterschiedliche Fälle gehören: D0 = E 2 und Dπ = −E 2 haben jeweils 2-fach entartete Eigenwerte 1 bzw. −1. Die Eigenräume 2 dazu sind jeweils ganz R . Für ϕ ∈ / πZ ist E(λ) = {0} für jedes λ ∈ R. Das charakteristische Polynom Wir fassen nun Dϕ ∈ C2×2 auf. Dann gibt es Nullstellen von χ, nämlich λ1,2 = cos(ϕ) ± i sin(ϕ) =: e±iϕ . Berechne E(eiϕ ) für ϕ∈ / πZ: cos(ϕ) − eiϕ − sin(ϕ) −i sin(ϕ) − sin(ϕ) −i −1 = = sin ϕ sin(ϕ) cos(ϕ) − eiϕ sin(ϕ) −i sin(ϕ) 1 −i −i −1 −1 i −→ −→ 0 0 0 0 λ := x2 die iλ i = :λ∈C =C . λ 1 ist die spezielle Zeilenstufenform. Damit ist E(eiϕ ) = x1 x2 −iϕ ) Analog folgt E(e 2×1 Also ist C Fazit: Dϕ für = −i =C . 1 E(eiϕ ) ϕ∈ / πZ freie Variable und ⊕ E(e−iϕ ) und ist über R S −1 AS = iϕ −iϕ ) mit diag(e , e S= nicht diagonalisierbar, wohl aber über 80 C. i −i . 1 1 (11.28) Sei Beispiel 3. λ 1 J n (λ) := λ .. . .. . Dreiecksmatrix und somit ist λ ∈ K n×n , n ≥ 2 die Jordanmatrix zu λ ∈ K . Es ist eine obere 1 λ n P n n−i i n λ X ) ihr charakteristisches Polynom. Also χ = (λ − X) (= i=0 i einziger Eigenwert. Berechne 0 1 E(λ) : J n (λ) − λE n = 0 .. . .. . 0 −1 0 −→ 1 0 µ := x1 µ 1 x1 x2 0 0 E(λ) = . = . : µ ∈ K = K . 6= K n×n . . . .. . . xn 0 0 hat bereits spezielle Zeilenstufenform. Die freie Variable ist Ist J n (λ) diagonalisierbar? Nein, denn sonst müsste Eigenwert ist. Aber λ∈K λ En und jeden Körper Dkl = (dkl ) J n (λ) zu λ En .. . .. . −1 0 und ist nur zu sich selbst ähnlich. Beachte, dass dies für K eine λ der einzige jedes n ≥ 2, jedes ähnlich sein, weil gilt. (n × n)−Dreiecksmatrix. Qn l=1 (dll − X). Sei Üb Wie lautet die Verallgemeinerung des Ergebnisses der vorangegangenen Übung auf Dreiecksblockmatrizen? 81 Zeige: χD = Üb 12 Diagonalisierbarkeit und Trigonalisierbarkeit Im Folgenden ist V n-dimensionaler K -VR. stets ein Wir verfolgen hier weiter die anfangs des vorangegangenen Kapitels gestellte Aufgabe, einen Repräsentanten möglichst einfacher Gestalt für jede Ähnlichkeitsklasse zu nden. Das charakteristische Polynom, das für ähnliche Matrizen gleich ist, ist das entscheidende Hilfsmittel dazu. Diagonalisierbarkeit Aus den bisherigen Ergebnissen schlieÿen wir (12.1) Lemma. Sei f ∈ End(V ) diagonalisierbar. Dann ist χf = (λ − X)γ1 (λ2 − X)γ2 . . . (λs − X)γs , wobei λ1 , λ2 , . . . , λs die paarweise verschiedenen Eigenwerte von f bezeichnen und γi := γf (λi ) ihre geometrische Vielfachheiten sind. Beweis. Für die f darstellende Diagonalmatrix λ 1 Eγ1 D := .. . λ s Eγs ist χf = χD nach (11.24), und Umgekehrt, wenn für f ∈ End(V ) nearfaktoren (λ − X) χf wofür f n paarweise verschiedene Li- diagonalisierbar nach (11.15). Schwierigkeiten ergeben mehrfach auftreten. Denition und Lemma. α ∈ {0, . . . , n}, αp (λ) von λ. hat die behauptete Gestalt. das charakteristische Polynom in zerfällt, dann ist sich, wenn Nullstellen von (12.2) χD = det(D − XEn ) Sei q ∈ K[X] p ∈ K[X] n ∈ N0 und λ ∈ K . Das maximale p = (λ − X)α q , heiÿt die Vielfachheit vom Grad existiert derart, das Ist p = (λ − X)α q , für α = αp (λ), dann ist q(λ) 6= 0. Ist p = (λ − X)β q 0 mit β ∈ {0, . . . , n} und q 0 ∈ K[X] mit q 0 (λ) 6= 0, dann ist α = β und q = q 0 . Beweis. Angenommen es ist q(λ) = 0. Dann folgt für q̃ := q ◦ l mit l := λ − X ∈ K[X]: q̃(0) = Pn j mit β ∈ K und β = 0 ⇒ q̃ ◦ l = q ◦ (l ◦ l) = q(l(0)) = q(λ) = 0 ⇒ q̃ = j 0 j=0 βj X P Pn n j j−1 =: q ◦ (λ − (λ − X)) = q ◦ X = q und somit q = j=0 βj (λ − X) = (λ − X) β (λ − X) j j=1 (λ − X)q1 ⇒ p = (λ − X)α+1 q1 im Widerspruch zur Maximalität von α. α ≥ β und somit (λ − X)β ((λ − X)α−β q − q 0 ) = 0. β Allgemein gilt für Q ∈ K[X], dass Q = 0 falls (λ − X) Q = 0. Für β = 0 ist dies oensichtlich. 0 0 β−1 Q folgt λQ0 = XQ0 . Der Fall λQ0 6= 0 ist nicht möglich, Aus (λ − X)Q = 0 für Q := (λ − X) 0 0 0 0 0 weil sonst grad(λQ ) < grad(XQ ). Also ist 0 = λQ = XQ , weshalb Q = 0. Nach β Schritten folgt Q = 0. 0 α−β q . Wegen q 0 (λ) 6= 0 folgt α = β und somit q = q 0 . Diese Überlegung zeigt q = (λ − X) Zur Eindeutigkeit beachte 82 Üb Weise das Ergebnis von (2) alternativ mit Hilfe der Polynomdivision mit Rest nach. λ ∈ K Sei ein Eigenwert von Vielfachheit von (12.3) λ f ∈ End(V ). Die algebraische Vielfachheit αf (λ) V. ist die von Ef (λ) durch vγ+1 , . . . , vn zu einer Basis Bezüglich dieser Basis ist M (f ) = λE γ ∗ B χf = (λ − X)γ det(B − XE n−γ ) γ ≤ αf (λ) nach (2). und damit ist λ Lemma. Es ist stets γf (λ) ≤ αf (λ), d.h. die geometrische Vielfachheit eines Eigenwertes ist höchstens gleich der algebraischen. Beweis. Sei γ := γf (λ). Ergänze eine Basis v1 , . . . , vγ von von als Nullstelle des charakteristischen Polynoms. mittels Entwicklung nach den ersten Spalten. Daher Bemerkung. Weil χf = χA für jede Abbildungsmatrix A von f αA (λ) := αf (λ) γ gilt (s. (11.24)), ist die Bezeichnung sinnvoll. Bemerkung. Für Jn (λ) aus (11.28) gilt der Extremfall γ(λ) = 1 < n = α(λ). (12.4) Satz zur Diagonalisierbarkeit. Seien V ein K VR mit n := dim V < ∞ und f ∈ End(V ). Dann sind äquivalent: (i) (ii) (iii) f ist diagonalisierbar. χf zerfällt in Linearfaktoren und γf (λ) = αf (λ) für alle Eigenwerte λ von f . + . . . E + f (λs ), wobei λ1 , . . . , λs die paarweise verschiedenen Eigenwerte von V = Ef (λ1 ) f sind. Beweis. (i) ⇒ (ii) gilt wegen (1) und (2). Aus (ii) folgt in Hinblick auf (iii), dass n = αf (λ1 ) + · · · + αf (λs ) = γf (λ1 ) + · · · + γf (λs ). Wegen (11.14) folgt daraus (iii). Schlieÿlich bedeutet (iii), dass es eine Basis von Eigenvektoren von f gibt, d.h. es gilt (i). (12.5) Beispiel. Es soll der Endomorphismus f : R3 −→ R3 , f (x, y, z) := (y, −2x + z, −2x + 5y) wenn möglich diagonalisiert werden. 1. Schritt. Man bestimme die Abbildungsmatrix A von f bez. einer Basis v1 , . . . , vn . Bezüglich der kanonischen Basis liest man ab, dass 0 1 0 A = −2 0 1 . −2 5 0 2. Schritt. Man berechne des charakteristische Polynom χA . Nach der Regel von Sarrus ist −X 3 χA = det(A−XE 3 ) = −X 3 +(−2)+0−0−(−X)· 5−1 (−2)(−X) = + 3X − 2. 3. Schritt. Finde die Linearfaktoren von χA . Eine explizite Angabe der Linearfaktoren ist oftmals prinzipiell nicht möglich. Wenn χA nicht Produkt von Linearfaktoren ist, ist f nicht diagonalisierbar. Als Beispiel siehe dazu (11.27). 83 χA (1) = 0. Polynomdivision liefert χA = (1 − X)(X 2 + X − 2) = (1 − X)2 (−2 − X). Eigenwerte sind also 1 und −2. Der Eigenwert 1 ist doppelt. Oenbar ist Die 4. Schritt. Für jeden Eigenwert bestimme man eine Basis des Eigenraums Ef (λ) = Kern(A−λE n ). Dazu löst man das LGS Eigenwert (A − λE n ) x = 0 und schreibt die Lösungsmenge in der Basisdarstellung. −2: 1 2 1 0 2 1 0 2 1 0 2 0 − 13 −1 0 6 A+2E = −2 2 1 −→ 0 3 1 −→ 0 3 1 −→ 0 3 1 −→ 0 −1 − 13 . −2 5 2 0 6 2 0 0 0 0 0 0 0 0 0 µ := x3 die freie 1 1 x1 6µ 6 EA (−2) = x2 = − 31 µ : µ ∈ R = R − 13 . µ 1 x3 Das ist die spezielle Zeilenstufenform. Damit ist Eigenwert Variable und 1: −1 1 0 −1 1 0 −1 1 0 −1 0 31 A − E = −2 −1 1 −→ 0 −3 1 −→ 0 −3 1 −→ 0 −1 13 . 0 0 0 −2 5 −1 0 3 −1 0 0 0 µ := x3 1 1 x1 3µ 3 EA (1) = x2 = 13 µ : µ ∈ R = R 13 . x3 µ 1 Das ist die spezielle Zeilenstufenform. Damit ist 5. Schritt. Ist für einen Eigenwert γf (λ) < αf (λ), die freie Variable und dann ist f nach (4) nicht diagonalisiebar. Andernfalls bilde aus den Basisvektoren der Eigenräume in der Reihenfolge der Eigenwerte mit Vielfachheiten die A diagonalisierende Matrix S, d.h. diag(λ1 , . . . , λn ) = S −1 A S. γA (1) = 1 < 2 = αA (1) (!) und somit A nicht diagonalisierbar. Ein Beispiel diagonalisierbare Matrix ist A aus (11.26). In diesem Beispiel ist für eine 6. Schritt. Im Fall der Diagonalisierbarkeit von f bleibt eine Basis von Eigenvektoren anzugeben. Nach (7.26) ist diese gegeben durch n X sjl vj , l = 1, . . . , n. j=1 Trigonalisierbarkeit Nach den Diagonalmatrizen sind Dreiecksmatrizen von nächst einfacher Gestalt. Wenn eine Matrix schon nicht ähnlich zu einer Diagonalmatrix ist, so könnte sie es doch wenigstens zu einer Dreiecksmatrix sein. Welche Eigenschaft hat ein Endomorphismus mit einer solchen Abbildungsmatrix? (12.6) Denition. f ∈ End(V ) derart. dass f (Vl ) ⊂ Vl für heiÿt trigonalisierbar, wenn es eine Basis Vl := Span{v1 , . . . , vl }, l = 1, . . . , n − 1. 84 v1 , . . . , vn in V gibt Beachte, f (V1 ) ⊂ V1 bedeutet genau, dass v1 besitzt einen Eigenvektor, s. (11.27). Ein UVR (12.7) f ist. Nicht jeder Endomorphismus f (W ) ⊂ W heiÿt f invariant. Eigenvektor zu W von V mit Lemma. f ∈ End(V ) ist trigonalisierbar genau dann, wenn es eine Basis in V gibt, bez. welcher die Abbildungsmatrix von f obere Dreiecksmatrix ist. In der Diagonalen stehen die Eigenwerte von f , die gemäÿ ihren algebraischen Vielfachheiten auftreten. Beweis. f trigonalisierbar. l = 1, . . . , n − 1: Sei Sei v1 , . . . , vn f (vl ) = l X akl vk eine Basis dazu gemäÿ Denition (6). Dann ist für mit akl = 0 für k > l. k=1 A := (akl ) obere Dreiecksmatrix. Umgekehrt, ist die Abbildungsmatrix A von f bez. eiv1 , . . . , vn obere Dreiecksmatrix, dann besagt obige Gleichung, dass Vl := Span{v1 , . . . , vl } Also ist ner Basis die Denition (6) erfüllen. Die letzte Behauptung folgt aus der Leibniz Formel (10.9), weil danach χA = Qn k=1 (akk siehe (11.18) . Gemäÿ der allgemeinen Verabredung wird eine Martrix ist. Das ist gleichbedeutend damit, dass (12.8) A A trigonalisierbar genannt. wenn − X), LA es ähnlich zu einer oberen Dreiecksmatrix ist. Satz zur Trigonalisierbarkeit, Schur Normalform. f ∈ End(V ) ist trigonalisierbar genau dann, wenn χf Produkt von (nicht notwendig verschiedenen) Linearfaktoren ist. Beweis. Q Für eine Dreiecksmatrix D = (dkl ) gilt nach der Leibniz Formel (10.9), dass χD = det(D − n ll − X). Nach (7) bleibt zu zeigen, dass l=1 (dQ n ist, wenn χA = l=1 (λl − X). XE n ) = A ∈ K n×n ähnlich zu einer Dreiecksmatrix t1 ∈ E(λ1 ) \ {0}. Ergänze t1 zu einer Basis t1 , . . . , tn von K n×1 . Dann invertierbar und A T = (A t1 . . . A tn ) = (λ1 t1 ∗ . . . ∗) = T (λ1 e1 ∗ . . . ∗), d.h. Sei T −1 A T = ∗ λ1 A 0 ist T := (t1 . . . tn ) (n−1)×(n−1) . Da χ = (λ −X)χ 0 nach (11.23) und dem Determinantenentwicklungssatz, A0 ∈ K 1 A A Qn 0 ist χA0 = l=2 (λl − X). Wie eben gezeigt, gibt es daher zu A eine invertierbare (n − 1) × (n − 1) 0 0 −1 0 0 Matrix T mit T A T = (λe2 ∗ . . . ∗). Dann gilt 1 λ1 1 T −1 A T = . λ2 −1 0 0 T T mit ∗ In insgesamt n−1 solchen Schritten folgt die Behauptung. Der Beweis von (8) gibt auch bereits ein Verfahren zur praktischen Trigonalisierung eines Endomorphismus an. (12.9) Beispiel. Es soll der Endomorphismus f : R3 −→ R3 , f (x, y, z) := (3x + 4y + 3z, −x − z, x + 2y + 3z) wenn möglich trigonalisiert werden. 85 1. Schritt. Man bestimme eine Abbildungsmatrix A von f . Bezüglich der kanonischen Basis liest man ab 3 4 3 A = −1 0 −1 . 1 2 3 2. Schritt. Man berechne das charakteristische Polynom χA . Nach der Regel von Sarrus ist χA = det(A − XE 3 ) = (3 − X)(−X)(3 − X) + 4 (−1) 1 + 3 (−1) 2 − 3 (−X) 1 − (3 − X)(−1) 2 − 4 (−1)(3 − X) = −X 3 + 6X 2 − 9X − 4 − 6 + 3X + 6 − 2X + 12 − 4X = −X 3 + 6X 2 − 12X + 8. 3. Schritt. Man nde die Linearfaktoren von χA . f ist genau dann trigonalisierbar, wenn χA Produkt von Linearfaktoren ist. χA = (2 − X)3 . Also ist f trigonalisierbar. Der einzige Eigenwert 2 ist 3fach. Damit γA (2) < 3 = αA (2) (!) und f nicht diagonalisierbar. Oenbar ist ist 4. Schritt. Für den Eigenwert λ1 nde einen Eigenvektor t1 . Nach dem Austauschlemma (5.24) q ∈ {1, . . . , n} derart, dass t1 , e1 , . . . , e\q , . . . , en eine Basis von K n×1 ist. Bestimme zu dieser Basis die Abbildungsmatrix von f λ1 . 0 A existiert ∗ Wiederhole diesen Schritt für Eigenvektor zu Eigenwert A0 u.s.w., bis die Abbildungsmatrix trigonal ist. 2: 1 0 −1 1 4 3 1 4 3 1 4 3 A − 2E 3 = −1 −2 −1 −→ −1 −2 −1 −→ 0 2 2 −→ 0 2 2 0 0 0 0 0 0 0 0 0 1 2 1 −1 0 1 −→ 0 −1 −1 . 0 0 0 µ := x3 die freie Variable und 1 µ x1 E(2) = x2 = −µ : µ ∈ R = R −1 . 1 x3 µ 1 1 0 0 Also ist t1 = −1 Eigenvektor zu 2. Wähle t1 , e2 , e3 als neue Basis. T := −1 1 0 besorgt 1 1 0 1 0 −1 den Basiswechsel. Um A zu bestimmen, benötigt man T : 1 0 0 1 0 0 1 0 0 1 0 0 −1 1 0 0 1 0 −→ 0 1 0 1 1 0 . 1 0 10 0 1 0 0 1 −1 0 1 1 0 0 2 4 3 4 2 −1 −1 0 1 1 0 folgt T A T = 0 4 2 und A = Mit T = . Bekannt ist χA0 = −2 0 −1 0 1 0 −2 0 (2 − X)2 . Nun wiederholt man den Schritt 4 für A0 . Das ist die spezielle Zeilenstufenform. Damit ist 86 2: Eigenvektor zu Eigenwert 0 A − 2E 2 = 2 2 −2 −2 −→ 2 2 0 0 −→ −1 −1 . 0 0 Das ist die spezielle Zeilenstufenform mit freier Variable E(2) = x1 x2 = Ergänze den Eigenvektor Daher ist Basis. 0 T = −1 0 1 1 besorgt den Basis- −1 T0 : 1 0 −1 0 −1 0 1 0 −1 0 1 0 , −→ −→ 0 1 1 1 0 1 1 1 1 10 1 −1 0 2 −2 0 −1 0 −1 0 0 T = . Hiermit folgt T AT = . Damit 1 1 0 2 wechsel. Bestimme d.h. −µ −1 : µ∈R =R . µ 1 −1 0 0 t1 = mit zu neuer 1 1 x2 . 2 4 3 1 S −1 A S = 0 2 −2 mit S := T 0 0 2 T0 ist die Dreiecksform erreicht: 1 0 0 1 0 0 1 0 0 = −1 1 0 0 −1 0 = −1 −1 0. 1 0 1 0 1 1 1 1 1 5. Schritt. Gebe gemäÿ (7.26) die Basis an, bez. welcher f trigonal ist. Die trigonalisierende Basis lautet: 3 X skl ek , l = 1, 2, 3, das ist (1, −1, 1), (0, −1, 1), (0, 0, 1). k=1 Üb (12.10) Trigonalisiere den Endomorphismus aus (5). Polynome über C. Der Fundamentalsatz der Algebra besagt: Jedes Polynom p ∈ C[X] mit grad p ≥ 1 hat mindestens eine Nullstelle. Hieraus folgt sofort mit (2), dass p = c (λ1 − X)α1 (λ2 − X)α2 . . . (λs − X)αs c, λ1 , . . . , λs aus C, und α1 , . . . , αs λ1 , . . . , λs paarweise verschieden sind. mit gewissen wenn (12.11) aus N, wobei diese Darstellung eindeutig ist, Korollar. Sei V ein endlich dimensionaler C-VR. Dann ist jeder Endomorphismus von V trigonalisierbar. Beweis. Folgt aus (8) und (10). (12.12) Polynome über R. Reelle Polynome zerfallen bekanntlich i. allg. nicht in reelle Linearfak- 1 + X 2 . Jedoch lässt sich folgende Überlegung anstellen: Sei p ∈ R[X]. Fasse p ∈ C[X] auf. Sei λ ∈ C eine Nullstelle von p. Dann ist auch λ eine Nullstelle von p, denn P P p(λ) = nl=0 αl (λ)l = nl=0 αl λl = p(α) = 0, weil αl ∈ R. Die nicht reellen Nullstellen treten also in Paaren konjugierter Nullstellen auf. Diese ergeben einen Faktor toren, wie z.B. 87 (λ − X)(λ − X) = |λ|2 − 2(Re λ)X + X 2 =: γ + βX + X 2 =: q Daraus schlieÿt man: mit β, γ ∈ R und β 2 < 4γ . Jedes Polynom p ∈ R[X] mit grad p ≥ 1 besitzt eine Darstellung p = c (X − λ1 )α1 . . . (X − λs )αs q1δ1 . . . qtδt mit c ∈ R, λi ∈ R, αi ∈ N für i = 1, . . . , s und qj = γj + βj X + X 2 mit βj , γj ∈ R, βj2 < 4γj , δj ∈ N für j = 1, . . . , t. Dabei kann s oder t auch null sein. Diese Darstellung ist eindeutig, wenn λ1 , . . . , λs und q1 , . . . , qt paarweise verschieden sind. Vorstufe der Jordan Normalform Eine Dreiecksmatrix läÿt sich mittels einer Ähnlichkeitstransformation auf diagonale Blockmatrixform bringen, deren Blöcke Dreiecksmatrizen mit nur einem Eigenwert sind. (12.13) Denition. Sei λ ein Eigenwert der Matrix A ∈ K n×n . Dann vektor der Stufe l ∈ N zum Eigenwert λ der Matrix A, wenn heiÿt v ∈ K n×1 ein Haupt- (A − λE)l v = 0 und (A − λE)l−1 v 6= 0. Entsprechend deniert man einen Hauptvektor und seine Stufe für einen Endomorphismus. Bemerkung. Die Hauptvektoren zur Stufe 1 sind genau die Eigenvektoren, (A − λE)v = 0 (12.14) und denn für beide gilt (A − λE)0 v = v 6= 0. Lemma und Denition. Ist v ein Hauptvektor der Stufe l, dann sind oenbar v, (A − λE)v, (A − λE)2 v, . . . , (A − λE)l−1 v Hauptvektoren der Stufen l, l − 1, . . . , 1. Diese Vektoren sind linear unabhängig. Sie bilden die durch v bestimmte Kette von Hauptvektoren. P i Beweis. Zum Nachweis der linearen Unabhängigkeit werde die Gleichung l−1 i=0 αi (A − λE) v = l−1 l−1 0 von links mit (A − λE) multipliziert. Es folgt α0 (A − λE) v = 0, weshalb α0 = 0. Die l−2 verbleibende Summe multipliziert man nun mit (A − λE) , womit α1 = 0 folgt, u.s.w. (12.15) Lemma. Seien v 1 , . . . , v s Hauptvektoren zu den paarweise verschiedenen Eigenwerten λ1 , . . . , λs der Matrix A ∈ K n×n . Dann sind v 1 , . . . , v s linear unabhängig. Beweis. Seien l1 , . . . , ls die Längen der Hauptvektoren und k ∈ {1, . . . , s}. Die Faktoren des ProQ Pk := (A − λk E)lk −1 sj=1,j6=k (A − λj E)lj lassen sich vertauschen, da jeder Faktor eine l −1 v ein Eigenvektor zu Linearkombination von Potenzen von A ist. Weiter ist uk := (A − λk E) k Qk l l λk . Daher ist (A − λj E) j uk = (λk − λj ) j uk . Damit ndet man Pk v i = δik sj=1,j6=k (λk − λj )lj uk . Ps Qs lj Wendet man nun Pk auf die Gleichung i=1 αi v i = 0 an, so folgt αk j=1,j6=k (λk − λj ) uk = 0, weshalb αk = 0. Dies gilt für jedes k , woraus die Behauptung folgt. dukts (12.16) Lemma. Das charakteristische Polynom χA der Matrix A ∈ K n×n sei Produkt von Linear- faktoren. Weiter sei λ ein Eigenwert der algebraischen Vielfachheit k . Dann ist HA (λ) := Kern (A − λE)k ein Untervektorraum der Dimension k . Oenbar ist jedes v ∈ HA (λ) \ {0} ein Hauptvektor zu λ. Schlieÿlich ist HA (λ) unter A invariant, d.h. für jedes v ∈ HA (λ) ist A v ∈ HA (λ). 88 Beweis. Gemäÿ (7), (8) kann man davon ausgehen, dass A eine obere Dreiecksmatrix ist, deren erste k Diagonalelemente gleich λ sind. Deshalb ist die Matrix (A−λE)k eine obere Dreiecksmatrix, deren k erste k Spalten null sind und deren Diagonalelemente gleich (λi − λ) sind, wobei λ1 , . . . , λn die Eigenwerte mit algebraischen Vielfachheiten sind. Insbesondere sind genau k ihrer Diagonalelemente k gleich null. Damit ist Rang(A − λE) = n − k , woraus mit (8.15) dim HA (λ) = k folgt. Schlieÿlich k k beachte man (A − λE) A v = A(A − λE) v = A 0 = 0 für v ∈ HA (λ). Seien λ1 , . . . , λ s die paarweise verschiedenen Eigenwerte von A und Vielfachheiten. Für den Fall, dass das charakteristische Polynom ist, ist Ps j=1 αj = n. χA α1 , . . . , αs ihre algebraischen Produkt von Linearfaktoren Damit beweisen (15) und (16), dass + . . . H + A (λs ) K n×1 = HA (λ1 ) gemäÿ Denition (11.25), wobei jeder Untervektorraum aus αj (12.17) HA (λj ) invariant unter A ist und eine Basis Hauptvektoren besitzt. Damit erhält man folgendes Ergebnis. Satz. Vorstufe der Jordan Normalform. tisches Polynom χA Sei A ∈ K n×n eine Matrix, deren charakteris- Produkt von Linearfaktoren ist. Dann existiert eine Basis t1 , . . . , t n von K n×1 derart, dass die ersten α1 Elemente Hauptvektoren zum Eigenwert λ1 sind, die nächsten α2 Elemente Hauptvektoren zum Eigenwert λ2 sind und so fort. Mit der invertierbaren Matrix T := (t1 . . . tn ) ist B1 B2 T −1 A T = .. . Bs eine diagonale Blockmatrix mit Blöcken (λj − X)αj . Wendet man auf jeden man B j in der Schur Normalform ist Block das Trigonaliserungsverfahren aus (8) an, erhält λj ∗ λj Bj = B j ∈ K αj ×αj . Das charakteristische Polynom von B j .. , . λj das ist eine obere Dreiecksmatrix, deren Diagonalelemente alle gleich Aus der Denition von man N∈ K n×n HA (λj ) sind. α N j j = 0 für N j := B j − λj E . k ∈ N gibt mit N k = 0. folgt sofort, dass nilpotent, wenn es ein λj Allgemein nennt Das Ergebnis (17) ndet eine wichtige praktische Anwendung in der Theorie der Linearen Dierentialgleichungssysteme bei der Berechnung der Matrix-Exponentialfunktion. Üb Man zeige: Ist A ∈ K n×n Linearfaktoren ist (was für Matrix D K =C und χA Produkt von stets der Fall ist), dann existieren eine diagonalisierbare und eine nilpotente Matrix A=D+N Hinweis: eine Matrix, deren charakteristisches Polynom N mit D N = N D. Benutze (17) und überlege, warum eine Matrix genau dann diagonalisierbar bzw. nilpotent ist, wenn sie ähnlich zu einer solchen ist. 89 Üb r, s ∈ N Seien akl = 0 und für A = (akl ), B = (bkl ) (n × n)Matrizen k ≥l−r+1 bkl = 0 und für derart, dass k ≥ l − s + 1. r − 1 bzw. s − 1 Nebendiagonalen C := A B gilt ckj = 0 für k ≥ j − r − s + 1, d.h. die Diagonale sowie die anschlieÿenden r + s − 1 Nebendiagonalen von C sind null. Also 0 ··· 0 .. .. . . .. C= . 0 . .. . r + s Nullzeilen . . 0 Das bedeutet, dass die Diagonale sowie die auschlieÿenden von A bzw. B null sind. Zeige: Für ∗ addieren sich bei der Multiplikation von A mit B die Anzahlen der Nullzeilen. Jordan Normalform Die Blöcke Bj in (17) lassen sich durch eine spezielle Wahl der Basis von Hauptvektoren noch weiter vereinfachen. In der Jordan Normalform erzielt man in der ersten oberen Nebendiagonalen Einträge 0 oder 1. Alle anderen Nebendiagonalen sind null. Wir verzichten auf einen Beweis des folgenden Satzes. Eine quadratische Matrix n ∈ N, (12.18) wobei J 1 (λ) := (λ) Satz. Sei V J und K heiÿt Jordanmatrix. J n (λ) aus (11.28) für n ≥ 2. über ein endlichdimensionaler faktoren. Dann gibt es eine Basis in A von f die wenn J = J n (λ) K VR. Sei f ∈ End(V ) und χf V für ein λ∈K und sei Produkt von Linear- aus Hauptvektoren, bez. welcher die Abbildungsmatrix Jordan Normalform besitzt, d.h. J1 J2 A= .. , . Jm wobei J 1, . . . , J m Jordanmatrizen sind. Sie sind nicht notwendigerweise paarweise verschieden und sind bis auf Reihenfolge eindeutig. J n (λ) = λE n + N n 0 1 .. .. . . , N n := .. . 1 0 Man bemerkt, dass mit wofür N nn = 0 gilt. Üb N ∈ K n×n nilpotent. Zeige: Es existiert ein k ∈ N mit k ≤ n, k k−1 jedes k ∈ {1, . . . , n} ein Beispiel N an mit N = 0 und N 6= 0. Üb Bestimme die Potenzen Sei Aj , j ∈ N , für A wofür N k = 0. aus (18). Betrachte dazu zunächst 90 Gebe für (J n (λ))j . 13 Vektorräume mit Skalarprodukt Der Anschauungsraum R3 ist mehr als nur ein Vektorraum. In ihm lassen sich nämlich Längen und Winkel bestimmen. Der Begri der Orthogonalität und die Gültigkeit des Satzes von Pythagoras R3 . sind fundamental für die Geometrie des Sie sind auch fundamental für den sich der Anschau- nung entziehenden Zustandsraum eines quantenmenchannischen Systems, dem Hilbertraum. Diese zusätzliche Struktur eines Vektorraums wird im Sinne der analytischen Geometrie am einfachsten mit Hilfe eines Skalarprodukts eingeführt. Im Folgenden werden nur reelle und komplexe Vektorräume betrachtet. Das Symbol R oder C. Mit z wird nach (4.12) die konjugiert komplexe Zahl zu z∈C K steht für bezeichnet. Skalarprodukt (13.1) Dention. Sei V (SP) auf V, K-VR. Eine Funktion V ×V → K, (x, y) 7→ hx, vi, heiÿt Skalarprodukt 0 für x, y, y aus V und λ ∈ K gelten ein wenn hx, y + λy 0 i = hx, yi + λhx, y 0 i hy, xi = hx, yi hx, xi ≥ 0 und hx, xi = 0 nur für x = 0 Ein VR mit SP (V, h·, ·i) im Fall (13.2) heiÿt linear im zweiten Argument konjugiert symmetrisch positiv denit euklidischer Raum im Fall K=R und unitärer Raum K = C. Bemerkungen. Aus der Linearität im zweiten Argument und der konjugierten Symmetrie λx0 , yi = hy, x + λx0 i = hy, xi + λhy, x0 i = hy, xi + λ hy, x0 i = hx, yi + λ hx0 , yi für alle aus V und λ ∈ K, d. i. die konjugierte Liniearität im ersten Argument. Im euklidischen Raum ist hx, yi = hy, xi = hy, xi, d.h. das SP ist symmetrisch. Als Folge ist es linear auch im ersten Argument und damit bilinear. Beachte, dass hx, xi = hx, xi wegen der konjugierten Symmetrie. Daher ist hx, xi stets reell. Die positive Denitheit fordert insbesondere hx, xi ≥ 0. Für jedes x ∈ V ist hx, 0i = 0, weil hx, ·i linear ist. hx + x, x0 , y folgt (13.3) Beispiel. Standard-SP. a) In Kn hx, yi := x1 y1 + . . . + xn yn = deniert für n X x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) xl yl l=1 P hx,Pxi = nl=1 |xl |2 ≥ 0 hx, yi = nl=1 xl yl . das StandardSP. Insbesondere ist für x = 0. b) In Im Fall K(X) K=R ist und =0 nur für (vgl. (5.4)) lautet das StandardSP hf, gi := X f (x) g(x). x∈X (13.4) Lemma. Sei x ∈ V und M eine Erzeugendenmenge von V . Dann gilt: hx, yi = 0 ∀ y ∈ M ⇒ x = 0. 91 xl = 0 ∀ l, d.h. Beweis. P x= P y∈M αy y mit den P Koordinaten αy ∈ K, die Null sind bis auf endlich viele. Daher ist hx, xi = hx, y∈M αy yi = y∈M αy hx, yi = 0 nach Vorraussetzung. Aus der Denitheit folgt x = 0. Es ist p |x|p = x21 + x22 + x23 die Länge des Vektors x ∈ R3 . Mit |x| = hx, xi. Dies verallgemeinert man auf K-VR mit SP. Bekanntlich ist schreibt sich (13.5) (13.6) Defnition. Sei V ein K-VR mit die (zugehörige) Norm auf V . SP. Dann heiÿt die Funktion Hilfe des Standard-SP V → R, x 7→ kxk := p hx, xi Satz. Sei V ein VR mit SP. Die Norm erfüllt für x, y aus V und λ ∈ K positiv denit positiv homogen Dreiecksungleichung (DU) Cauchy-Schwarz-Ungleichung (CSU) kxk ≥ 0 und kxk = 0 nur für x = 0 kλxk = |λ| kxk kx + yk ≤ kxk + kyk |hx, yi| ≤ kxkkyk In der CSU gilt Gleichheit genau dann, wenn x und y linear abhängig sind. Für die DU ist dies für die Gleichheit notwendig. Beweis. Positive Denitheit und Homogenität sind oensichtlich. Wir beweisen erst die CSU. Of- fenbar ist |hx, 0i| = kxkk0k (= 0) ϕ(λ) := kx − λyk2 für und x, 0 sind linear abhängig. Sei jetzt y 6= 0 und betrachte λ ∈ K. ϕ(λ) = hx − λy, x − λyi = kxk2 − λhy, xi − 2 λhx, yi + λλkyk2 = kxk2 − kyk−2 |hx, yi| + λkyk − kyk−1 hy, xi um. Beachte dazu, dass |hx, yi|2 = hx, yihy, xi. Also ist ϕ minimimal genau für λ = kyk−2 hy, xi =: λ0 . Es folgt 0 ≤ kx − λ0 yk2 = ϕ(λ0 ) = kxk2 − kyk−2 |hx, yi|2 , wobei Gleichheit genau dann vorliegt, wenn x − λ0 y = 0, d.h. wenn x und y linear abhängig sind. Zur DU beachte zunächst, dass hx, yi + hy, xi = 2 Re(hx, yi) ≤ 2 |hx, yi| ≤ 2kxkkyk, wobei Gleich2 heit wegen CSU nur bestehen kann, wenn x und y linear abhängig sind. Damit folgt kx + yk = 2 2 2 2 2 hx + y, x + yi = kxk + kyk + hx, yi + hy, xi ≤ kxk + kyk + 2kxkkyk = (kxk + kyk) , woraus DU mit dem Zusatz folgt. Wir suchen das Minimum von ϕ auf. Dazu formen wir 2 Ein Spezialfall ist die DU für den Betrag in C nach (4.13), die aus der DU in R2 mit dem Standard- SP folgt. Üb Der Hilbertraum l2 , eine Verallgemeinerung von (3). Hierzu ist etwas Analysis erforderlich. Es ist l2 die Teilmenge von CN , die aus den Folgen sup N X (xn ) besteht, wofür |xn |2 < ∞ N ∈N n=1 ist. Zeige, dass l2 Zeige weiter, dass Wende DU in (13.7) C CN ist. (Tipp: Weise |xn + yn |2 ≤ 2 |xn |2 + 2 |yn |2 nach.) 2 n=1 xn yn absolut konvergiert und ein SP auf l deniert. (Tipp: RN an.) Wie lautet explizit die zugehörige CSU? ein UVR von hx, yi := P∞ und CSU in Denition. Das Standard-SP in Kn×1 hξ, ηi := n X lautet ξl ηl . l=1 Zu einer Matrix A = (akl ) ∈ Km×n führen wir die 92 konjugiert komplexe Matrix A := (akl ) adjungierte Matrix A∗ := (aTkl ) (i) (ii) ein. Hiermit lässt sich insbesondere (13.8) (13.9) schreiben . Lemma. Seien A, B aus Km×n , C ∈ Kn×p , S ∈ GL(n, K). Dann gelten Üb T hξ, ηi = ξ η = ξ ∗ η A∗ = (A)T = (AT ) (A∗ )∗ = A (A + λ B)∗ = A∗ + λ B ∗ (BC)∗ = C ∗ B ∗ (S ∗ )−1 = (S −1 )∗ hξ, A ηi = hA∗ ξ, ηi für alle ξ ∈ Km×1 , η ∈ Kn×1 . Weise (8) nach. Beispiel. Sei D := diag(λ1 , . . . , λn ) mit λl > 0 für alle l und sei S ∈ GL(n, K). Dann sind a) ξ, η := hξ, Dηi b) ξ, η := hξ, S ∗ Sηi SP auf Kn×1 . √ √ S := diag( λ1 , . . . , λn ) eine Verallgemeinerung von a). Es genügt b) zu ∗ zeigen. Oenbar ist [·, ·] linear im zweiten Argument. Da hξ, S Sηi = hSξ, Sηi (s. (8)), ist [·, ·] 2 konjugiert symmetrisch. Es ist auch positiv denit, da aus ξ, ξ = 0 zunächst kSξk = 0 und somit ξ = 0 folgt , weil S invertierbar. Beweis. b) ist wegen A ∈ Kn×n gegeben. Wir (13.10) ξ, η := hξ, A ηi Sei für ξ, η aus Kn×1 können nun umgekehrt fragen, welche Eigenschaften hat? Zunächst ist klar, dass [·, ·] aus (10) linear im zweiten und konjugiert linear [·, ·] nennt man daher sesquilinear. Wann ist [·, ·] konjugiert η, ξ = hη, A ξi = hA∗ η, ξi = hξ, A∗ ηi. Damit ist [·, ·] aus (10) genau ∗ ∗ dann konjugiert symmetrisch, wenn hξ, A ηi = hξ, A ηi, d.h. hξ, (A − A) ηi = 0 für alle ξ, η aus ∗ ∗ n×1 n×1 und somit A = A. K . Wegen (4) folgt daraus (A − A) η = 0 für alle η ∈ K im ersten Argument ist. Die Form symmetrisch? Dazu beachte (13.11) Lemma und Denition. A∗ = A. a) [·, ·] aus (10) ist genau dann konjugiert symmetrisch, wenn A hermitesch oder selbstadjungiert. (Für K = R ist A In diesem Fall nennt man symmetrisch.) [·, ·] aus (10) ist genau dann positiv denit (s. (1)) und somit ein SP, wenn A positiv und, falls K = R, A symmetrisch ist. Dabei heiÿt A positiv, wenn hξ, A ξi > 0 (insbesondere reell) n×1 \{0}. für alle ξ ∈ K b) Beweis. Aufgrund der Überlegungen zu (10) bleibt nur noch zu zeigen, dass (13.12) A ∈ Cn×n positiv ⇒A selbstadjungiert. R 3 hξ, A ξi = hA∗ ξ, ξi = hA∗ ξ, ξi = hξ, A∗ ξi und somit 0 = hξ, A ξi − hξ, A∗ ξi = hξ, A ξ − A∗ ξi = hξ, B ξi für alle ξ ∈ Cn×1 mit B := A − A∗ . Hieraus folgt mit (13), dass hξ, B ηi = 0 für alle ξ, η aus Cn×1 und somit, wie nach (10), B = 0. Zum Beweis betrachte 93 (13.13) Polaridentität für komplexe Formen. Sei V ein C-VR und [·, ·] : V × V → C sesquilinear, d.h. linear im zweiten und konjugiert linear im ersten Argument. Dann gilt [x, y] = 1X α [αx + y, αx + y] 4 für alle x, y aus V, α∈Ω wobei Ω := {1, −1, i, −i}. Daraus folgt, dass [·, ·] genau dann konjugiert symmetrisch ist, wenn [x, x] ∈ R für alle x ∈ V . Üb Rechne (13) nach. Üb Polaridentität für reelle Formen. symmetrisch. Zeige Üb [x, y] = 1 4 V ein R-VR und [·, ·] : V × V → R bilinear [x + y, x + y] − 41 [−x + y, −x + y] für alle x, y aus V . Sei Zeige an einem Beispiel, dass (12) im Reellen nicht gilt, d.h. dass aus für alle ξ ∈ Rn×1 \ {0} [·, ·] allgemein nicht A = AT und A ∈ Rn×n mit hξ, Aξi > 0 folgt. K-VR V , was im Fall K = R eine symmetrische Bilinearform ist. Wie mehrmals bemerkt, ist [x, x] reell für alle x ∈ V . Ist [x, x] > 0 für x 6= 0, dann ist [·, ·] positiv denit und somit ein SP. Gilt lediglich [x, x] ≥ 0 ∀x, dann heiÿt [·, ·] positiv semidenit. Entsprechend heiÿt [·, ·] negativ (semi)denit, wenn − [·, ·] 0 0 0 positiv (semi)denit ist. Liegt keiner dieser Fälle vor, d.h. ∃ x, x ∈ V : [x, x] > 0, [x , x ] < 0, dann nennt man [·, ·] indenit. Wir werden solche Formen im Zusammenhang mit der HauptachSei allgemein eine konjugiert symmetrische Sesquilinearform auf dem sentransformation näher untersuchen. Üb 1 1 R-VR mit SP und x, y ∈ V \{0}. Zeige: h kxk x, kyk yi ∈ [−1, 1]. Damit existiert genau 1 1 3 ein Winkel α ∈ [0, π] derart, dass cos(α) = h kxk x, kyk yi. Zeige: Für V = R ist α der von 3 den Vektoren x und y eingeschlossene (kleine) Winkel. Zeige den Kosinussatz in R , nämlich 2 2 2 a = b + c − 2bc cos(α). Sei V ein Orthogonale Mengen V ein K-VR mit SP. Zwei Vektoren x, y aus V heiÿen orthogonal bzw. orthonormal, wenn hx, yi = 0 bzw. zusätzlich kxk = kyk = 1 gilt. Allgemeiner heiÿt eine Menge M ⊂ V orthogonal bzw. orthonormal, wenn hx, yi = 0 für alle x, y aus M mit x 6= y bzw. wenn ( 0 für x 6= y hx, yi = δxy = 1 für x = y Sei für alle x, y aus M gilt. Ist M schreibt man auch (13.14) M eine Orthonormalbasis aufeinander senkrecht stehen. Für hx, yi = 0 orthonormal und eine Basis, so heiÿt (ONB). Statt orthogonal sein sagt man auch x ⊥ y. Lemma. Sei M ⊂ V \ {0} orthogonal. Dann ist M linear unabhängig. 94 Beweis. M . Gemäÿ (5.14) b) ist ihre lineare Unabhängigkeit zu zeigen. Sei also 0 = i=1 αi xi mit αi ∈ K. Dann folgt 0 = hxj , 0i = P P P hxj , ni=1 αi xi i = ni=1 αi hxj , xi i = ni=1 αi δji kxj k2 = αj kxj k2 . Daraus folgt αj = 0 für jedes j ∈ {1, . . . , n}. Das ist die Behauptung. (13.15) x1 , ..., xn Seien paarweise verschiedene Vektoren aus Pn Basisentwicklungssatz. Sei M ⊂ V eine ONB. Dann gilt für jedes y ∈ V X y= hx, yi x, x∈M wobei nur endlich viele Produkte hx, yi nicht Null sind. M.a.W. die Koordinaten von y bez. der Basis M sind hx, yi, x ∈ M , vgl. (5.21). Beweis. Nach (5.21) ist y = P P x∈M (13.16) αx hx0 , xi = P αx δ x∈M αx x. Hieraus folgt für jedes x0 ∈ M : hx0 , yi = hx0 , = αx0 . x∈M x0 x P αx xi = y0 = y, so folgt x∈M Korollar. In (15) gelten für y, y 0 aus V die Parsevalgleichungen hy 0 , yi = X hy 0 , xi hx, yi, x∈M 2 kyk = X |hx, yi|2 . x∈M Beweis. Nach (15) ist hy 0 , yi = hy 0 , P x∈M hx, yi xi = P x∈M hx, yi hy 0 , xi. Setzt man die zweite Gleichung. Satz von Pythagoras. Sei M ⊂ V eine endliche orthogonale Menge und (13.17) X y := x. x∈M Dann ist kyk2 = P x∈M Beweis. kyk2 = hy, yi = h kxk2 . P P x∈M dass die xi P x0 ∈M x0 i = x1 , . . . , xn P x∈M = P x,x0 ∈M hx, xi δxx0 = hxi , xj i = δij für alle i, j . Das bedeutet, {x1 , . . . , xn } eine orthonormale Menge ist. Beispiel. Die Standardbasis in Kn ist eine ONB bez. des Standard-SP. Die Basis {ey : y ∈ X} (5.20)) ist eine ONB bez. des Standard-SP (s. (3) b)). Prüfe (18) nach. Die Existenz von ONB im Fall endlichdimensionaler (13.19) 0 x0 ∈M hx, x i P orthonormal sind, wenn paarweise verschieden sind (s. (14)) und in K(X) (s. Üb x, kxk2 . Man sagt etwas lax, dass (13.18) x∈M K-VR folgt aus dem Orthonormalisierungsverfahren von Gram und Schmidt. Sei V ein K-VR mit SP und seien x1 , . . . , xp linear unabhängig. Dann existieren orthonormale v1 , . . . , vp derart, dass Span{v1 , . . . , vj } = Span{x1 , . . . , xj } für jedes j ∈ {1, . . . , p}. 95 Beweis. v10 := x1 . Weil x1 linear unabhängig ist, ist x1 6= 0 und kv10 k = kx1 k > 0. Damit 0 0 −1 v . Es ist kv k = 1. lässt sich v1 auf 1 normieren. Setze v1 := kv1 k 1 1 Seien nun orthonormale v1 , . . . , vj mit j ≥ 1 und j ≤ p−1 bereits konstruiert, so dass Span{v1 , . . . , vj } = Span{x1 , . . . , xj }. Setze Setze 0 vj+1 := xj+1 − j X hvl , xj+1 i vl . l=1 Dann ist 0 hvk , vj+1 i = hvk , xj+1 i − {1, . . . , j}. Weiter ist 0 vj+1 6= 0, Voraussetzung. Schlieÿlich ist zu normieren: (13.20) Zusatz hvl , xj+1 ihvk , vl i = hvk , xj+1 i − zu (19). Sind j P hvl , xj+1 i δkl = 0 für xj+1 ∈ Span{v1 , . . . , vj } = Span{x1 , . . . , xj } entgegen der j P 0 0 0 }. Es bleibt vj+1 = vj+1 + hvl , xj+1 i vl ∈ Span{v1 , . . . , vj , vj+1 da sonst xj+1 l=1 w1 , . . . , wp orthonormal mit Span{w1 , . . . , wj } = Span{x1 , . . . , xj } γj ∈ K mit |γj | = 1 und wj = γj vj für j = 1, . . . , p. für dann existieren Weise (20) nach. (13.21) Korollar. Jeder endlichdimensionale K-VR mit SP besitzt eine ONB. Beweis. Wende (19) auf eine Basis des VR an. (13.22) R3 In k ∈ l=1 l=1 0 0 vj+1 := kvj+1 k−1 vj+1 . j = 1, . . . , p, Üb j P Beispiel. mit Standard-SP seien x1 = (1, 1, 1) und x2 = (0, 2, 4) gegeben. Oenbar sind x1 , x2 linear unabhängig. Wende darauf das Orthonormalisierungsverfahren (19) an: v1 := kx1 k−1 (1, 1, 1) = v20 := x2 − hv1 , x2 iv1 = v2 := √1 (1, 1, 1), 3 (0, 2, 4) − √13 (2 + 4) √13 (1, 1, 1) = (0, 2, 4) − 2(1, 1, 1) = (−2, 0, 2) ⇒ √1 (−1, 0, 1). 2 Damit sind Man erhält v1 , v2 orthonormal. Ergänze jetzt aus v1 , v2 , x3 eine ONB mit (19): v30 := x3 − hv1 , x3 iv1 − hv2 , x3 iv2 = (1, 0, 0) − v3 = Üb diese zu einer Basis von √1 √1 (1, 1, 1) − 3 3 − √12 √1 (−1, 0, 1) 2 Sei V ein K-VR mit SP, M ⊂ V x3 = (1, 0, 0). 1 = ( 61 , −2 6 , 6) ⇒ eine abzählbare Erzeugendenmenge. Als Anwendung des V besitzt eine ONB. Orthogonale Projektion M ⊂V eine Menge. Dann heiÿt M ⊥ := {y ∈ V : hx, yi = 0 ∀x ∈ M } das durch √1 (1, −2, 1). 6 Orthonormierungsverfahrens zeige: Sei R3 orthogonale Komplement von M . Für M = ∅ setzt man ∅⊥ := V . 96 (13.23) Lemma. Seien V ein K-VR mit SP und M, N Teilmengen von V . Dann gelten Beweis. a) M⊥ ist ein UVR b) M ∩ M ⊥ ⊂ {0} c) N ⊂ M ⇒ M⊥ ⊂ N⊥ d) M ⊥ = (Span M )⊥ e) Span M ⊂ (M ⊥ )⊥ f) (M ∪ N )⊥ = M ⊥ ∩ N ⊥ ∀ x ∈ M, y, y 0 ∈ M ⊥ , λ ∈ K : hx, y + λ y 0 i = hx, yi + λ hx, y 0 i = 0 + 0 = 0 ⇒ y + λ y 0 ∈ x ∈ M ∩ M ⊥ ⇒ hx, xi = 0 ⇒ x = 0. c) ∀ x ∈ N, y ∈ M ⊥ : hx, yi = 0 ⇒ y ∈ N ⊥ . 0 ⊥ 0 0 d) "⊃"gilt nach c). ∀x, x ∈ M, y ∈ M , λ ∈ K : hx + λx , yi = hx, yi + λ hx , yi = 0 + 0 = 0 ⇒ y ∈ (Span M )⊥ . e) Nach a) genügt zu zeigen M ⊂ (M ⊥ )⊥ . Dies jedoch folgt direkt aus der ⊥ ⊥ ∩ N ⊥ , x ∈ M, y ∈ N : hz, xi = 0, hz, yi = Denition von M . f ) "⊂" gilt nach c). ∀ z ∈ M ⊥ 0 ⇒ z ∈ (M ∪ N ) . a) M ⊥ . b) Üb Zeige: (13.24) M ⊂ P(V ) : ( S ⊥ M ∈M M ) = T M ∈M M ⊥. Lemma und Dention. Seien W1 , . . . , Wm UVR eines KVR V mit SP, die paarweise orthogonal sind, d.h. hx, x0 i = 0 falls x ∈ Wl , x0 ∈ Wk Dann ist die Summe W := W1 + · · · + Wm direkt gemäÿ mit l 6= k. (11.25) und man schreibt dafür ⊥ ... ⊥ Wm . W = W1 Beweis. Wende (14) an. (13.25) Satz und Dention. Sei W ein UVR von V mit dim W < ∞. Dann gibt es zu jedem x ∈ V genau ein PW (x) ∈ W derart, dass x − PW (x) ∈ W ⊥ . Es gilt also ⊥ W ⊥. V =W PW (x) die orthogonale Projektion von x auf W . Die dadurch denierte Abbildung PW : V → V ist linear und heiÿt der orthogonale Projektor von V auf W . Oenbar gilt PW ◦ PW = PW . Man nennt Beweis. Nach (23) b) ist W ∩ W ⊥ = {0}. Zeige jetzt W + W ⊥ = V . Sei w1 , . . . , wm W. x∈V Für (13.26) eine ONB von deniere PW (x) := m X hwk , xi wk . k=1 W (x). Dafür gilt hwl , yi = hwl , xi − hwl , PW (x)i = PmPW (x) ∈ W . Setze y := x − PP m hw , xihw , w i = hw , xi − k l k l k=1 k=1 hwk , xi δkl = hwl , xi − hwl , xi = 0 für l = 1, . . . , m. ⊥ Hieraus folgt hw, yi = 0 für alle w ∈ W nach (23)d). Also ist y ∈ W . Die Linearität von PW ersieht man aus (26). Oenbar ist hwl , xi − Üb Zeige, dass für den orthogonalen Projektor PW gilt: kPW (x)k2 = hx, PW (x)i = hPW (x), xi. dim W ⊥ < ∞, d.h. dim V < ∞, dann ist oenbar PW ⊥ = idV −PW . allgemein im Fall dim W < ∞ PW ⊥ := idV −PW . Ist auch Bild(PW ) = W = Kern(PW ⊥ ), Kern(PW ) = W ⊥ = Bild(PW ⊥ ), PW ⊥ ◦ PW ⊥ = PW ⊥ , ⊥ = dim V (auch im Fall dim V = ∞). leicht überprüft. Auÿerdem gilt dim W + dim W Dann ist man Daher setzen wir 97 was (13.27) Korollar. Ist dim W < ∞ und W ein UVR von V , dann gilt (W ⊥ )⊥ = W . Beweis. W ⊂ (W ⊥ )⊥ (W ⊥ )⊥ folgt daraus somit (13.28) PW (z) = z , d.h. ⊥ W ⊥ = V nach (25). Da W ⊥ ⊥ W z ∈ (W ⊥ )⊥ gilt daher PW ⊥ (z) = 0 und gilt immer, s. (23) e). Auÿerdem ist ⊥ (W ⊥ )⊥ = W ⊥ V nach (24). Für z ∈ W. Satz. Bestapproximation. Sei W ein UVR von V mit dim W < ∞. Dann gilt kx − PW (x)k ≤ kx − wk ∀x ∈ V, w ∈ W. D.h. von allen w ∈ W hat PW (x) den kürzesten Abstand zu x. Beweis. x − w = (x − PW (x)) + (PW (x) − w) = PW ⊥ (x) + w0 kx − wk2 (x)k2 = kPW ⊥ kx − PW (x)k2 , wie Üb Sei mit w0 := (PW (x) − w) ∈ W ⇒ kx − wk2 ≥ kPW ⊥ (x)k2 = + kw0 k2 nach dem Satz von Pythagoras. Also ist behauptet. V ein KVR und M ⊂ V eine Basis von V . Zeige: Es gibt es genau M eine ONB ist. Tipp: Betrachte zuerst den Fall dim V < ∞. dass 98 ein SP auf V derart, 14 Endomorphismen in Vetorräumen mit Skalarprodukt Es werden Endomorphismen untersucht, die besondere Eigenschaften bezüglich des Skalarprodukts besitzen. Sie treten in Anwendungen in natürlicher Weise auf. Symmetrietransformationen werden durch unitäre (spezieller: orthogonale) Endomorphismen dargestellt. Selbstadjungierte (spezieller: symmetrische) Endomorphismen hingegen beschreiben Eigenschaften eines Systems. Entscheidend für die folgenden Untersuchungen ist das folgende Konzept. Der adjungierte Homomorphismus (14.1) Satz und Denition. Seien V und W endlichdimensionale KVR mit SP. Dann gibt es zu f ∈ Hom(V, W ) genau ein f ∗ ∈ Hom(W, V ) derart, dass hw, f (v)i = hf ∗ (w), vi ∀v ∈ V, w ∈ W. Bemerke, dass links das SP in der zu W und rechts da SP in f adjungierte Homomorphismus. V steht. Der Homomorphismus f∗ heiÿt Beweis. Zur Eindeutigkeit seien w ∈ W hz2 , vi für alle weshalb v ∈ V. Daraus folgt und dazu zj ∈ V, i = 1, 2 derart, dass hw, f (v)i = hz1 , vi = hz1 − z2 , vi = 0. Für v = z1 − z2 folgt daher kz1 − z2 k2 = 0, z1 = z2 . Zur Existenz wähle ONB A bildungsmatrix von f. Sei v1 , . . . , vn von V f ∗ : W → V der w1 , . . . , wm und von W und bestimme dazu die AbA∗ als Abbildungsmatrix bez. Homomorphismus mit obiger ONB, d.h. n X ∗ f (wk ) = aTlk vl = Hierfür rechnet man nach: n P akl vl für k = 1, . . . , m. l=1 l=1 hf ∗ (wk ), vl i = h n X m P hwk , f (vl )i = hwk , akj vj , vl i = n P j=1 n P Allgemein für m P n P w = ζk wk und ajl hwk , wj i = akj δjl = akl . m P ajl δkj = akl sowie j=1 Also gilt j=1 hwk , f (vl )i = hf ∗ (wk ), vl i m P m P j=1 akj hvj , vl i = j=1 j=1 ajl wj i = v = k=1 n P ηl vl für k = 1, . . . , m, l = 1, . . . , n. folgt daraus l=1 hw, f (v)i = m P n P ζ k ηl hwk , f (vl )i = k=1 l=1 ζ k ηl hf ∗ (wk ), vl i = hf ∗ (w), vi. k=1 l=1 (14.2) Bemerkungen. a) Der Beweis von (1) zeigt: hw, f (v)i = hz, vi ∀v ∈ V , dann ist z = ∗ nearität von f in (1) automatisch folgt. Ist w ∈ W und dazu z ∈ V derart, dass f ∗ (w). Das bedeutet insbesondere, dass die Li- Ist A die Abbildungsmatrix von f bez. ONB, dann ist A∗ die Abbildungsmatrix von f ∗ bez. der gleichen Basen. b) Der Beweis von (1) besagt auch: Für alle ξ ∈ Km×1 , η ∈ Kn×1 , A ∈ Km×n gilt bez. der Standardskalarprodukte hξ, A ηi = hA∗ ξ, ηi. Das bedeutet (LA )∗ = LA∗ (vgl. b) ). c) Erinnere an (13.8) letzter Punkt: 99 (14.3) Lemma. Seien V und W endlichdimensionale KVR mit SP. Dann gelten für f, g ∈ Hom(V, W ) (a) (f ∗ )∗ = f (b) (f + λg)∗ = f ∗ + λg ∗ , λ∈K und für f ∈ End(V ), M UVR von V Beweis. (c) det f ∗ = det f (d) (idV )∗ = idV (e) λ Eigenwert von (f ) M f − (bzw . f ∗ −)invariant ⇒ M ⊥ f ∗ −(bzw . f −)invariant. f ⇔ λ Eigenwert von f∗ ∀x, y ∈ V : hy, f ∗ (x)i = hf ∗ (x), yi = hx, f (y)i = hf (y), xi. Daher ist (f ∗ )∗ = f nach ∗ (1). (c) Sei A eine Abbildungsmatrix von f bez. ONB. Dann ist A die Abbildungsmatrix von T f ∗ bez. der gleichen Basen, s. (2)b). Nun ist det f ∗ = det A∗ (nach (11.24)) = det A = det A (nach ⊥ gilt: 0 = hy, f (x)i (weil f (x) ∈ M ) (10.10)) = det A = det f (nach (11.24)). (f ) ∀x ∈ M, y ∈ M ∗ ∗ ⊥ ∗∗ = hf (y), xi ⇒ f (y) ∈ M . Weil f = f folgt hieraus auch der zweite Teil der Behauptung. (b), (d) und (e) bleiben als Übung. Üb (a) Weise (b), (d) und (e) aus (3) nach. Normale Endomorphismen (14.4) Denition. wenn Sei V ein KVR mit SP endlicher Dimension. Dann heiÿt f ∈ End(V ) normal, f ∗ ◦ f = f ◦ f ∗ . Entsprechend heiÿt eine Matrix A ∈ Kn×n normal, wenn A∗ A = A A∗ gilt. (14.5) Lemma. Die Darstellungsmatrix eines Endomorphismus bez. einer ONB ist genau dann normal, wenn der Endomorphimus normal ist. Beweis. Allgemein gelten LA = ϕ ◦ f ◦ ϕ−1 (s. (7.8)(7.10)) und LB ◦ LA = LBA (s. MatrixmultiLA∗ A = LA∗ ◦ LA = ϕ ◦ f ∗ ◦ ϕ−1 ◦ ϕ ◦ f ◦ ϕ−1 = ϕ ◦ f ∗ ◦ f ◦ ϕ−1 = = . . . = LAA∗ . Hieraus folgt A∗ A = A A∗ . Die Umkehrung beweist man analog. plikation (7.17) ). Daher ist ϕ ◦ f ◦ f ∗ ◦ ϕ−1 (14.6) Lemma. Seien f ∈ End(V ) normal und W ein UVR von V . Dann gelten (a) Kern(f ) = Kern(f ∗ ) (b) ∀x ∈ V, λ ∈ K : (c) x, y ∈ V Eigenvektoren zu verschiedenen Eigenwerten ⇒ x ⊥ y. f (x) = λ x ⇔ f ∗ (x) = λ x. Beweis. (a) Sei x ∈ Kern(f ). Dann gilt: f (x) = 0 ⇒ 0 = kf (x)k2 = hf (x), f (x)i = hf ∗ (f (x)), xi = hf (f ∗ (x)), xi = hf ∗ (x), f ∗ (x)i = kf ∗ (x)k2 ⇒ x ∈ Kern(f ∗ ). Ebenso folgt Kern(f ∗ ) ⊂ Kern(f ). ∗ ∗ (b) ⇒: Es folgt (f − λ idV )(x) = 0, d.h. x ∈ Kern(f − idV ). Da (f − λ idV ) = f − λ idV nach ∗ ∗ (3)(b),(d), ist f − λ idV normal. Somit folgt x ∈ Kern(f − λ idV ) nach (a). Also ist f (x) = λx. ⇐ folgt analog. ∗ (c) Sei f (x) = λ x, f (y) = µ y mit λ 6= µ. Dann gilt: λ hx, yi = hλ x, yi = hf (x), yi (wegen (b)) = hx, f (y)i = hx, µ yi = µ hx, yi, woraus die Behauptung folgt. 100 Üb V ein K-VR mit SP endlicher Dimension und f ∈ End(V ) normal. Weiter sei W ein UVR V , der von Eigenvektoren von f erzeugt wird. Zeige: f (W ) ⊂ W, f (W ⊥ ) ⊂ W ⊥ , f ∗ (W ) ⊂ W, f ∗ (W ⊥ ) ⊂ W ⊥ . Sei von Üb Sei V ein CVR mit SP endlicher Dimension. Seien paarweise verschiedenen Eigenwerte von f. f ∈ End(V ) normal und λ 1 , . . . λs die Zeige: ⊥ ... ⊥ Ef (λs ). V = Ef (λ1 ) (14.7) Hauptsatz. Sei V ein C-VR mit SP und dim V =: n ∈ N. Ist f ∈ End(V ) normal, dann gibt es eine ONB von Eigenvektoren von f . Es gilt auch die Umkehrung. Beweis. χf in Linearfaktoren v1 . O.E. sei kv1 k = 1. Weil Eigenvektor zerfällt (s. (12.11)) hat f einen Eigenwert λ1 und dazu einen v1 , . . . , vj mit j ∈ {1, . . . , n − 1} für f gefunden. Setze f (W ) ⊂ W und f ∗ (W ) ⊂ W . Hieraus folgt bereits alles Seien bereits orthonormale Eigenvektoren W := Span{v1 , . . . , vj }. Aus (6)(b) folgt Übrige: f (W ⊥ ) ⊂ W ⊥ , f ∗ (W ⊥ ) ⊂ W ⊥ nach (3)(f ). Damit ist g : W ⊥ → W ⊥ , g(x) := f (x), ein Endomorphismus von W ⊥ mit g ∗ (x) = f ∗ (x), denn für x, y ∈ W ⊥ gilt hx, g(y)i = hx, f (y)i = hf ∗ (x), yi mit f ∗ (x) ∈ W ⊥ . Schlieÿlich ist g normal: g ∗ (g(x)) = g ∗ (f (x)) = f ∗ (f (x)) = f ∗ (f ∗ (x)) = f (g ∗ (x)) = g(g ∗ (x)). ⊥ = n − j ≥ 1, ist W ⊥ 6= {0}. Damit gibt es, wie eingangs für f argumentiert, einen Weil dim W ⊥ von g mit kv Eigenvektor vj+1 ∈ W j+1 k = 1. Dieser ist auch Eigenvektor von f mit vj+1 ⊥ W . Zur Umkehrung sei v1 , . . . , vn eine ONB von V und seien λ1 , . . . , λn aus C mit f (vl ) = λl vl . Dann folgt hvk , f (vl )i = hvk , λl vl i = δkl λl = δkl λk = λk hvk , vl i = hλk vk , vl i. Daher gilt allgemein Pn Pn Pn für x = l=1 αl hλk vk , vl i = hλk vk , xi. l=1 αl hvk , f (vl )i = l=1 αl vl ∈ V , dass hvk , f (x)i = ∗ ∗ Nach (2)a) impliziert dies f (vk ) = λk vk für k = 1, . . . , n. Damit rechnet man nach: f ◦ f (vl ) = ∗ ∗ ∗ ∗ ∗ f (λl vl ) = λl f (vl ) = λl λl vl = . . . = f ◦ f (vl ) für alle l. Hieraus folgt f ◦ f = f ◦ f . Zunächst ist auch Insbesondere ist jeder normale Endomorphimus eines endlichdimensionalen C-VR diagonalisier- bar. Unitäre Automorphismen (14.8) ONBWechsel, unitäre Matrix. Sei V ein KVR mit SP und dim V =: n ∈ N. Seien v1 , . . . , vn und v10 , . . . , vn0 zwei ONB von V . Dann ist die invertierbare Matrix S , die gemäÿ (7.26) vj0 = n X slj vl , j = 1, . . . , n l=1 den Basiswechsel beschreibt, unitär, d.h. sie erfüllt S −1 = S ∗ . Ist umgekehrt v1 , . . . , vn eine ONB von V und S ∈ Kn×n unitär, dann deniert ONB v10 , . . . , vn0 . (7.26) eine Beweis. Zunächst folgt aus (7.26): hvk0 , vj0 i n n n X n n X n n n X X X X X X sik slj hvi , vl i = sik slj δil = sik sij = sTki sij . =h sik vi , slj vl i = i=1 l=1 i=1 l=1 i=1 l=1 101 i=1 i=1 vj0 , . . . , vn0 Wenn nun S −1 = S ∗ ist. Ist umgekehrt Wie bemerkt, ist K=R ist ∗ S =S T δkj = hvk0 , vj0 i und daher E n = S ∗ S , was äquvalent zu ∗ 0 0 dann ist S S = E n und somit hvk , vj i = δkj . eine ONB ist, dann ist S −1 = S ∗ S unitär, äquivalent zu und man nennt spezieller S ∗ S = E n und damit auch zu S S ∗ = E n . S ∈ GL(n, R) mit S −1 = S T orthogonal. Im Fall U(n) := {S ∈ GL(n, C) : S −1 = S ∗ }, O(n) := {S ∈ GL(n, R) : S −1 = S T } sind Gruppen bez. der Matrixmultplikation, d.h. also Untergruppen der allgemeinen linearen Gruppe C bzw. R. Daher heiÿt U(n) O(n) = U(n) ∩ Rn×n . über ist bzw. O(n) Üb Weise die Gruppeneigenschaften von Üb Sei S ∈ Kn×n die unitäre bzw. U(n) ⊂ GL(n, C) orthogonale Matrixgruppe. und O(n) ⊂ GL(n, R) Es nach. | det S| = 1. unitär. Zeige: Es folgt eine Kennzeichnung unitärer Matrizen. (14.9) Lemma. Sei S ∈ Kn×n . Dann sind äquvalent (i) (ii) (iii) Beweis. S ist unitär. Die Spaltenvektoren von S bilden eine ONB in Kn×1 bez. des StandardSP. Die Zeilenvektoren von S bilden eine ONB in K1×n bez. des StandardSP. Es ist S = (s1 , . . . , sn ), wobei wie üblich sk ∈ Kn×1 k -ten den Spaltenvektor von S bezeichnet. Damit ist ∗ s1 .. ∗ S S = . s1 . . . sn . s∗n (k, l)Element ⇔ (iii). Das (i) ⇔ von S∗S ist s∗k sl = hsk , sl i. Hieraus folgt sofort (i) Weise (i) Üb Gebe Beispiele für unitäre bzw. orthogonale Dention. wenn f (ii). Ähnlich einfach folgt Üb (14.10) ⇔ (iii) von (9) nach. Seien V und W KVR bijektiv, linear und (n × n)Matrizen mit SP. Dann heiÿt für n = 1, 2, 3 f : V → W SP-erhaltend ist. Letzteres bedeutet ein an. Isomorphismus, hf (x), f (y)i = hx, yi ∀x, y ∈ V. Ist Üb V = W, so heiÿt f auch unitär. f ein Isomorphismus W : hy, f (x)i = hf −1 (y), xi. Zeige: Ist von KVR mit SP, so ist es auch 102 f −1 und es gilt ∀x ∈ V, y ∈ (14.11) Lemma. Seien V, W K-VR mit SP und f ∈ Hom(V, W ). Ist dim V = dim W < ∞, dann gilt: f SP-erhaltend ⇔ f bijektiv und f −1 = f ∗ . Beweis. ⇒: ∀x, y ∈ V hx, yi = hf (x), f (y)i = hf ∗ (f (x)), yi. Mit (13.4) folgt f ∗ (f (x)) = x ∀x ∈ V und somit f ∗ ◦ f = idV . Aus (2.24), (6.17) folgt, dass f bijektiv ist und −1 = f ∗ . ⇐: hf (x), f (y)i = hf ∗ (f (x)), yi = hf −1 (f (x)), yi = hx, yi ∀x, y ∈ V . somit f gilt nach (1): Unitäre Endomorphismen auf endlichdimensionalen VR sind oensichtlich normal. Ensprechend sind unitäre Matrizen normal. Im Fall K = R sagt man statt unitär spezieller orthogonal. Wie in (5) überzeugt man sich, dass die Abbildungsmatrix eines Endomorphismus bez. einer ONB genau dann unitär ist, wenn der Endomorphimus unitär ist. Üb Üb Seien V, W K-VR mit SP und f ∈ Hom(V, W ). Dann heiÿt f isometrisch, kxk ∀x ∈ V . Zeige: Ist f isometrisch, dann ist f injektiv. wenn kf (x)k = V, W K-VR mit SP und f ∈ Hom(V, W ). Zeige: f ist SP-erhaltend genau dann, wenn f hf (x), f (y)i die Polaridentität an. Achte auf die Fälle K = C K = R. Seien isometrisch ist. Tipp: Wende auf und Üb Sei V K-VR Üb Sei V ein mit SP, K-VR natenabbildung. Üb Sei dim V < ∞ und f ∈ End(V ). Zeige: f unitär ⇔f v1 , . . . , vn eine ONB in V und ϕ : V → Kn×1 n×1 mit dem Standard-SP. Zeige: ϕ ist ein Versehe K mit SP, isometrisch. die zugehörige KoordiIsomorphismus. V K-VR mit SP, dim V < ∞ und f ∈ End(V ). Weiter sei v1 , . . . , vn eine f ist unitär genau dann, wenn f (v1 ), . . . , f (vn ) eine ONB von V ist. ONB von V. Zeige: (14.12) Lemma. Seien V ein C-VR mit SP endlicher Dimension und f ∈ End(V ). Dann sind äqui- valent: (a) f ist unitär. (b) f ist normal und alle Eigenwerte sind vom Betrag 1. Beweis. Zu (a) V ein RVR oder −1. ⇒ (b) sei λ ∈ C und x ∈ V , x 6= 0, mit f (x) = λx. Dann gilt: kxk2 = hx, xi = hf (x), f (x)i = hλ x, λ xi = λ λ̄ hx, xi = |λ|2 kxk2 ⇒ |λ| = 1. Zu (b) ⇒ (a) betrachte nach (7) eine ONB v1 , . . . , vn von Eigenvektoren zu den Eigenwerten λ1 , . . . λn vom Betrag 1. DP E Pn Pn Pn n Für x = α v , y = β v gilt damit hf (x), f (y)i = α λ v , β λ v = j j j l l l l l l l l=1 l=1 l=1 j=1 Pn Pn Pn Pn l=1 j=1 ᾱl λ̄l βj λj hvl , vj i = l=1 j=1 ᾱl λ̄l βj λj δlj . Letzteres ist gleich hx, yi, weil λ̄l λl = 1. Also ist f SP-erhaltend. Ist (14.13) mit SP und Das zeigt man wie f ∈ End(V ) orthogonal, in (a)⇒(b) von (12). dann ist jeder Eigenwert von f entweder +1 Diagonalisierbarkeit normaler Matrizen. Sei A ∈ Cn×n normal. Dann existiert eine unitäre Matrix S derart, dass S −1 A S = diag(λ1 , . . . , λn ), wobei λ1 , . . . , λn die Eigenwerte von A sind. 103 Beweis. Da LA normal ist, existiert nach dem Hauptsatz (7) eine ONB von Eigenvektoren. Der Basiswechsel von der Standardbasis zu dieser Basis wird nach (8) durch eine unitäre Matrix vermittelt. Die Abbildungsmatrix S −1 A S = diag(λ1 , . . . , λn ) A (von LA ) S geht dabei gemäÿ (11.13) in die Diagonalmatrix über. Die Umkehrung in (13) gilt auch: (14.14) Lemma. Ist A ∈ Cn×n , S ∈ U(n) und ist S −1 A S = diag(λ1 , . . . , λn ) mit gewissen λ1 , . . . , λn aus C, dann ist A normal und λ1 , , . . . , λn sind die Eigenwerte von A. Die Spaltenvektoren s1 , . . . , sn von S sind dazu eine ONB aus Eigenvektoren. Beweis. Mit D := diag(λ1 , . . . , λn ) ist A = S D S −1 und A∗ = (S −1 )∗ D∗ S ∗ = S D̄ S −1 , weil S −1 = S∗ und D∗ = D̄. Damit folgt A∗ A = S D̄ S −1 S D S −1 = S D̄ D S −1 = S D D̄ S −1 = · · · = A A∗ . Der Rest der Behauptung folgt aus (11.13) und (9). Üb V ein CVR mit SP endlicher Dimension und f ∈ End(V ) normal. Weiter sei W ein f invarinater UVR. Zeige: W ⊥ ist f invariant. Pm P j n×n sei p(A) := j Anleitung. Für p ∈ K[X], p = m j=1 αj A . Sei j=1 αj X und A ∈ K n×n D∈C eine Diagonalmatrix. Zeige: Dann gibt es ein Interpolationspolynom p ∈ C[X] vom ∗ Grad ≤ n derart, dass p(D) = D . Verallgemeinere obiges Ergebnis von Diagonalmatrizen Sei auf normale Matrizen mit Hilfe von (13). Wende (3)(f ) an. Selbstadjungierte Endomorphismen KVR mit SP und dim V < ∞. Dann heiÿt f ∈ End(V ) selbstadjungiert, wenn f = f ∗ , d.h. wenn hx, f (y)i = hf (x), yi für alle x, y aus V . Oenbar ist die Abbildungsmatrix eines EndomorSei V ein phismus bzgl. einer ONB genau dann selbstadjungiert, wenn der Endomorphismus selbstadjungiert ist (vgl. (5)). Ein Beispiel im Fall PW hPW ⊥ (y), PW (x)i = 0 gonale Projektor (14.15) dim V < ∞ für einen selbstadjungierten Endomorphismus ist der ortho- x, y aus V gilt: hy, PW (x)i = hPW (y), PW (x)i hPW (y), xi = hPW (y), PW (x)i weil hPW (y), PW ⊥ (x)i = 0. aus (13.25), denn für und ebenso weil Lemma. Sei V ein CVR mit SP endlicher Dimension und f ∈ End(V ). Dann sind äquivalent: (a) f ist selbstadjungiert. (b) f ist normal und alle Eigenwerte sind reell. Beweis. Zu (a) ⇒ (b) sei λ ∈ C und x ∈ V , x 6= 0 mit f (x) = λ x. Dann gilt: λ hx, xi = hx, λxi = hx, f (x)i = hf ∗ (x), xi = hf (x), xi = hλ x, xi = λ̄ hx, xi ⇒ λ = λ̄. Zu (b) ⇒ (a) betrachte nach (7) eine ONB v1 , . . . , vn von Eigenvektoren zu reellen Eigenwerten λ1 , . . . , λn . Mit Pn P P P der gewohnten Notation folgt hx, f (y)i = h αl vl , nj=1 βj λj vj i = nl=1 nj=1 ᾱl βj λj δlj = l=1 Pn Pn ∗ l=1 j=1 ᾱl βj hλl vl , vj i = . . . = hf (x), yi, weil λl = λ̄l . Also ist f (x) = f (x) für alle x ∈ V . Üb V ein KVR mit SP endlicher Dimension W ⊂ V ein UVR. Zeige: Ist W f invariant, Sei und f ∈ End(V ) selbstadjungiert. Weiter sei W ⊥ f invariant. (Dies ist ein dann ist auch leichter zu beweisender Spezialfall der vorangegangenen Übung.) Üb Gebe Beispiele für normale Endomorphismen an, die weder unitär noch selbstadjungiert sind. 104 Diagonalisierbarkeit über R Sieht man den Beweis des Hauptsatzes (7) durch, erkennt man sofort die Gültigkeit von (14.16) Zusatz. Sei V ein RVR mit SP und dim V ∈ N. Ist f ∈ End (V ) normal und ist χf das Produkt reeller Linearfaktoren, dann gibt es eine ONB von Eigenvektoren von f . Es gilt auch die Umkehrung. Daher gilt wegen (15) und aufgrund von (13), (14) (14.17) Folgerung. a) b) A ∈ Rn×n ist genau dann symmetrisch, wenn S ∈ O(n) existiert derart, dass S −1 AS diagonal ist. Damit folgt auch: Sei V ein RVR mit SP mit dim V ∈ N. Ist f ∈ End (V ) selbstadjungiert (hier auch symmetrisch genannt), dann gibt es eine ONB von Eigenvektoren von f . Es gilt auch die Umkehrung. Das charakteristische Polynom orthogonaler Matrizen zerfällt i. allg. nicht in reelle Linearfaktoren. Fundamental ist das Beispiel (14.18) Dϕ für ϕ∈ / πZ aus (11.27), wie wir gleich sehen werden. Lemma. Seien V ein RVR mit dim V ∈ N und f ∈ End (V ). Dann gibt es einen f invarianten UVR W von V mit dim W ∈ {1, 2}. Beweis. A ∈ Rn×n eine Abbildungsmatrix für f . Es genügt die Behauptung für LA statt f zu n×n auf. Dann existiert ein Eigenwert λ ∈ C von A. Sei z ∈ Cn×1 \ {0} mit zeigen. Fasse A ∈ C 1 A z = λ z . Hieraus folgt A z = A z = λ z = λ z . Setze x := 21 (z + z) ∈ Rn×1 und y := 2i (z − z) ∈ n×1 n×1 R . Man rechnet leicht nach, dass W := Span {x, y} ⊂ R die Behauptung erfüllt. Üb Sei Rechne nach, dass W in Beweis von (18) erfüllt: W 6= {0}, LA (W ) ⊂ W. Orthogonale Endomorphismen lassen sich i. allg. nicht diagonalisieren (s. o.), aber es gilt immerhin (14.19) Satz. Sei V ein RVR mit SP und dim V =: n ∈ N. Ist f ∈ End (V ) orthogonal, dann gibt es eine ONB von V , wofür die Abbildungsmatrix T von f die Blockdiagonalgestalt E n1 −E n2 D1 T = .. . Dp hat, wobei Dj := Dϕj , ϕj ∈ / πZ (s. Beweis. (11.27)) für j = 1, . . . , p. T = ±E 1 , weil f (x0 ) = λ x0 für V = R x0 mit |λ| = 1. Nach (18) existiert UVR W mit dim W ∈ {1, 2} und f (W ) ⊂ W . Weil f isometrisch ist, ist f injektiv und damit bijektiv. Daher gilt sogar f (W ) = W . Daraus −1 (W ) = W und somit f ∗ (W ) = W . Nach (3)(f ) folgt f (W ⊥ ) ⊂ W ⊥ und schlieÿlich folgt f ⊥ f (W ) = W ⊥ . Der Beweis erfolgt durch Induktion nach n. Für n=1 ist Nun läÿt sich die Induktionsvoraussetzung anwenden. Danach gibt es eine Abbildungsmatrix von f von der Form T = T1 T2 , T 2 die behauptete dim W = 1 ist T 1 = ±E1 . wofür Gestalt hat und T1 eine Abbildungsmatrix von Der Rest des Beweises folgt sofort aus (20). 105 f auf W ist. Im Fall (14.20) Die Matrixgruppe O(2). Für T ∈ O(2) gilt: Es gibt ϕ ∈ R derart, dass entweder T = Dϕ oder T = D− ϕ , wobei cos ϕ − sin ϕ Dϕ := , sin ϕ cos ϕ D− ϕ := cos ϕ sin ϕ . sin ϕ − cos ϕ −1 − Zu D− ϕ existiert S ∈ O(2) mit S D ϕ S = diag(1, −1). α β T 2 Beweis. Sei T = . Da 1 = det E 2 = det (T T ) = ( det T ) ist det T = ±1. Wegen γ δ δ −γ α β α β −1 T 1 , s. (10.23). Das führt auf die beiden Fälle T = T = (T ) ist =∆ −β α γ δ −β α α β 2 2 und T = mit α + β = 1, die in der angegebenen Weise parametrisiert werden. β −α − 2 2 Das charakteristische Polynom von D ϕ lautet (cos ϕ − X)(− cos ϕ − X) − sin ϕ = X − 1 = 2×1 ⊥ E(−1). (1 − X)(−1 − X). Folglich ist R = E(1) Üb Deute Üb Sei Dϕ und D− ϕ geometrisch. Wie hängen Dϕ und D− ϕ zusammen? T ∈ O(n). Zeige: Dann gibt es S ∈ O(n) derart, dass S −1 T S = diag(E n1 , −E n2 , D1 , . . . , Dp ), vgl. (19). Hauptachsentransformation V ein KVR mit dim V =: n ∈ N. Darauf sei eine Sesquilinearform [, ] : V × V → K erklärt, d.h. [, ] ist linear im zweiten und konjugiert linear im ersten Argument. Wähle eine indizierte Basis v1 , . . . , vn in V . Für x, y aus V seien ξ , η die zugehörigen Koordinatenvektoren aus Kn×1 . Dann Sei folgt " [x, y] = n X ξl vl , l=1 n X # ηk vk = n X n X ξ l ηk [vl , vk ] = ξ ∗ A η mit A := ([vl , vk ])l,k=1,...,n . l=1 k=1 k=1 D.h. es gilt (14.21) [x, y] = ξ ∗ A η = hξ, A ηi. A = ([vl , vk ])k,l die darstellende Matrix der Sesquilinearform [, ] bez. der indibei einem v1 , . . . , vn (vgl. (13.10)). Wie transformiert sich die darstellende Pn MatrixPA n 0 0 0 0 Wechsel zu einer neuen Basis v1 , . . . , vn ? Mit S aus (7.26) folgt [vl , vk ] = [ i=1 sil vi , j=1 sjk vj ] = P n Pn s s [v , v ] , was bedeutet i j il jk i=1 j=1 Man nennt zierten Basis (14.22) A0 = S ∗ A S. Bemerke, dass sich A als darstellende Matrix einer Sesquilinearform nicht in der gewohnten Weise mittels Ähnlichkeit (7.37) transformiert. Üb Kn×n betrachte die folgende Relation: A ∼ B , B = S ∗ A S . Zeige: ∼ ist eine Äquivalenzrelation. Auf Nach (13.11) ist [, ] wenn konjugiert symmetrisch genau dann, wenn dann ist (13) anwendbar. Da ∗ S =S −1 für S ∈ U (n), 106 S ∈ GL(n, K) A existiert derart, dass selbstadjungiert ist. Gilt letzteres, folgt aus (22) mit (8) die (14.23) Hauptachsentransformation. Sei V ein konjugiert symmetrische Sesquilinearform und λ1 , . . . , λ n [x, y] = aus n X R KVR mit SP und dim V =: n ∈ N und sei [, ] eine auf V . Dann existieren eine ONB v1 , . . . , vn von V derart, dass λl ξ l ηl l=1 für x, y ∈ V und ξ, η λ1 , . . . , λn die [, ] sind. Es ist [, ] genau die zugehörigen Koordinatenvektoren. Es folgt, dass Eigenwerte einer (jeden) selbstadjungierten darstellenden Matrix von dann positiv denit (d.h. ein SP) bzw. positiv semidenit, wenn alle Eigenwerte positiv bzw. nichtnegativ sind. Es ist [, ] genau dann indenit, wenn es einen positiven und einen negativen Eigenwert gibt. Üb Es gelten die Voraussetzungen von (23). Zeige: Es gibt eine orthogonale Basis V und p, r ∈ {0, . . . , n} [x, y] = p X ξ l ηl − l=1 für alle Beachte, dass ist. x, y ∈ V S∗A S mit p≤r r X von ξ l ηl l=p+1 mit Koordinatenvektoren mit A ∈ Kn×n und Der Trägheitssatz von Sylvester genau dann ṽ1 , . . . , ṽn derart, dass ξ, η aus S ∈ GL(n, K) Kn×1 . genau dann selbstadjungiert ist, wenn 0 besagt: Seien A, A ∈ S ∈ GL(n, K) mit A0 = S ∗ A S , wenn Rang (A0 ) = Rang (A) sowie A und A positive Eigenwerte besitzen. 107 A es Kn×n selbstadjungiert. Es existiert 0 gleich viele