Lineare Algebra für Physiker MA 9201 Domenico P.L. Castrigiano ∗ † Vorlesungsskript WS 2008/09 Zentrum Mathematik TU München † ∗ Einleitung Die lineare Algebra hat sich aus der analytischen Geometrie und der Theorie linearer Gleichungssysteme entwickelt. Inzwischen ist sie ein Grundbestandteil der Mathematik und ihre Anwendungen reichen in alle Bereiche der Naturwissenschaften hinein. Für die Physik ist die lineare Algebra ein selbstverständliches Werkzeug zur Mathematisierung der Theorie. Die Linearität ist oftmals eine grundlegende Eigenschaft der Naturgesetze, z.B. sind Teilchen und Feldgleichungen linear oder der Zustandsraum eines quantenmechanischen Systems ist ein Vektorraum. Wo nichtlineare Zusammenhänge bestehen, ist die Linearisierung in vielen Fällen der erste Schritt zur Behandlung des Problems. Viele numerische Verfahren beruhen auf linearer Approximation. Schlieÿlich ist die lineare Optimierung in weiten Teilen eine Anwendung der linearen Algebra. Es gibt eine Vielzahl einführender Bücher zur linearen Algebra. Unterschiede bestehen vornehmlich in einem mehr oder weniger abstrakten Zugang. Wir wählen einen axiomatischen Aufbau, wenden uns aber sehr schnell den Vektorräumen zu. Weil es keine besondere Mühe bereitet und die Sicht auf das Wesentliche erleichtert, werden die linearen Strukturen über einem allgemeinen Körper betrachtet. Erst wenn das Skalarprodukt behandelt wird, beschränken wir uns auf die reellen und komplexen Zahlen. Im Mittelpunkt der Untersuchungen steht der Begri der linearen Abbildung. Wie ein Blick auf das Inhaltsverzeichnis zeigt, wird eine Auswahl aus dem üblichen Stokanon einer Vorlesung über Lineare Algebra 1 und 2 getroen. Sie ist bestimmt von den Bedürfnissen eines Physikstudiums. Bei der Behandlung der Stoes ist es uns wichtig, die allgemeinen Strukturen herauszustellen. Wesentlich ist das Konzept der Isomorphie, das in der Physik generell von grosser Bedeutung ist. Unter einem Vektorraumisomorphismus zum Beispiel bleiben lineare Zusammenhänge unverändert. Es ändert sich aber ihre Darstellung, wie etwa im Fall der Abbildungsmatrix anstelle eines Homomorhpismus zwischen endlichdimensionalen Vektorräumen. Durch den Wechsel der Darstellung wird eine einfachere Beschreibung ermöglicht. Dieser Grundgedanke führt zu besonders interessanten Ergebnissen, wenn die reichhaltigere Struktur der euklidischen bzw. unitären Vektorräume im Spiel ist. Ebenso wichtig wie die abstrakten Strukturen sind in der linearen Algebra Verfahren und Algorithmen für praktische Berechnungen. In Anwendungen ist der Matrizenkalkül von besonderer Bedeutung für die Behandlung linearer Gleichungssysteme. Er wird ausführlich behandelt. Inhaltsverzeichnis 1 Mengen 4 2 Abbildungen 9 3 Vollständige Induktion und Abzählbarkeit 15 4 Gruppen, Körper, Vektorräume 18 5 Lineare Unabhängigkeit, Basen, Dimension 24 6 Lineare Abbildungen 31 7 Matrizen 39 8 Lineare Gleichungssysteme 50 9 Weitere Folgerungen des Eliminationsverfahrens 60 10 Determinanten 64 11 Eigenwerte und Eigenvektoren 74 12 Diagonalisierbarkeit und Trigonalisierbarkeit 83 13 Vektorräume mit Skalarprodukt 92 14 Endomorphismen in Vektorräumen mit Skalarprodukt 3 100 1 Mengen Eine Menge ist eine gedankliche Zusammenfassung von verschiedenen Objekten, z.B. der Ein- wohner Münchens oder der Kraftfahrzeuge mit Münchener Kennzeichen oder der Mitglieder eines Orchesters. Es können natürlich auch verschiedenartige Objekte zu einer Menge zusammengefasst werden, wie z.B. die Einrichtungsgegenstände eines Zimmers und die sich darin bendenden Personen. Die einzelnen Objekte heiÿen Elemente der Menge. Bezeichnet X eine Menge und a ein Element der Menge, so schreibt man a∈X X a heiÿt eine ist ein Element von X . endliche Menge, wenn sie aus endlich vielen Elementen besteht. Alle oben betrach- teten Mengen sind endlich. Besteht z.B. eine Menge X aus 6 Elementen, die mit a1 , a2 , . . . , a5 , a6 bezeichnet werden, so schreibt man X = {a1 , a2 , a3 , a4 , a5 , a6 } und es ist a1 ∈ X, . . . , a6 ∈ X . Mengen können unendlich sein, d.h. nicht 1, 2, 3, . . . Diese wird mit N bezeichnet. Also endlich, wie z.B. die Menge der natürlichen Zahlen N = {1, 2, 3, . . .} . Wenn ein Objekt kein Element einer Menge a∈ /X Z.B. ist Seien X 0∈ / N, X a und ist kein Element von Y X . zwei Mengen. Man sagt Y X ist eine Teilmenge von Y, wenn jedes Element von ist, d.h. wenn gilt x ∈ X ⇒ x ∈ Y. Dabei bezeichnet X⊂Y X⊂Y ⇒ Oensichtlich ist Z ist, schreibt man d.h. die Null ist (bei uns) keine natürliche Zahl. auch ein Element von (1.1) X und daraus folgt eine Implikation. Man schreibt X ist Teilmenge von X ⊂ X. Y . Weiter gilt die Transitivität Y ⊂ Z ⇒ X ⊂ Z. Y X Wichtig für den Nachweis der (1.2) Gleichheit zweier Mengen ist die Äquivalenz X = Y ⇔ X ⊂ Y und Y ⊂ X. 4 Dabei bezeichnet Ist X ⇔ äquivalent zu die Implikationen für beide Richtungen. eine Menge und E eine Eigenschaft, die die Elemente von X besitzen können oder auch nicht, dann bezeichnet {x ∈ X : E(x)} die Menge der Elemente x von X, die E besitzen. Diese Menge ist eine Teilmenge von X. Zum Beispiel ist die Menge der geraden natürlichen Zahlen {n ∈ N : n gerade eine Teilmenge von } = {2, 4, 6, . . .} N. Unerläÿlich ist die Einführung der diese gilt nach (1.1) für jede Menge (1.3) leeren Menge ∅, die Menge, die kein Element enthält. Für X ∅ ⊂ X. Schlieÿlich bezeichnet P(X) die Potenzmenge von X, d.i. die Menge aller Teilmengen von X. Ein Beispiel dazu sei X = {1, 2, 3} ⇒ P(X) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, X}. Es gilt stets ∅ ∈ P(X), X ∈ P(X) mentige Menge. Üb Ist X n-elementig, dann ist und {a} ∈ P(X) für jedes a ∈ X. Dabei ist P(X) 2n -elementig. Mengenoperationen Seien (1.4) X, Y, Z Der Mengen. Durchschnitt zweier Mengen X ∩ Y := {z : z ∈ X und z ∈ Y }.∗) X Y∩X (1.5) Die ∗) Y Vereinigung Der Doppelpunkt bei := zweier Mengen X ∪ Y := {z : z ∈ X oder z ∈ Y }. bedeutet, dass die linke Seite durch die rechte Seite deniert wird. 5 {a} eine einele- X Y Y∪X (1.6) Die Dierenz zweier Mengen X \ Y := {z ∈ X : z ∈/ Y }. Y X X\Y Es gelten folgende Beziehungen: • X \ X = ∅, X \ ∅ = X • X ∪ X = X, X ∩ X = X • X ∪ Y = Y ∪ X, X ∩ Y = Y ∩ X • X ⊂Y ⇔X ∪Y =Y ⇔X ∩Y =X • X⊂Z und Y ⊂Z ⇔X ∪Y ⊂Z • Z⊂X und Z ⊂Y ⇔Z ⊂X ∩Y • X ∪ (Y ∪ Z) = (X ∪ Y ) ∪ Z =: X ∪ Y ∪ Z • X ∩ (Y ∩ Z) = (X ∩ Y ) ∩ Z =: X ∩ Y ∩ Z • X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z) • X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z) Obermenge von X , d.h. X ⊂ E , auch E ⊃ X geschrieben. {X := E \ X Komplement von X bezüglich E . Sei auch Y ⊂ E . Dann gelten Sei E eine • {({(X)) = X • X \ Y = X ∩ {Y • {(X ∪ Y ) = ({X) ∩ ({Y ) • {(X ∩ Y ) = ({X) ∪ ({Y ) 6 heiÿt das E Y X • X ⊂ Y ⇔ {Y ⊂ {X • X ∩ Y = ∅ ⇔ X ⊂ {Y ⇔ Y ⊂ {X ⇔ ({X) ∪ ({Y ) = E Weitere Beziehungen für Mengen X, Y , Z: • (X ∪ Y ) \ Z = (X \ Z) ∪ (Y \ Z) • (X ∩ Y ) \ Z = (X \ Z) ∩ Y = X ∩ (Y \ Z) = (X \ Z) ∩ (Y \ Z) Kartesisches Produkt Seien a, b zwei Objekte. Diesen entspricht ein neues Objekt, das geordnete Paar (a, b). Dafür gilt denitionsgemäÿ: (a, b) = (a0 , b0 ) ⇔ a = a0 , b = b0 . So bedeutet z.B. (1.7) das (a, b) = (b, c), dass a = b = c. Seien X, Y Mengen. Dann ist die Menge aller Paare X × Y := {(x, y) : x ∈ X, y ∈ Y } kartesische Produkt von X mit Y. Das kartesische Produkt X ×X wird auch mit Y (x,y) y x zeichnet. Zum Beispiel ist X N2 = {(n, m) : n ∈ N, m ∈ N} die Menge der Gitterpunkte 3 2 1 1 2 3 4 Es gelten folgende Beziehungen für Mengen X , X 0, Y , Y 0: 7 X2 be- • X ×Y =∅ ⇔ X =∅ • Sei X × Y 6= ∅. oder Dann: Y = ∅. X0 × Y 0 ⊂ X × Y ⇔ X0 ⊂ X und Y0 ⊂Y. • (X × Y ) ∪ (X 0 × Y ) = (X ∪ X 0 ) × Y Y X'×Y X×Y X X' • (X × Y ) ∩ (X 0 × Y 0 ) = (X ∩ X 0 ) × (Y ∩ Y 0 ). • Seien E ⊃ X , F ⊃ Y . Für das Komplement bezüglich E × F gilt: {(X × Y ) = ({X × F ) ∪ (E × {Y ). Beweis. Gemäÿ (1.2) beweise man zunächst ⊂ . Sei (a, b) ∈ {(X × Y ). D.h. (a, b) ∈/ X × Y . b∈ / Y (da sonst doch (a, b) ∈ X × Y ). a ∈ / X heiÿt a ∈ {X , b∈ / Y heiÿt b ∈ {Y . Also folgt: (a, b) entweder Element von {X × F oder von E × {Y . Das bedeutet (a, b) ∈ ({X × F ) ∪ (E × {Y ). Damit ist gezeigt: {(X × Y ) ⊂ ({X × F ) ∪ (E × {Y ). Das bedeutet entweder a∈ /X oder Nun zu ⊃ . Sei (a, b) ∈ ({X × F ) ∪ (E × {Y ). Damit ist entweder a ∈ {X oder b ∈ {Y . D.h. a∈ / X oder b ∈ / Y . Also (a, b) ∈ / X × Y . D.h. (a, b) ∈ {(X × Y ). Damit ist gezeigt: ({X × F ) ∪ (E × {Y ) ⊂ {(X × Y ). entweder Nach (1.2) folgt die behauptete Gleichheit. Für Mengen X, Y, Z deniert man entsprechend X × Y × Z := {(x, y, z) : x ∈ X, y ∈ Y, z ∈ Z} das kartesisches Produkt von ist für Mengen X, Y , Z, d.i. die Menge der geordneten Tripel (x, y, z). Allgemeiner X 1 , . . . Xn X1 × X2 × . . . × Xn := {(x1 , x2 , . . . , xn ) : x1 ∈ X1 , . . . , xn ∈ Xn } die Menge der geordneten n-Tupel. 8 2 Abbildungen X, Y Abbildung f X in (oder nach) Y ordnet jedem Element von X X die Menge der in München zugelassenen Auto, Y die Menge der möglichen Münchner Kennzeichen und f ordne jedem Auto sein Kennzeichen zu. Oder X sei die Menge der Personen in Deutschland, Y = N und f ordne jeder Person ihr Gewicht Seien Mengen. Eine Y genau ein Element in von zu. Zum Beispiel sei (in kp) zu. Man schreibt (2.1) f : X → Y, x 7→ f (x) und nennt f (x) das Bild von x in Y unter der Abbildung f. Y X f(x) x Jedem Element (2.2) Graphf der x∈X wird ein Bild und nur ein Bild zugeordnet. Weiter heiÿt := {(x, y) ∈ X × Y : y = f (x)} Graph von f . Er ist eine Teilmenge von X × Y , d.h. ein Element von P(X × Y ). (2.3) Lemma. G ∈ P(X × Y ) ist genau dann der Graph einer Abbildung, wenn zu jedem x ∈ X genau ein y ∈ Y existiert derart, dass (x, y) ∈ G. Y G x0 G y∈Y mit x0 ∈ X gibt es mehr (x0 , y) ∈ G. X G x0 ist kein Abbildungsgraph, denn zu als ein Y Y y f (x) ∈ Y G ist kein Abbildungsgraph, y ∈ Y mit (x0 , y) ∈ G. denn zu x0 ∈ X gibt es kein X G G ist ein Abbildungsgraph, denn zu jedem genau ein y∈Y x X 9 derart, dass (x, y) ∈ G. x∈X gibt es YX bezeichnet die Menge aller Abbildungen von X nach Y. Beispiele für Abbildungen (2.4) Sei Y b ∈ Y. b. mit Wert (2.5) Sei f : X → Y, f (x) := b ∀ x ∈ X ∗) Graphf = X × {b}. Dann heiÿt X =Y. Es ist X und wird X × X. konstante Abbildung von X in identische Abbildung oder Identität auf Graph idX = {(x, x) : x ∈ X} die Diagonale von f : X → X, f (x) := x Dann heiÿt die mit idX bezeichnet. Es ist die X X×X x x (2.6) X f : P(X) → P(X), f (Y ) := X \ Y ist die Komplementbildung. : X × Y → X, pr1 (x, y) := x nennt man die Projektion von X × Y auf X oder die erste Projektion von X × Y . Entsprechend heiÿt pr2 : X × Y → Y, pr2 (x, y) := y die zweite (2.7) pr1 Projektion. (2.8) Sei f ∈ Y X, A ⊂ X. Einschränkung Zwei Abbildungen von Dann ist f f, g ∈ Y X auf A. f |A : A → Y, f |A(x) := f (x) ∀ x ∈ A = Graph f ∩ (A × Y ). eine Abbildung, die Es ist Graph f |A sind gleich, d.h. f = g, genau dann, wenn f (x) = g(x) ∀ x ∈ X . Die folgende harmlos erscheinende mengentheoretische Annahme hat weitreichende Konsequenzen. (2.9) Auswahlaxiom. Seien X, Y Mengen und F : X → P(Y ) eine Abbildung mit F (x) 6= ∅ ∀ x ∈ X . Dann existiert eine Abbildung f : X → Y mit f (x) ∈ F (x) ∀ x ∈ X . Einige konkrete Beispiele für Abbildungen • f : N → N, f (n) := 2n. • f : N → N, f (n) := f (15) = 3, usw... D.h. f (1) = 2, f (2) = 4, f (3) = 6, . . . kleinste Primzahl in n. Z.B. • f : N × N → Q (Menge der rationale Zahlen) , • X := {1, 2, 3, 4}, Y := {a, b, c, d, e} Üb Wie viele verschiedene Abbildungen von Y ∗) ∀ und X , wenn X n Elemente und Y m f (2) = 2, f (3) = 3, f (2n) = 2 ∀ n ∈ N, f (n, m) := n m f : X → Y , f (1) := a, f (2) := c, f (3) := c, f (4) := b X nach Y Elemente mit gibt es, m. a. W. wieviele Elemente besitzt m, n ∈ N hat? steht für für alle oder zu jeder/m. Es ist ein auf den Kopf gestelltes A. 10 Bild und Urbild von Mengen Seien f :X→Y eine Abbildung und A⊂X f (A) := {y ∈ Y : ∃ x ∈ A das (2.10) Bild von A in Y unter eine Teilmenge. Dann heiÿt mit kurz f (x) = y} = {f (x) ∈ Y : x ∈ A}†) f. Seien A, A0 ⊂ X . Dann gelten • A 6= ∅ ⇔ f (A) 6= ∅ • f ({x}) = {f (x)} ∀ x ∈ X • A ⊂ A0 ⇒ f (A) ⊂ f (A0 ) • f (A ∩ A0 ) ⊂ f (A) ∩ f (A0 ) • f (A ∪ A0 ) = f (A) ∪ f (A0 ) Üb Sei Beweise die obigen Aussagen. Finde ein Beispiel zu B⊂Y f (A ∩ A0 ) 6= f (A) ∩ f (A0 ). eine Teilmenge. Dann heiÿt f −1 (B) := {x ∈ X : f (x) ∈ B} dieser Teil von B hat ein leeres Urbild X das f -¹(B) Urbild von B (2.11) B in X bezüglich f. Lemma. Im Gegensatz zu f erhält f −1 alle mengentheoretischen Operationen. Seien B, B 0 ⊂ Y . Dann gelten • B ⊂ B 0 ⇒ f −1 (B) ⊂ f −1 (B 0 ) • f −1 (B ∩ B 0 ) = f −1 (B) ∩ f −1 (B 0 ) • f −1 (B ∪ B 0 ) = f −1 (B) ∪ f −1 (B 0 ) †) ∃ Y steht für es existiert. Es ist ein spiegelverkehrtes E. 11 • f −1 (B \ B 0 ) = f −1 (B) \ f −1 (B 0 ) Üb Beweise obige Aussagen. (2.12) Lemma. Sei A ⊂ X und B ⊂ Y . Es gelten folgende Beziehungen zwischen Bild und Urbild • f (f −1 (B)) = B ∩ f (X) • f −1 (f (A)) ⊃ A Beweis y ∈ f (f −1 (B)) ⇒ ∃ x ∈ f −1 (B) mit y = f (x) ⇒ ∃ x ∈ X mit f (x) ∈ B und y = f (x) ⇒ y ∈ B ∩ f (X). −1 (B) mit f (x) = y Nun zu ⊃. Sei y ∈ B ∩ f (X) ⇒ y ∈ B und ∃ x ∈ X mit y = f (x) ⇒ ∃ x ∈ f −1 ⇒ y ∈ f (f (B)). Üb der ersten Aussage. Gemäÿ (1.2) zeige zunächst ⊂. Sei Beweise die zweite Aussage und gebe ein Beispiel für (2.13) • f −1 (f (A)) 6= A an. Lemma. Für die Projektionen (2.7) gelten −1 pr1 (A) = A × Y, −1 pr2 (B) = X × B für A⊂X und B⊂Y • Z ⊂ X × Y ⇒ Z ⊂ pr1 (Z) × pr2 (Z) Üb Beweise obige Aussagen und gebe ein Beispiel für Üb Gebe ein Beispiel für Üb Finde jeweils ein Beispiel für f ∈YX und A, A0 ⊂ X f ∈YX und mit A⊂X Z 6= pr1 (Z) × pr2 (Z) A ⊂ A0 und an. f (A0 \ A) 6= f (A0 ) \ f (A) an. derart, dass f (X \ A) ⊂ Y \ f (A) f (X \ A) ⊃ Y \ f (A) weder ⊂ noch ⊃ gilt. Surjektive, injektive und bijektive Abbildungen Sei f ∈ Y X, f heiÿt d.h. f :X→Y surjektiv, wenn f (X) = Y . M.a.W. ∀ y ∈ Y ∃ x ∈ X : f (x) = y . Es schlieÿt nicht aus, x X eine Abbildung. Y f y x' dass y mehrere Urbilder hat. Man sagt auch, f ist eine Abbildung auf Y. f heiÿt injektiv oder eineindeutig, wenn jedes y ∈ Y höchstens ein Urbild besitzt. M.a.W. ∀ x, x0 ∈ X : f (x) = f (x0 ) ⇒ x = x0 . Das schlieÿt nicht aus, dass es zu einem y ∈ Y gar kein Urbild gibt. 12 X f Y f heiÿt bijektiv, wenn f surjektiv und injektiv ist, m.a.W. ∀ y ∈ Y ∃1 x ∈ X : f (x) = y. (2.14) Sei f ∈ Y X . Setze f˜ : X → f (X), f˜(x) := f (x). Dann ist f˜ surjektiv (klar). (2.15) Sei f ∈ Y X injektiv, A ⊂ X . Dann ist f |A injektiv (klar). Üb Zeige mit Hilfe des Auswahlaxioms (2.9): Ist injektiv ist und dann existiert A⊂X derart, dass idX |A heiÿt die identische Einbettung von A in X . Für B ⊂ X gilt (2.17) Sei f ∈ Y X . Dann ist F : X → Graph f , F (x) := (x, f (x)), eine bijektive Abbildung. (2.18) pr1 und pr2 sind surjektiv auf X bzw. Y . (2.19) Die Komplementbildung (2.20) Lemma. Sei f ∈ Y X . Dann gelten für alle A ⊂ X und B ⊂ Y : • f surjektiv • f injektiv Beweis. (2.6) ist bijektiv. ⇒ f (f −1 (B)) = B ⇒ f −1 (f (A)) = A Die erste Aussage folgt sofort aus der ersten Aussage von (2.12), weil −1 (f (A)) ⊂ A zu zeigen. Sei also x ∈ zweiten Aussage: Wegen (2.12) bleibt f 0 0 0 f (A) ⇒ ∃ x ∈ A mit f (x ) = f (x) ⇒ x = x, weil f injektiv ist. Also x ∈ A. (2.21) f |A f (A) = f (X). A ⊂ X . jA := −1 jA (B) = A ∩ B . (2.16) Sei f ∈ Y X, ‡) f (X) = Y . Zur ⇒ f (x) ∈ f −1 (f (A)) Die Umkehrabbildung. Sei f : X → Y eine bijektive Abbildung. Dann gibt es eine Abbil- dung g : Y → X derart, dass f (g(y)) = y ∀y ∈ Y und g(f (x)) = x ∀x ∈ X Oenbar ist g eindeutig und bijektiv. Man nennt g die Umkehrabbildung von f f −1 := g . Beweis. f bijektiv ist, gilt: ∀ y ∈ Y ∃1 x ∈ X : f (x) = y. x ∈ X . Damit ist eine Abbildung g : Y → X erklärt. Für Da bestimmte Nenne g(y) und schreibt dieses eindeutig diese gelten denitionsgemäÿ obige Beziehungen. Vorsicht, f −1 : P(Y ) → P(X) ist. Wenn von ‡) ∃1 B f existiert immer, die Umkehrfunktion jedoch nur, wenn bijektiv ist, ist natürlich für jedes bezüglich B⊂Y f. steht für es existiert genau ein 13 das Bild von B unter f −1 f bijektiv gleich dem Urbild Hintereinanderschaltung (=Komposition) von Abbildungen Seien X, Y, Z Mengen, f ∈ Y X , g ∈ ZY , d.h. f : X → Y, g : Y → Z Abbildungen. Dann ist h : X → Z, x 7→ h(x) := g(f (x)), eine Abbildung, denn jedem x∈X wird ein eindeutiges Bild g(f (x)) ∈ Z zugeordnet. Man schreibt hierfür h=g◦f und nennt (2.22) h die Hintereinanderschaltung oder Komposition von g und f. Es gelten • h(A) = g(f (A)) ∀ A ⊂ X • h−1 (C) = f −1 (g −1 (C)) ∀ C ⊂ Z Üb (2.23) Beweise obige Relationen. Wenn g und f injektiv bzw. surjektiv sind, dann ist auch h = g ◦ f injektiv bzw. surjektiv. Ist f bijektiv, dann gilt nach (2.21) f −1 ◦ f = idX , f ◦ f −1 = idY . (2.24) Lemma. Seien f ∈ Y X , g ∈ Z Y , h ∈ Z X mit g ◦ f = h. Dann gilt: h surjektiv ⇒ g surjektiv, Üb Zeige (2.24). Gebe ein Beispiel zu (2.24) an, wofür und (2.25) h injektiv ⇒ f injektiv g X = Y = Z, h = idX , f nicht surjektiv nicht injektiv ist. Assoziativität der Komposition. Seien A, B , C , D Mengen und f : A → B , g : B → C , h : C → D Abbildungen. Dann gilt h ◦ (g ◦ f ) = (h ◦ g) ◦ f . Beweis. Für alle ((h ◦ g) ◦ f )(a). a ∈ A gilt: (h ◦ (g ◦ f ))(a) = h((g ◦ f )(a)) = h(g(f (a))) = (h ◦ g)(f (a)) = Wegen (2.25) sind die Klammern nicht notwendig: man schreibt 14 h ◦ g ◦ f. 3 Vollständige Induktion und Abzählbarkeit Die natürlichen Zahlen durchläuft man N N = {1, 2, 3, . . .} sind angeordnet: von einer natürlichen Zahl n zur nächsten 1 < 2 < 3 < . . . Auf n + 1 ohne Wiederkehr. diese Weise Vollständige Induktion Zu jeder natürlichen Zahl n sei eine Aussage A(n) gegeben. Die Richtigkeit dieser Aussagen soll bewiesen werden. Dazu kann man sich des Beweisprinzips der vollständigen Induktion bedienen: Alle Aussagen A(n) für n ∈ N sind richtig, falls A(1) richtig ist (Induktionsanfang), und wenn für jedes n0 ∈ N, wofür A(1), A(2), . . . , A(n0 ) richtig sind (Induktionsvoraussetzung), auch A(n0 + 1) richtig ist (Induktionsschluss). Beispiel Arithmetische Summenformel. (3.1) 1 1 + 2 + 3 + . . . + n = n(n + 1) 2 Beweis. A(n) ist die Aussage, dass 12 n(n + 1) die Summe der ersten n natürlichen Zahlen ist. IA 1 = 1 · (1 + 1), 2 IV Sei IS Zeige nun, dass n0 ∈ N d.h. A(1) derart, dass ist richtig. A(n0 ) A(n0 + 1) gilt, d.h. dass 1 1 + 2 + . . . + n0 = n0 (n0 + 1). 2 richtig ist: 1 + 2 + . . . + n0 + (n0 + 1) = (1 + 2 + . . . + n0 ) + (n0 + 1) 1 IV 1 n0 + 1 (n0 + 1) = n0 (n0 + 1) + (n0 + 1) = 2 2 1 = (n0 + 2)(n0 + 1). Das ist A(n0 + 1). 2 Bemerkung. Oft, wie auch in diesem Fall, wird für den IS nicht die volle IV benötigt, sondern nur die Gültigkeit von 1 A(n0 ). Bei entsprechender Indizierung von A(n) kann der kleinste Index statt irgendeine ganze (auch negative) Zahl sein. Summenschreibweise. Für a1 + a2 + . . . + an (Pünktchenschreibweise) schreibt man ni=1 ai .∗) Dabei ist i der Summationsindex. (Dieser kann natürlich auch mit einem anderen Buchstaben P bezeichnet werden.) Allgemeiner ist für zwei ganze (auch negative) Zahlen (3.2) n X ai = am + am+1 + . . . an−1 + an i=m ∗) P Sigma, das groÿe griechische S 15 m≤n (3.3) Beispiel Geometrische Summenformel. n X xi = i=0 1 − xn+1 für jede Zahl x 6= 1. 1−x Pn+1 i 1−x0+1 i=0 x 1−x = 1, d.h. A(0) ist richtig. IS n+1 n+1 n+2 1−x +(1−x)x = 1−x 1−x 1−x , d.h. A(n + 1) ist richtig. Beweis. IA x0 = 1, xn+1 = = n+1 i n+1 IV = 1−x i=0 x + x 1−x Pn + Mächtigkeit X heiÿt gleichmächtig mit der Menge Y , wenn es eine bijektive Abbildung f : X → Y f −1 : Y → X nach (2.21) ebenfalls bijektiv ist, ist dann auch Y gleichmächtig mit X . Daher heiÿen X und Y gleichmächtig. Ist weiter Y gleichmächtig zu Z , dann sind X und Z gleichmächtig, denn Eine Menge gibt. Da f : X → Y, g : Y → Z bijektiv ⇒ g ◦ f : X → Z bijektiv nach (2.23). Eine Menge abzählbar, wenn X (3.4) X heiÿt abzählbar unendlich, wenn X gleichmächtig mit N ist. X heiÿt endlich oder abzählbar unendlich ist. Satz. Sei A ⊂ N unendlich. Dann ist A abzählbar unendlich. Beweis. Deniere eine Abbildung f : N → A, n 7→ an := f (n) wie folgt: a1 sei das kleinste Element von A. Weiter sei dann sei an+1 a2 A \ {a1 }, usw. Seien a1 , . . . , an bereits bestimmt, A \ {a1 , . . . , an } (6= ∅, weil A unendlich). Oenbar ist das kleinste Element von das kleinste Element von a1 < a2 < . . . < an für jedes n. Hieraus folgt, dass f injektiv ist. Auÿerdem ist n ≤ an ∀ n ∈ N und damit insbesondere b ≤ ab ∀ b ∈ A. Zum Beweis der Surjektivität von f sei x ∈ A \ {a1 }. Dann existiert eine natürliche Zahl ax ≥ x, gibt es eine gröÿte natürliche Zahl m < x b ∈ A mit am < b < x. Dann ist am+1 ≤ b < x nach Widerspruch zur Denition von m ist. Also ist am+1 = x. an < x. Da existiere (3.5) am < x. mit Nehme nun an, es Denition von am+1 , was aber ein Satz. Sei A abzählbar und f : A → B surjektiv. Dann ist B abzählbar. Beweis. Für endliches A ist B kung mit n A = N −1 ({b}). Es ist Element von f Damit sind B endlich. Sei daher A unendlich. Wegen (3.4) ist es keine Einschrän- f −1 ({b}) = 6 ∅ ∀ b ∈ B . Sei g(b) f (g(b)) = b ∀ b ∈ B , weshalb g : B → N injektiv ist anzunehmen. Nach Voraussetzung ist und g(B) gleichmächtig und die Behauptung folgt aus (3.4). Bemerkung am Rande: das Auswahlaxiom wurde im Beweis von (3.5) vermieden. 16 das kleinste nach (2.24). (3.6) Satz. N2 = N × N ist abzählbar. Y 3 2 1 6 3 5 8 1 2 4 7 1 2 3 4 X 1 2 Beweis. f : N × N → N, f (x, y) := (x + y − 2)(x + y − 1) + y , ist bijektiv (s. Bild). Üb Zeige explizit, dass f in (3.6) bijektiv ist. Familien und Folgen Seien I, X (xι )ι∈I nichtleere Mengen und eine Familie X I = N, in mit f ∈ XI. Schreibt man Indexmenge I , und xι f (ι) =: xι ∀ ι ∈ I heiÿt Element †) , dann nennt man oder Glied der Familie Index ι. Ist dann heiÿt (xn )n∈N eine Folge und wird auch als unendliches (x1 , x2 , x3 , . . .) geschrieben. Ist I = {1, . . . , n}, dann ist (xι )ι∈I = (x1 , . . . , xn ) ein n-Tupel. Sei (Aι )ι∈I eine Familie von Teilmengen einer Menge. Dann heiÿen [ \ Aι := {x ∈ X : ∃ ι ∈ I mit x ∈ Aι }, Aι := {x ∈ X : ∀ ι ∈ I gilt x ∈ Aι } zum ι∈I die ι∈I Vereinigung [ [ Aι =: bzw. der Durchschnitt der Aι , ι ∈ I . Eine andere Schreibweise dafür ist {Aι : ι ∈ I}, ι∈I Üb Tupel \ Aι =: \ {Aι : ι ∈ I}. ι∈I Zeige: ! [ • { Aι = ι∈I \ {Aι ι∈I ! • [ ! ∩ Aι ι∈I [ Bκ κ∈K \ Aι ! ∪ ι∈I (3.7) \ Bκ Aι , ι ∈ I , \ = κ∈K Die Mengen (Aι ∩ Bκ ) (ι,κ)∈I×K ! • [ = (Aι ∪ Bκ ) (ι,κ)∈I×K heiÿen paarweise disjunkt, wenn Aι ∩ Aι0 = ∅ für ι, ι0 ∈ I mit ι 6= ι0 . Satz zur Abzählbarkeit. Eine Vereinigung von abzählbar vielen abzählbaren Mengen ist abzählbar. Ist also I eine abzählbare Menge und ist Aι abzählbar für jedes ι ∈ I , dann ist S A abzählbar. ι∈I ι Beweis . S n∈I †) ι I ⊂ N und die An ⊂ N × {n} sind paarweise disjunkt. Dann ist 2 N abzählbar nach (3.6). Die Behauptung folgt mit (3.4). Ohne Einschränkung ist An ⊂ S n∈N N × {n} = iota 17 4 Gruppen, Körper, Vektorräume Uns werden vornehmlich reelle und komplexe Vektorräume interessieren. In Hinblick auf spätere Themen ist es jedoch angebracht, etwas allgemeiner zu sein und mit Gruppen und Körpern zu beginnen. (4.1) Gruppe. G mit einem Element e ∈ G und einer inneren G × G in G, (x, y) 7→ xy derart, dass ∀ x, y, z ∈ G Eine Gruppe ist eine Menge knüpfung, d.i. eine Abbildung von (a) x(yz) = (xy)z (b) ex = x (c) ∃ x−1 ∈ G mit Eigenschaft (a) ist die Ver- x−1 x = e Assoziativität der Verknüpfung. In jeder Gruppe gelten für alle x ∈ G • xx−1 = e • xe = x • e ist eindeutig • x−1 ist eindeutig und x−1 −1 =x (a) (c) (a) (b) Beweis. z := x−1 ⇒ z −1 zxz = (z −1 z)xz = exz = e(xz) = xz = xx−1 ; (c) (a) (b) (c) andererseits (a) z −1 zxz = (b) z −1 (zx)z = z −1 ez = z −1 (ez) = z −1 z = e. Also gilt xx−1 = e. Damit folgt x = ex = (a) (c) xx−1 x = x x−1 x = xe. Sei e0 ∈ G mit e0 x = x ∀ x ∈ G. Insbesondere ist e0 e = e. 0 0 Andererseits gilt e e = e wie gerade gezeigt. Schlieÿlich gelte für x ∈ G sowohl zx = e wie z 0 x = e. Es folgt z = ze = z xx−1 = (zx) x−1 = ex−1 = x−1 . Ebenso folgt z 0 = x−1 . Also ist −1 −1 −1 z = z 0 , d.h. x−1 ist eindeutig. Daher folgt x−1 = x aus x−1 x = e = xx−1 . multiplikativ geschrieben. Dementsprechend heiÿt xy das −1 das zu x inverse das Einselement der Gruppe und x Element. Man kann auch die additive Schreibweise x + y verwenden. Dann heiÿt x + y die Summe von x mit y . In diesem Fall heiÿt e das Nullelement und wird mit 0 bezeichnet. Das inverse Element wird mit −x bezeichnet und heiÿt entgegengesetztes Element. Die Gruppe G heiÿt abelsch oder kommutativ, wenn xy = yx ∀ x, y ∈ G. Wir haben die Gruppenverknüpfung Produkt von x mit y. Weiter heiÿt e Beispiele für Gruppen (4.2) Die ganzen Zahlen Z = {. . . , −2, −1, 0, 1, 2, . . .} sind eine additive abelsche Gruppe: ∀ x, y, z ∈ Z gilt x + y = y + x ∈ Z, 0 + x = x + 0 = x, x − x = 0 und (x + y) + z = x + (y + z). Die natürlichen Zahlen N vorhanden ist. Aber auch Wie Z ist auch Q, mit der gewöhnlicher Addition ist keine Gruppe, da kein Nullelement N0 := N ∪ {0} ist keine Gruppe, da nur die Menge der rationalen Zahlen, oder R, 0 ein inverses Element besitzt. die Menge der reellen Zahlen, eine additive abelsche Gruppe bezüglich der gewöhnlichen Addition. Q∗ := Q \ {0} R∗ := R \ {0} sind multiplikative abelsche Gruppen bez. der gewöhnlichen −1 = 1 das inverse Element, wobei 1 ∈ R das Einselement ist. Multiplikation: Für r ∈ R, r 6= 0, ist r r ∗ ∗ Q+ := {r ∈ Q : r > 0}, R+ := {r ∈ R : r > 0} sind ebenso multiplikative abelsche Gruppen bez. und der gewöhnlichen Multiplikation. 18 (4.3) Symmetrische Gruppe. Sei X eine nichtleere Menge. Dann ist S(X) := {f ∈ X X : f bijektiv} eine Gruppe bez. der Komposition von Abbildungen. Einselement ist idX , das inverse Element von f ist die Umkehrabbildung f −1 . Zur Assoziativität siehe (2.25). S(X) heiÿt die symmetrische Gruppe der Menge X . Für n ∈ N schreibt man kurz Sn := S({1, . . . , n}). f ∈ Sn heiÿt Permutation der Zahlen 1, . . . , n. Eine Gruppe G endlich, wenn G eine endliche Menge ist. |G| heiÿt die Ordnung heiÿt Üb Zeige: |Sn | = 1 · 2 · 3 · 4 · . . . · (n − 1) · n =: n! Üb Zeige: Sn (4.4) ist für n≥3 von G. ( n Fakultät ). nicht abelsch. Direktes Produkt von Gruppen. Seien G, G0 Gruppen. Dann ist G × G0 eine Gruppe bez. der inneren Verknüpfung (x, x0 )(y, y 0 ) := (xy, x0 y 0 ) mit Einselement (e, e0 ). Das inverse Element (x, x0 )−1 lautet x−1 , x0−1 . Dies ist leicht zu verizieren und lässt sich sofort auf mehrere Faktoren verallgemeinern: G1 × . . . × G n (4.5) (x1 , . . . , xn )(x1 , . . . , xn ) = (x1 y1 , . . . , xn yn ) Gn = G × . . . × G (n Faktoren) eine Gruppe. wird mit der Gruppenverknüpfung hen. In diesem Sinn ist insbesondere verse- Additive Gruppe Rn . Rn ist mit der Verknüpfung (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ), dem Nullelement 0 = (0, 0, . . . , 0) und dem entgegengesetzten Element −(x1 , . . . , xn ) = (−x1 , . . . , −xn ) eine additive abelsche Gruppe. Q und R sind Körper, weil man in Q und in R addieren und multiplizieren kann. Genauer gelten folgende Körperaxiome. (4.6) Körper. Ein Körper ist eine Menge K mit Elementen 0 ∈ K , 1 ∈ K , 0 6= 1 und zwei inneren Verknüpfungen K × K → K, (x, y) 7→ x + y K × K → K, (x, y) 7→ xy derart, dass K mit 0 (Addition), (Multiplikation) und der Addition eine abelsche Gruppe ist, und und der Multiplikation eine abelsche Gruppe ist, und die beiden K ∗ := K \ {0} Distributivgesetze mit 1 x(y + z) = xy + xz (x + y)z = xz + yz ∀ x, y, z ∈ K gelten. Um die Klammerungen zu reduzieren, vereinbart man dabei die Konven- tion Multiplikation vor Addition. (4.7) Körper der rationalen Zahlen. Q = n p q : p ∈ Z, q ∈ N −1 = −r = −p q das entgegengesetzte Element und r das inverse Element bez. der Multiplikation. 19 q p o ist ein Körper: Zu r = falls p > 0 bzw. −q −p p q ∈ Q ist falls p < 0, kurz 1r , (4.8) Lemma. Sei K ein Körper. Es gelten folgende Regeln für x, y ∈ K : • 0x = x0 • xy = 0 ⇒ x = 0 oder y=0 • x(−y) = (−x)y = −(xy) =: −xy. Üb Beweise obige Aussagen. Körper der komplexen Zahlen Gemäÿ (5) ist R2 eine additive abelsche Gruppe bez. der Addition (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ) (4.9) 0 = (0, 0) als Nullelement und −(x, y) = (−x, −y) als entgegengesetztes Element. Nun wird auf R2 auch noch eine Multiplikation erklärt, womit R2 ein Körper gemäÿ Denition (6) wird. Für alle (x, y), (x0 , y 0 ) ∈ R2 sei mit (4.10) (x, y)(x0 , y 0 ) := (xx0 − yy 0 , xy 0 + yx0 ). Die Assoziativität und die Distributivgesetze sind leicht nachzuprüfen. Die Kommutativität ist (1, 0), denn + 0 · x) = (x, y). Das (1, 0)(x, y) = (1 · x − 0 · y, 1 · y −y −y x x −1 inverse Element lautet (x, y) = x2 +y2 , x2 +y2 für (x, y) 6= 0, denn x2 +y2 , x2 +y2 (x, y) = 2 2 xy −xy x = (1, 0). Also ist R2 mit Addition (9) und Multiplikation (10) − x−y 2 +y 2 , x2 +y 2 + x2 +y 2 x2 +y 2 ein Körper, der Körper der komplexen Zahlen. Er wird mit C bezeichnet. klar. Das Einselement ist (4.11) Schreibweisen. Man setzt 1 := (1, 0) für das Einselement und i := (0, 1) für die imaginäre Einheit. Dann ist i2 = (0, 1)(0, 1) = (0 · 0 − 1 · 1, 0 · 1 + 1 · 0) = −(1, 0) = −1. Weiter schreibt man jede komplexe Zahl z = (x, y) ∈ R2 in der Form z = x + iy und nennt Re z := x den Realteil von z und Im z := y den Damit rechnet sich leicht formal. So lautet die Addition (9) x + x0 + i(y + y 0 ). (4.12) z + z 0 = (x + iy) + (x0 + iy 0 ) = Das letzte Klammernpaar muss gesetzt werden. Das Produkt (10) ergibt sich durch Ausmultiplizieren Die zu Imaginärteil von z . zz 0 = (x + iy)(x0 + iy 0 ) = xx0 − yy 0 + i(xy 0 + yx0 ). z = x + iy konjugiert komplexe Zahl z := Re z − i Im z = x − iy, ist deniert als d.h. Re z = Re z, Im z = −Im z. Für die komplexe Konjugation gelten folgende leicht zu verizierenden Rechenregeln: 20 • z + z0 = z + z0 • zz 0 = z z 0 • z∈R⇔z=z • zz = (Re z)2 + (Im z)2 = x2 + y 2 . Schlieÿlich deniert man den (4.13) |z| := √ q zz = Absolutbetrag (Re )2 + (Im )2 = von z ∈ C. p x2 + y 2 . |z| = Länge des Vektors z nach Pythagoras Dafür gelten die Rechenregeln • |z| = 0 ⇔ z = 0 • |z| = |z| • |zz 0 | = |z||z 0 | Üb Rechne die Regeln zu (12) und (13) nach. Erwähnt sei noch die Dreiecksungleichung, die vornehmlich in der Analysis eine wichtige Rolle spielt. • |z + z 0 | ≤ |z| + |z 0 | Später wird eine allgemeinere Aussage bewiesen. Inversenbildung, Reellmachen des Nenners z −1 = 1z z Re z Im z x y = 2 = −i 2 = 2 −i 2 , 2 2 zz |z| |z| |z| x +y x + y2 vgl. nach (10). Dazu rechnen wir abschlieÿend das Beispiel 1−i (1 − i)(3 + 4i) 3 + 4 − 3i + 4i 7 1 = = = +i . 2 2 3 − 4i 3 +4 25 25 25 21 (4.14) Vektorraum über K . Körper K, kurz K Sei ein Körper. Ein Vektorraum oder linearer Raum über dem K Vektorraum, ist eine additiv geschriebene abelsche Gruppe Verknüpfung, der Multiplikation mit Skalaren α, β ∈ K und x, y ∈ V • (αβ)x = α(βx) gilt K × V → V, (α, x) 7→ αx V mit einer derart, dass für alle ∗) Assoziativität • α(x + y) = αx + αy • (α + β)x = αx + βx Distributivgesetze • 1x = x Die Elemente von V heiÿen Vektoren, die von K heiÿen Skalare. Meist werden wir Vektoren mit lateinischen Buchstaben und Skalare mit griechischen Buchstaben bezeichnen. Es gilt die Konvention Multiplikation vor Addition. Damit kann man auf manche Klammerung verzichten. Ein C-Vektorraum (4.15) heiÿt R- bzw. reeller bzw. komplexer Vektorraum. VR steht in Zukunft für Vektorraum. Der Vektorraum K n . Die wichtigsten reellen bzw. komplexen VR sind n ∈ N. K Allgemeiner, ist n ein ein Körper, dann ist K K -VR Rn bzw. Cn für mit der komponentenweise erklärten Addition x + x0 = (x1 , . . . , xn ) + (x01 + . . . + x0n ) := (x1 + x01 , . . . , xn + x0n ) und Multiplikation mit Skalaren λx = λ(x1 , . . . , xn ) := (λx1 , . . . , λxn ). Insbesondere ist K = K1 ein K -VR. Beachte, dass die Komponenten Die Gültigkeit der VR-Axiome veriziert man direkt. x1 , . . . , xn von x ∈ K n mit lateinischen Buchstaben bezeichnet werden, obwohl es Körperelemente sind. (4.16) Der Vektorraum K X . Eine Verallgemeinerung von K n K VR K X aller Funktionen f : X → K für einen Körper K und einer nichtleeren Menge X . Für f, g aus K X und λ ∈ K deniert man die Linearkombination f + λ g punktweise, d.h. als die Funktion x 7→ f (x) + λ g(x). Es gilt also (f + λ g)(x) = f (x) + λ g(x) ∗) α alpha , β beta 22 ist der ∀x ∈ X. Der Nullvektor 0 von K X ist die Funktion auf X , die konstant den Wert 0 ∈ K X veriziert man leicht. Gültigkeit der VR-Axiome für K Üb (4.17) Inwiefern ist der K -VR K X aus (16) eine Verallgemeinerung von Sei V ein K -VR. Dann gilt ∀ x ∈ V , α ∈ K • 0x = 0 • α0=0 • αx = 0 ⇒ α = 0 oder x=0 • −x = (−1) x • (−α) x = −(α x) = α (−x) Achtung, es treten zwei verschiedene Nullen auf: Üb 0∈K Beweise obige Gleichungen. 23 und 0∈V. K n? annimmt. Die 5 Lineare Unabhängigkeit, Basen, Dimension In diesem Kapitel werden allgemeine strukturelle Eigenschaften eines Vektorraums untersucht. Im Raum x, y ∈ E R3 E durch λ ∈ R gilt: hat eine Ebene und jedem Skalar den Ursprung die Eigenschaft, dass mit je zwei Vektoren x + λy ∈ E. Auch jede Gerade durch den Ursprung hat diese Eigenschaft. Gibt es noch andere Teilmengen von R3 mit dieser Eigenschaft? (5.1) Untervektorraum. raum (UVR) von (5.2) V, Sei V ein K VR und W ⊂ V x, y ∈ W, λ ∈ K wenn für alle mit gilt: 0 ∈ W . Dann x + λy ∈ W . heiÿt W Untervektor- Lemma. Jeder UVR W eines K VR V ist selbst ein K VR bez. der auf V erklärten VR Verknüpfungen. Beweis. x + y = x + 1y und λx = 0 + λx für x, y ∈ W, λ ∈ K bilden nach W ab. Auÿerdem ist −x = (−1)x ∈ W für x ∈ W . Insbesondere ist W eine abelsche Gruppe. Die übrigen VR-Axiome gelten, weil sie für V gelten. Die VROperationen W gegeben, dann ist oensichtlich U ein UVR von V . Es sind {0} und V . Ebenen und Geraden in R3 durch 0 ∈ R3 sind (neben {0} und R3 ) 3 3 die einzigen UVR von R . Das wird noch begründet. Eine Gerade in R durch den Nullpunkt ist 3 3 3 jede Teilmenge G = {λ x0 : λ ∈ R} von R mit x0 ∈ R \ {0}. Je zwei Vektoren x1 , x2 aus R , die nicht auf einer Geraden durch den Nullpunkt liegen, d.h. {x1 , x2 } 6⊂ G ∀ G, spannen eine Ebene E = {λ1 x1 + λ2 x2 : λ1 , λ2 ∈ R} ⊂ R3 durch den Nullpunkt auf. Zwei weitere Beispiele für UVR U Ist in (2) ein UVR V von (triviale) UVR von folgen. (5.3) Hyperebene in K n . Seien K ein Körper und α1 , . . . , αn ∈ K . Dann ist ( W := n x∈K : n X ) αi xi = 0 i=1 ein UVR von K n . 6= 0 heiÿt W eine Hyperebene. P Beweis. Es ist 0 ∈ W , denn 0 = (0, . . . , 0) und ni=1 αi 0 = 0. Seien x, y ∈ W , λ ∈ K . Dann ist x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) und somit λy = (λy1 , . . . , λyn ), x + λy = (x1 + λy1 , . . . , xn + λyn ). Es ist zu prüfen, ob x + λy ∈ W . Rechnen in K ergibt n X i=1 αi (xi + λyi ) = Im Fall (α1 , . . . , αn ) n X (αi xi + λαi yi ) = i=1 n X αi xi + λ i=1 n X αi yi x,y∈W = 0 + λ0 = 0 ⇒ x + λy ∈ W. i=1 (5.4) Untervektorraum K (X) . Seien X eine Menge und K ein Körper. Sei K (X) := {f ∈ K X : f −1 (K \ {0})) ist endlich}. Demnach ist f : X → K ein Element von K (X) f (x) 6= 0 nur für höchstens endlich viele x ∈ X . K (X) ein UVR von K X . 24 genau dann, wenn Üb Weise (4) nach. (5.5) (a) (b) Üb Erzeugter Untervektorraum. Sei V ein VR. Der Durchschnitt von beliebig vielen UVR von V ist ein UVR von V . T Sei M ⊂ V und hM i := {W : W ⊂ V UVR, W ⊃ M }. Dann ist hM i ein UVR von V mit folgender Eigenschaft: Ist W ein UVR von V mit M ⊂ W , dann ist hM i ⊂ W . Daher ist hM i der kleinste UVR von V , der M enthält. Er heiÿt der von M erzeugte UVR. Man beweise (5). Zu (b) beachte man, dass hM i UVR , W ⊃ M} = 6 ∅ und damit deniert ist. Im Folgenden bedeutet die Schreibweise (5.6) V ∈ {W : W ⊂ V Linearkombination. Sei V x tionsgemäÿ ein x1 , . . . , xn ∈ V , K -VR, seien dass (xi )i=1,...,n eine Familie in V ist. x1 , . . . , xn ∈ V und sei x ∈ V . Dann ist denix1 , . . . , xn , wenn es α1 , . . . , αn ∈ K gibt eine Linearkombination der Vektoren derart, dass x = α1 x1 + α2 x2 + . . . + αn xn . (5.7) Lineare Hülle. Sei V ein K -VR und M ⊂ V , M 6= ∅. M Dann heiÿt die Menge aller Linear- kombinationen von Vektoren aus ( Span M := x ∈ V : ∃ n ∈ N, x1 , . . . , xn ∈ M, α1 , . . . , αn ∈ K mit x= n X ) αi xi i=1 der von (5.8) M aufgespannte lineare Raum oder die lineare Hülle von M . Man setzt Span ∅ = {0}. Satz. Es gilt: Span M = hM i. Beweis. Oensichtlich ist und sind x, y ∈ M ⊂ SpanM . Weiter ist Span M ein UVR, denn 0 ∈ Span M (klar) λ ∈ K , dann existieren x1 , . . . , xn ∈ M P und α1 , . . . , αn ∈ K mit x = Pn m α x sowie y , . . . , y ∈ M und β , . . . , β ∈ K mit y = i i P 1 m 1 m j=1 βj yj , weshalb x + λy = Pi=1 n m i=1 αi xi + j=1 λβj yj ∈ Span M . Ist nun W ein UVR mit M ⊂ W , dann gilt für x1 , . . . xn ∈ M : (. . . (((α1 x1 ) + α2 x2 ) + α3 x3 ) + . . . + αn xn ) ∈ W . Daher W ⊃ Span M , was zu zeigen war. (5.9) Span M , Vektorraumsumme. Seien U , W UVR des VR V . Setze U + W := {z ∈ V : ∃ x ∈ U, y ∈ W mit z = x + y} . Oensichtlich ist U + W = Span (U ∪ W ). Der UVR U +W heiÿt die Summe von U und W. Entsprechend deniert man die Summe von endlich vielen VR. Für x ∈ V sei Kx := {αx : α ∈ K}. Kx ist ein UVR. Hiermit erhält man speziell die folgende Aussage. (5.10) Lemma. Für x1 , . . . xn ∈ V gilt Span {x1 , . . . , xn } 25 = Kx1 + Kx2 + . . . + Kxn . (5.11) Erzeugendenmenge. Seien Erzeugendenmenge von W, x1 , . . . , xn erzeugen V . (5.12) V wenn Standardeinheitsvektoren. (0, . . . , 0, 1) W ⊂ V ein UVR und M ⊂ W . Dann heiÿt M Span M = W . Ist Span {x1 , . . . , xn } = V , dann sagt man, ein VR, In Kn e1 := (1, 0, . . . , 0), e2 := (0, 1, . . . , 0),..., en := Diese erzeugen K n , denn für x ∈ K n gilt: seien die Standardeinheitsvektoren. x = (x1 , . . . , xn ) = x1 e1 + x2 e2 + . . . + xn en ∈ Ke1 + Ke2 + . . . + Ken . (5.13) Lemma. Seien V ein VR und A, B ⊂ V . Dann gelten: (a) B ⊂ Span A ⇔ Span (A ∪ B) = Span A. (b) Span (Span A) (c) W UVR = Span A. ⇔ Span W = W . Beweis. Wir beweisen (a). Sei B ⊂ Span A. Dann ist A∪B ⊂ Span A, woraus Span A∪B ⊂ Span A ⊂ Span A ∪ B folgt. Span A Üb Weise (13) (b) und (c) nach. Die Vektoren mit gilt oensichtlich. Die umgekehrte Richtung folgt ebenso einfach. i 6= j . (5.14) x1 , . . . , xn ∈ V heiÿen paarweise verschieden, (xi )i=1,...,n ist injektiv. wenn Lineare Unabhängigkeit. Sei V ein für i, j ∈ {1, . . . , n} K -VR. (xi )i=1,...,n in V heiÿt linear unabhängig, wenn i=1 αi xi = 0, dann folgt α1 = α2 = . . . = αn = 0. (a) Die Familie dass xi 6= xj Man sagt auch, die Familie gilt: Sind Pn (b) Die Teilmenge M ⊂ V α1 , . . . , αn ∈ K derart, heiÿt linear unabhängig, wenn jede endliche injektive Familie in M linear unabhängig ist. Sprechweise. Man sagt in (14) (a) etwas lax, dass x1 , . . . , xn ∈ V linear unabhängig sind. Entspre- chend heiÿt (14) (b), dass je endlich viele paarweise verschiedene Vektoren aus M linear unabhängig sind. (5.15) Beispiel. In K n sind die Standardeinheitsvektoren (s. (12)) linear unabhängig. Beweis. Also gilt Üb Pn = 0 für gewisse α1 , . . . , αn ∈ K . Nun ist (α1 , . . . , αn ) = 0 = (0, . . . , 0), d.h. α1 = 0, . . . , αn = 0. Sei i=1 αi ei Pn i=1 αi ei = (α1 , . . . , αn ), Zeige, dass Monome, Splines oder trigonometrische Monome linear unabhängige Mengen von Funktionen bilden. (5.16) s. (12). Lemma zur linearen Unabhängigkeit 1. Es sind äquivalent: (i) (ii) (iii) x1 , . . . , xn sind linear unabhängig. Keiner der Vektoren xi ist Linearkombination der anderen. Die Darstellung eines Vektors als Linearkombination der xi ist eindeutig. 26 Beweis. P Pn ⇒ (ii): Angenommen xi0 = i=1,i6=i0 βi xi mit βi ∈ K . Setze βi0 := −1. Dann ist n i xi = 0, wobei (β1 , . . . , βn ) 6= 0. Das ist ein Widerspruch zu (i). (ii) ⇒ (i): Angenommen i=0 β P n es ist i=0 αi xi = 0 mit (α1 , . . . , αn ) 6= 0. Dann existiert i0 mit ai0 6= 0. Damit folgt (i) xi0 = n X −αi xi αi0 i=1,i6=i0 P P P ⇒ (iii): Sei x ∈ V mit ni=1 αi xi = ni=1 βi xi . Dann ist ni=1 (αi − βi )xi P= 0, weshalb αi − βi = 0 für alle i wegen (i), was (iii) bedeutet. (iii)⇒ (i): Wäre 0 = ni=1 αi xi mit (α1 , . . . , αn ) 6= 0, dann hätte 0 ∈ V zwei verschiedene Darstellungen als Linearkombination der xi im Widerspruch zu (iii). im Widerspruch zu (ii). (i) Insbesondere gilt für linear unabhängige Vektoren x1 , . . . , xn , dass kein xi = 0 ist und dass die xi paarweise verschieden sind. Beides reicht aber natürlich nicht für die lineare Unabhängigkeit, denn z.B. für x1 ∈ V \ {0}, α ∈ K \ {0, 1} ist x1 6= αx1 =: x2 6= 0 und dennoch x1 + − α1 x2 = 0. Allgemeiner als (16) ist das folgende Lemma. (5.17) Lemma zur linearen Unabhängigkeit 2. Seien V ein VR und M ⊂ V . Dann sind äquivalent: (i) (ii) M ist linear unabhängig. Keiner der Vektoren x ∈ M ist Linearkombination der Vektoren aus M \ {x}. Die Darstellung eines Vektors als Linearkombination von Vektoren aus M ist eindeutig. P Beweis. Jedes y ∈ Span M läÿt sich in der Form y = x∈M αx x schreiben, wobei αx ∈ K und αx 6= 0 nur für endlich viele x ∈ M . Damit ist die Summe wohldeniert. Diese Schreibweise ist sehr (iii) bequem. P y = x∈M βx x mit βx ∈ K \ {0} nur für endlich viele x ∈ M . Dann ist 0 = x∈M (αx − βx )x. Weil M linear unabhängig ist, folgt αx − βx = 0 ∀ x ∈ M . P (iii) ⇒ (i): Wäre 0 = x∈M αx x mit {x ∈ M : αx ∈ K \ {0}} endlich aber nicht leer, dann hätte 0 ∈ Span M zwei verschiedene Darstellungen im Widerspruch zu (iii). ⇒ P (i) (i) (5.18) (5.19) ⇔ (iii): Sei nun auch (ii): Der Beweis verläuft wie der zu (16), (i) Basis. Sei V ein VR und M ⊂V. Dann heiÿt • M ist linear unabhängig • M ist eine Erzeugendenmenge von ⇔ (ii). M eine Basis von V, wenn gelten: V. Standardbasis des K n . Die Menge der Standardeinheitsvektoren e1 , . . . , en ist eine Basis. Das folgt aus (12),(15). (5.20) Standardbasis des K (X) . Sei X 6= ∅ eine Menge. Zu y ∈ X betrachte ey : X → K , ey (x) := 1 falls x = y und = 0 sonst. Dann ist {ey : y ∈ X} eine Basis von K (X) . Üb (5.21) Weise (20) nach. Basiskoordinaten. Es ist M ⊂ V genau dann eine Basis von V , wenn jeder Vektor eine eindeutige Darstellung als Linearkombination von Vektoren aus M hat, d.h. wenn es zu jedem y ∈ V eindeutige αx ∈ K für x ∈ M mit αx = 0 bis auf endlich viele x ∈ M gibt derart, P dass y = x∈M αx x. Die zu y ∈ V eindeutig bestimmten Koezienten αx , x ∈ M , sind die Koordinaten von y bez. der Basis M . 27 Beweis. M Ist eine Basis, dann folgt die Behauptung aus Umgekehrt gilt ebenfalls (5.22) V = Span M . V = Span M und (17), (i)⇒(iii). Wende (17), (iii)⇒(i) an. Beispiel. Für x = (x1 , . . . , xn ) ∈ K n sind x1 , . . . , xn die Koordinaten von x bez. der Standardbasis. (5.23) Basisergänzungssatz. Seien x1 , . . . , xn ∈ V linear unabhängig. Weiter seien y1 , . . . , ym ∈ V derart, dass Span {x1 , . . . , xn , y1 , . . . , ym } = V . Dann lassen sich die x1 , . . . , xn durch Hinzunahme von Vektoren aus {y1 , . . . , ym } zu einer Basis von V ergänzen. Beweis. Ist bereits Span {x1 , . . . , xn } = V , dann gilt die Behauptung. Andernfalls ist {y1 , . . . , ym } 6⊂ Span {x1 , . . . , xn } nach (13) (a). Sei j1 ∈ {1, . . . , m} der kleinste Index mit / Span {x1 , . . . , xn }. yj1 ∈ Dann gelten: (a) x1 , . . . , xn , yj1 sind linear unabhängig. (b) Span {x1 , . . . , xn , yj1 , yj1 +1 , ym } =V. Pn Zum Nachweis von (a) nehme an, dass ( i=1 αi xi )+βyj1 = 0 mit (α1 , . . . , αn , β) 6= (0, . . . , 0). Dann Pn . . . , 0) ist β 6= 0, weil sonst i=1 αi xi = 0 mit (α1 , . . . , αn ) 6= (0, im Widerspruch zur linearen UnPn −αi abhängigkeit von x1 , . . . , xn . Damit ist jedoch yj1 = xi ∈ Span {x1 , . . . , xn } im Wideri=1 β spruch zur Wahl von yj1 . Zum Nachweis von (b) beachte, dass {y1 , . . . , yj1 −1 } ⊂ Span {x1 , . . . , xn } und damit bereits V = Span {x1 , . . . , xn , yj1 , . . . , ym } nach (13) (a). Die Behauptung folgt nun, indem man dieses Argument höchstens m mal wiederholt. Üb Sei M ⊂V linear unabhängig und y∈V mit y∈ / Span M . Zeige: M ∪{y} ist linear unabhängig. Lösung. Seien x1 , . . . , xn in M ∪{y} paarweise verschieden. Ist xi ∈ MP ∀ i, dann sind x1 , . . . , xn n linear unabhängig nach Voraussetzung. Sei daher o.E. xn = y und i=1 αi xi = 0. Dann ist α = 0, weil sonst y ∈ Span {x1 , . . . , xn−1 } ⊂ Span M entgegen der Voraussetzung. Damit ist Pnn−1 i=1 αi xi = 0, woraus α1 = · · · = αn−1 = 0 folgt, weil M linear unabhängig ist. In einer etwas laxen Sprechweise sagt man, dass paarweise verschieden sind und (5.24) {x1 , . . . , xn } x1 , . . . , xn ∈ V eine Basis von V sind, wenn die xi eine Basis ist. Austauschlemma. Seien x1 , . . . , xn und y1 , . . . , xm Basen von V . Dann gibt es zu jedem i ∈ {1, . . . , n} ein j ∈ {1, . . . , m} derart, dass aus x1 , . . . , xn eine Basis entsteht, wenn xi durch yj ersetzt wird. Beweis. Ohne Einschränkung sei x1 ∈ V = Seien V ein VR, y ∈ Span M (5.25) und ⊂ i = 1. Dann ist {y1 , . . . , ym } 6⊂ Span {x2 , . . . , xn }, da sonst x1 ∈ / Span {x2 , . . . , xn }. Also existiert j ∈ {1, . . . , m} mit yj ∈ / Span {x2 , . . . , xn }. Daraus folgt, dass yj , x2 , . . . , xn linear unabhängig sind (s. Beweis von (a) in (23)). Es bleibt Span {yj , x2 , . . . , xn } = V zu zeigen. Pn Weil Span{x1 , . . . , xn } = V , gibt es α1 , . . . , αn ∈ K mit yj = i=1 αi xi . Dabei ist α1 6= 0, P n −α weil yj ∈ / Span {x2 , . . . , xn }. Damit gilt x1 = α11 yj + i=2 α1i xi . Also ist {x1 , x2 , . . . , xn } ⊂ Span {yj , x2 , . . . , xn }, woraus die Behauptung mit (13) (a) folgt. Üb Span {y1 , . . . , ym } Span {x2 , . . . , xn } im Widerspruch zu x, y ∈ V und M ⊂ V linear unabhängig. Zeige y∈ / Span M \ {x} ⇒ x ∈ Span ((M \ {x}) ∪ {y}). Endlich erzeugt. Ein VR V M von V gibt. Nach (23) die folgende Implikation: heiÿt endlich erzeugt, wenn es eine endliche Erzeugendenmenge Basisergänzungssatz enthält M eine Basis. 28 Üb Sei N ⊂ V, N 6= ∅, eine endliche Menge. Zeige: N enthält eine maximale linear unabhängige M , d.h. für jede linear unabhängige Menge M 0 mit M ⊂ M 0 ⊂ N gilt M = M 0 . Teilmenge (5.26) Dimension. Sei V ein endlich erzeugter VR. Dann sind alle Basen von V endlich mit gleicher Anzahl von Elementen. Diese heiÿt die Dimension von V und wird mit dim V bezeichnet. Beweis. Nach (25) besitzt V eine endliche Basis x1 , . . . , xn . y1 , . . . ym ∈ V eine weitere endliche Basis. Angenommen n > m. Nach (24) kann jedes xi gegen ein yj ausgetauscht werden. Es entsteht eine Basis, in der ein yj zweimal vorkommt (da n > m). Dies ist ein Widerspruch. Ebenso wird m > n ausgeschlossen. Also ist m = n. (a) Sei (b) Seien nun = V, y1 , . . . , y r ∈ V linear unabhängig. Da Span {y1 können nach (23) die werden. Mit (a) folgt daher y1 , . . . , y r r ≤ n. . . . , yr , x1 , . . . , xn } ⊃ Span {x1 , . . . , xn } x1 , . . . , xn zu einer Basis ergänzt durch Vektoren aus Aus (a) und (b) folgt die Behauptung. (5.27) Unendlich dimensional. Ein VR V V erzeugt ist. Andernfalls heiÿt heiÿt endlich dimensional genau dann, wenn er endlich unendlich dimensional und man setzt dim V (5.28) Beispiel. Sei V ein K -VR und x ∈ V , x 6= 0. Dann ist dim Kx = 1. (5.29) Beispiel. Wegen ist dim K n = n. Insbesondere ist jedes M ⊂ K n mit mehr als n Elementen linear abhängig. (19) W ⊂ Rn Üb Man bestimme die Dimension der Hyperebene Üb Basis ist eine minimale Erzeugendenmenge. folgende Äquivalenz: in (3). Sei V ein VR und N ⊂ M ⊂ V . Zeige M ist Basis von V ⇔ Span M = V und Span N 6= V falls N 6= M . Üb Basis ist eine maximale linear unabhängige Menge. Üb Seien V ein VR und M ⊂ N ⊂ V . Zeige die folgende Äquivalenz: M ist Basis von V ⇔ M ist linear unabhängig und N ist linear abhängig falls M 6= N . V ein VR und W ⊂V ein UVR. Zeige, dass dim W • dim V < ∞, W 6= V ⇒ dim W < dim V . • dim V < ∞, dim W Seien V ein VR und U, W W 6= V und dim W Weiter zeige: = dim V (= ∞). + W ) + dim (U ∩ W ) = dim U + dim W = ∞ oder dim W N ∪ {0}, ∞ + ∞ = ∞. Insbesondere folgt {0} ⇔ dim (U + W ) = dim U + dim W. Jeder VR ≤ dim V . UVR. Zeige die folgende Dimensionsformel dim (U auch für den Fall dim U Sei = dim V ⇒ W = V . Schlieÿlich nde ein Beispiel mit Üb := ∞. = ∞, ∞+n = ∞ ∀ n ∈ dim W < ∞: U ∩ W = wenn man vereinbart im Fall dim U <∞ und 6= {0} hat eine Basis. Um dies beweisen zu können, benötigt man ein mengentheoretisches Hilfsmittel, das sog. Zornsche Lemma, was äquivalent zum Auswahlaxiom ist. 29 (5.30) Halbordnung. Sei X eine Menge. Eine Halbordnung Eigenschaften. Für alle • x≤x x, y, z ∈ X ≤ auf X ist eine Relation mit folgenden gilt: (Reexivität) • x ≤ y, y ≤ x ⇒ x = y (Antisymmetrie) • x ≤ y, y ≤ z ⇒ x ≤ z (Transitivität) Y ⊂ X . Dann heiÿt Y total geordnet oder eine Kette, wenn für alle y, y 0 ∈ Y stets gilt y ≤ y 0 oder y 0 ≤ y . Sei Y ⊂ X . Dann heiÿt a ∈ X eine obere Schranke von Y , wenn y ≤ a für alle y ∈ Y . Ein Element b ∈ X ist ein maximales Element von X , wenn aus x ∈ X und b ≤ x folgt x = b. Sei (5.31) Beispiel. Sei X 6= ∅ eine Menge. Oensichtlich ist die gewöhnliche Mengeninklusion ⊂ eine S Halbordnung auf P(X). Sei Y ⊂ P(X). Dann ist A := {Y : Y ∈ Y} eine obere Schranke von Y . K := {{1, . . . , n} : n ∈ N} ist eine Kette in P(N). Im allgemeinen hat nicht jede Teilmenge einer halbgeordneten Menge, auch nicht eine Kette, eine obere Schranke. (5.32) (5.33) Zornsches Lemma. Eine nichtleere halbgeordnete Menge, in der jede Kette eine obere Schranke besitzt, hat ein maximales Element. Basisexistenzsatz. Jeder VR V 6= {0} besitzt eine Basis. Beweis. Sei L die Menge aller linear unabhängigen Teilmengen in V . Ist x ∈ V \ {0}, dann ist {x} L 6= S ∅. L ist halbgeordnet mit der Mengeninklusion. K ∈ L eine Kette. Setze L := {K : K ∈ K}. Dann ist K ⊂ L ∀ K ∈ K. Zeige zunächst, dass L linear unabhängig ist. Dazu seien x1 , . . . , xn ∈ L paarweise verschieden. Dazu existieren Ki ∈ K mit xi ∈ Ki für i = 1, . . . , n. Weil K eine Kette ist, gibt es ein K ∈ {K1 , . . . , Kn } mit Ki ⊂ K und somit xi ∈ K für i = 1, . . . , n. Da K ∈ L, sind x1 , . . . , xn linear unabhängig. Dies beweist, dass L ∈ L eine obere Schranke für K ist. Somit existiert nach (32) ein maximales Element M in L. Dies ist eine Basis von V . Dazu bleibt zu zeigen, dass M eine Erzeugendenmenge von V ist. 0 Angenommen es ist Span M 6= V . Sei y ∈ V \ Span V . Dann ist aber M := M ∪ {y} linear unabhängig (s. Üb. nach (23)). Dies ist ein Widerspruch zur Maximalität von M . linear unabhängig und damit ist Sei Üb Basisergänzungssatz. Sei V 6= {0} ein VR. Seien weiter L ⊂ V N⊂ V derart, dass Span (L ∪ N ) = V . Zeige: Es existiert eine Basis M von V mit L ⊂ M ⊂ L ∪ N . Tipp: Betrachte L := {X ⊂ V : L ⊂ X ⊂ L ∪ N, X geninklusion als partielle Ordnung. 30 linear unabhängig und ist linear unabhängig} mit der Men- 6 Lineare Abbildungen Lineare Abbildungen stehen im Mittelpunkt aller unseren weiteren Untersuchungen. Seien W KVR. Eine Abbildung f : V 7→ W • f (x + λx0 ) = f (x) + λf (x0 ) Es folgen sofort n X • f f (0) = 0 ! αi xi = i=1 heiÿt linear, wenn für alle V und x, x0 ∈ V, λ ∈ K. und mit Induktion n X αi f (xi ) für alle n ∈ N, αi ∈ K, xi ∈ V. i=1 Beispiele und grundlegende Eigenschaften (6.1) Beispiel. V = W und α0 ∈ K . Setze f : V → V, f (x) := α0 x. Dann ist f linear, denn f (x + λy) = αo (x + λy) = α0 x + λα0 y, f (x) = α0 x, f (y) = α0 y und daher f (x + λy) = f (x) + λf (y). Man nennt f eine Homothetie. Sei nach Denition ist (6.2) Beispiel. Sei f : K → K linear. Dann existiert α0 ∈ K mit f (z) = α0 z für alle z ∈ K , denn, weil f linear ist, gilt f (z) = f (z1) = zf (1) = f (1)z = α0 z für alle z∈K mit α0 := f (1). (6.3) Projektion in K n . (6.4) Beispiel. Die Abbildung f : C3 → C3 , f (x1 , x2 , x3 ) := (x2 , 0, x1 ), ist linear, denn i ∈ {1, . . . , n}. Die Projektion auf die i-te Komponente pri : K n → K, pri (x) := xi ist linear, denn wegen x+λy = (x1 , . . . xn )+λ(y1 , . . . , yn ) = (x1 +λy1 , . . . , xn + λyn ) ist pri (x + λy) = xi + λyi = pri (x) + λpri (y). Sei (x1 , x2 , x3 ) + λ(y1 , y2 , y3 ) = (x1 + λy1 , x2 + λy2 , x3 + λy3 ) f↓ f↓ f↓ (x2 , 0, x1 ) + λ(y2 , 0, y1 ) = (x2 + λy2 , 0, x1 + λy1 ) ist oenbar richtig. Üb Translationen sind nicht linear. V → V, ta (x) := x + a Seien die Translation um V a. ein VR und a ∈ V \ {0} fest. Dann heiÿt ta : Sie ist nicht linear, denn ta (2x) = 2x + a, 2ta (x) = 2(x + a) = 2x + 2a ⇒ ta (2x) 6= 2ta (x). a6=0 Üb RR (s. (4.16)) sind die Vektorraumverknüpfungen punktweise deniert, d.h. für f, g ∈ λ ∈ R ist denitionsgemäÿ (f + λg)(x) = f (x) + λg(x) für alle x ∈ R. Sei ϕ ∈ RR fest. R R Zeige, dass F : R → R , (F (f ))(x) := ϕ(x)f (x) für alle x ∈ R, linear ist. Man schreibt auch kurz F (f ) = ϕf . Im VR RR , Lösung. (F (f + λg))(x) = ϕ(x)(f + λg)(x) = ϕ(x)(f (x) + λg(x)) = ϕ(x)f (x) + λϕ(x)g(x) = (F (f ))(x) + λ(F (g))(x) ∀ x ∈ R, weshalb F (f + λg) = F (f ) + λF (g). 31 Üb X, Y Seien V := K X , W := K Y die in (4.16) denierten VR mit Verknüpfungen. Weiter sei ϕ : Y → X eine Abbildung. Zeige: nichtleere Mengen und den punktweise denierten F : V → W, F (f ) := f ◦ ϕ ist wohldeniert und eine lineare Abbildung. Lösung. Für f ∈ f ◦ ϕ ∈ K Y . Daher ist F wohldeniert. Weiter ist F (f + λg) = (f + λg)◦ϕ. Weil ((f +λg)◦ϕ)(x) = (f +λg)(ϕ(x)) = f (ϕ(x))+λg(ϕ(x)) = (f ◦ϕ)(x)+λ(g ◦ϕ)(x) ∀ x ∈ X ist (f + λg) ◦ ϕ = f ◦ ϕ + λ(g ◦ ϕ) = F (f ) + λF (g). K X ist (6.5) Lineare Fortsetzung. Seien x1 , . . . , xn eine Basis in V und y1 , . . . , yn Vektoren aus W . Dann gibt es genau eine lineare Abbildung f : V → W derart, dass f (xi ) = yi für alle i ∈ {1, . . . , n}. Beweis. . Sei x ∈ V . Pnf, g : V → W linear mit f (xi ) = g(xi ) = yi ∀iP n α x . Weil f und g linear sind, folgt f (x) = f ( α ∈ K mit x = iP i=1 αi xi ) = Pn Pn i=1 i i Pn n i=1 αi g(xi ) = g ( i=1 αi xi ) = g(x). Weil x ∈ V beliebig ist, folgt i=1 αi yi = i=1 αi f (xi ) = f = g. Zur Existenz beachte, dass obige Koordinaten αi ∈ K von x ∈ V bez. der Basis x1 , . . . , xn Pn Pn eindeutig bestimmt sind. Ausgehend von x = i=1 αi xi setze f : V → W, f (x) := i=1 αi yi . Damit ist f wohldeniert und f (xi ) = yi ∀i. Es bleibt die Lineraität von f zu zeigen: ! ! n n n X X X 0 0 0 f (x + λx ) = f αi xi + λ αi xi = f (αi + λαi )xi . Zur Eindeutigkeit seien Dann gibt es i=1 Letzteres ist nach Denition von n X f i=1 i=1 gleich (αi + λαi0 )yi = i=1 n X αi yi + λ i=1 n X αi0 yi , i=1 was wieder denitionsgemäÿ gleich ist n X f i=1 ! αi xi + λf n X ! αi0 xi = f (x) + λf (x0 ). i=1 Üb Seien V, W K-VR, M ⊂V eine Basis von V Dann gibt es genau eine lineare Abbildung Untersuche, wann f und (yx )x∈M f : V → W (irgend)eine Familie in mit f (x) = yx W . Zeige: x ∈ M. für alle injektiv, surjektiv oder bijektiv ist. V, W K-VR V . Ist ϕ : M → W (irgend)eine Abbildung, dann existiert genau eine f : V → W von ϕ, d.h. f linear mit f |M = ϕ. Insbesondere ist eine lineare Die Aussage von (5) und, allgemeiner, obiger Übung läÿt sich auch so ausdrücken: Seien und M ⊂V eine Basis von lineare Fortsetzung Abbildung durch ihre Werte auf einer Basis bereits eindeutig bestimmt. Üb (6.6) x1 := (1, 1, 1), x2 := (i, 1, 1), x3 := (0, i, 0) bilden eine Basis in C3 . Weiter seien y1 := (5i, 0, 1), y2 := (0, 0, 0), y3 := (0, 1 + i, 0). Nach (5) gibt es genau eine lineare Abbildung von 3 3 C in C mit f (xi ) = yi für i = 1, 2, 3. Man berechne f (i, 1, i + 1) . Zeige: Bild und Kern. −1 ({0}) und f (6.7) f : V → W linear. Dann heiÿen f (V ) =: =: Kern (f ) ⊂ V der Kern von f . Sei Lemma. Bild(f ) bzw. Kern(f ) ist ein UVR von W bzw. V. 32 Bild (f ) ⊂W das Bild von f Beweis. f (0) = 0 ∈ Bild (f ). Seien y, y 0 ∈ Bild (f ). Dann existieren x, x0 ∈ V mit f (x) = y, f (x0 ) = y 0 . Mit λ ∈ K folgt für x + λx0 ∈ V wegen der Linearität f (x + λx0 ) = f (x) + λf (x0 ) = y + λy 0 ∈ Bild (f ). Also ist Bild(f ) ein UVR von W . Für den Kern (f ) = f −1 ({0}) = {x ∈ V : f (x) = 0} ist 0 ∈ Kern (f ) oensichtlich. Seien x, x0 ∈ Kern (f ) und λ ∈ K . Dann ist f (x + λx0 ) = f (x) + λf (x0 ) = 0 + λ0 = 0, weshalb x + λx0 ∈ Kern (f ). Also ist Kern (f ) ein UVR von V. Es ist Allgemeiner gilt (6.8) Lineares Bild und Urbild. Seien f : V → W linear und V 0 ⊂ V und W 0 ⊂ W UVR. Dann ist f (V 0 ) ein UVR von W und f −1 (W 0 ) ein UVR von V. Üb (6.9) Weise (6.8) nach. Rang einer linearen Abbildung. Sei f : V → W der Rang von f surjektiv Beweis. Zur nicht trivialen Richtung ⇐ dim W , ist nach (5.23), (5.26) (6.10) linear. Dann heiÿt Rang (f ) := dim Bild (f ) f . Sei dim W < ∞. Dann gilt: y1 , . . . , y r sei ⇐⇒ Rang(f ) y1 , . . . , y r = dim W. (f ). Da r = Rang (f ) = damit Bild (f ) = W. eine Basis von Bild bereits eine Basis von W und Injektivitätskriterium. Sei f : V → W linear. Dann gilt: f injektiv ⇐⇒ Kern (f ) = {0}. Beweis. ⇒ Sei x ∈ Kern (f ). Dann ist f (x) = 0. Es ist auch f (0) = 0. Weil f injektiv ist, folgt x = 0. ⇐ Seien x, x0 ∈ V mit f (x) = f (x0 ). Dann ist 0 = f (x) − f (x0 ) = f (x − x0 ). Weil nun 0 0 Kern (f ) = {0}, ist x − x = 0, d.h. x = x . (6.11) Beispiel. Die Abbildung f : K n → K m , f (x1 , . . . , xn ) := ( ist linear mit Rang(f ) = 1 und dim Kern(f ) = n − 1. Pn i=1 xi , Pn i=1 xi , . . . , Pn i=1 xi ) Beweis. Die Linearität ist leicht nachzuweisen. Oenbar ist Bild(f ) = K(1, 1, . . . , 1). Daher ist Rang(f ) = 1. Jetzt wird dim Kern(f ) = n − 1 gezeigt. Es ist Kern(f ) = {(x1 , . . . , xn ) ∈ K n : Pn i=1 xi = 0}. Für n = 1 ist Kern(f ) = {0}. Sei nun n > 1. Oenbar liegen x1 := (1, −1, 0, . . . , 0), x2 := (1, 0, −1, 0, . . . , P 0), . . . , xn−1 :=P(1, 0, . . . , 0, −1) in Kern(f ). Weiter sind x1 , . . . P , xn−1 linen−1 n−1 n−1 α , −α , . . . , −α ) = (0, . . . , 0) impliziert α x = ( ar unabhängig, denn 2 n i=1 αi = i=1 i i i=1 i 0, α2 = · · · = αn = 0 und somit auch α1 = 0. Damit ist dim Kern (f ) ≥ n − 1. Andererseits ist n Kern (f ) 6= K , weil z.B. (1, 0, . . . , 0) ∈ / Kern(f ), weshalb dim Kern(f ) < n. In diesem Beispiel ist dim Kern(f ) + Rang(f ) = dim K n. Das ist ein allgemeiner Sachverhalt, s. (14). Üb Untersuche Bild und Kern für die bisher betrachteten linearen Abbildungen Homothetie ite f Projektion aus (4) F : RR → RR , F (f ) = ϕf F : K X → K Y , F (f ) = f ◦ ϕ 33 (6.12) Lemma. Seien V, W VR, M ⊂ V und f : V → W linear. Dann gilt: f (Span M ) = Span f (M ). Insbesondere ist f (M ) eine Erzeugendenmenge von W , wenn M eine solche von V ist und f surjektiv ist. Beweis. Seien x1 , . . . , xn ∈ M und α1 , . . . , αn ∈ K . Dann gilt Daraus folgt unmittelbar die Behauptung. (6.13) P Pn f ( ni=1 αi xi ) = i=1 αi f (xi ). Lemma. Seien V, W VR und f : V → W linear und injektiv. Weiter seien x1 , . . . , xn linear unabhängig in V . Dann sind f (x1 ), . . . , f (xn ) linear unabhängig in W . Beweis. Sei P P = 0 für αi ∈ K . Dann folgt: f ( ni=1 αi xi ) = 0 ⇒ ni=1 αi xi = 0 (weil f injektiv ist) ⇒ (α1 , . . . , αn ) = 0 (weil x1 , . . . , xn linear unabhängig sind). Also sind f (x1 ), . . . , f (xn ) linear unabhängig. (6.14) Pn i=1 αi f (xi ) Dimensionsformel. Sei dim V < ∞ und f : V → W linear. Dann gilt: dim Beweis. Weil V V = Rang(f ) + dim Kern(f ). endlich erzeugt ist, ist wegen (12) auch Bild(f ) endlich erzeugt. Damit ist Rang(f ) ∞. Sei y1 , . . . , yr eine Basis von Bild(f ). xr+1 , . . . , xr+s eine Basis von Kern(f ) ⊂ V . Wähle xi ∈ r+s X αi xi ⇒ 0 = f (0) = r+s X i=1 αi f (xi ) = i=1 {yi } Es bleibt zu zeigen, dass ist. Zunächst zeigen wir die lineare Unabhängigkeit der 0= f −1 r X < für i = 1, . . . , r . Weiter sei x1 , . . . , xr+s eine Basis von V xi : αi f (xi ) + 0 = i=1 r X αi yi ⇒ α1 = α2 = · · · = αr = 0 i=1 Pr+s y1 , . . . , yr linear unabhängig sind. Damit ist 0 = i=r+1 αi xi , woraus auch αr+1 = · · · = αr+s = 0 folgt, weil xr+1 , . . . , xr+s linear unabhängig sind. Pr Jetzt wenden wir uns dem Span der xi zu. Sei x ∈ V . Dann ist f (x) = j=1 αj yj mit bestimmten P αj ∈ K , da y1 , . . . , yr eine Basis des Bildes sind. Nun betrachte x0 := ri=1 αi xi . Dafür folgt weil f (x − x0 ) = f (x) − f (x0 ) = r X r r r X X X αj yj − f ( αi xi ) = αj yj − αi f (xi ) = 0, j=1 i=1 j=1 i=1 P f (xi ) = yi . Deshalb ist x − x0 ∈ Kern(f ) und somit x − x0 = r+s i=r+1 αi xi mit gewissen αi ∈ K . P P r+s r+s 0 Also ist x = x + α x = α x . Das beweist Span {x , . 1 . . , xr+s } = V . i=r+1 i i i=1 i i weil Sehen wir uns den Beweis von (14) genauer an. Der UVR U+ Kern (f ) =V und U∩ Kern (f ) U := Span {x1 , . . . , xr } erfüllt = {0}, V = Span {x1 , . . . , xr+s } ⊂ Span U ∪ Kern (f ) = U + Kern (f ) ⊂ V , und U ∩ Kern (f ) = Span {x1 , . . . , xr } ∩ Span {xr+1 , . . . , xr+s } = {0}, weil x1 , . . . , xr+s linear unabhängig sind. denn (6.15) Direkte Vektorraumsumme. Ein VR V U + U0 = V Man nennt U und (bzw. U 0) heiÿt die direkte Summe der UVR U und U 0 , wenn U ∩ U 0 = {0}. Komplement von U ein VR 34 (bzw. U 0) und schreibt V = U ⊕ U 0. Beispiel. (a) R2 = G 1 ⊕ G2 (b) R3 = E ⊕ G (6.16) für je zwei verschiedene Geraden durch den Ursprung. für jede Ebene E und Gerade G, die den Ursprung enthalten und wofür G 6⊂ E. Lemma. Sei V = U ⊕ U 0 . Dann existieren zu jedem x ∈ V eindeutige Vektoren u ∈ U, u0 ∈ U 0 mit x = u + u0 . Beweis. u, u0 folgt aus U + U 0 = V . Zur Eindeutigkeit seien v ∈ U und v 0 ∈ U 0 0 0 0 0 0 0 derart, dass ebenfalls x = v + v . Dann ist u − v = v − u , wobei u − v ∈ U und v − u ∈ U . Daher 0 0 0 0 folgt u − v = v − u = 0, d.h. u = v und u = v . Die Existenz von Wendet man (16) auf die Situation in (14). an, so folgt, dass fU : U → Bild(f ), fU (x) := f (x) eine lineare Bijektion ist, d.h. ein sog. Isomorphismus (21). Üb Seien dim V. V < ∞ und f : V → W linear. Sei weiter U ein VR-Komplement fU : U → Bild (f ), fU (x) := f (x) ein Isomorphismus (21) ist. von Kern(f ) in Zeige, dass Es folgt ein wichtiges Korollar zu (14). (6.17) Korollar. Seien dim V = dim W < ∞ und f : V → W linear. Dann gilt: f Beweis. injektiv ⇐⇒ f surjektiv Es gelten allgemein: dim Kern(f ) =0 f ⇐⇒ f surjektiv bijektiv. ⇔ Rang(f ) = dim V (nach (9)), und f injektiv (nach (10)). Die Behauptung folgt daher aus der Dimensionsformel (14). ⇔ Die lineare Gleichung f (x) = b Sei f :V →W linear und b ∈ W. Die Gleichung inhomogen. Die Menge aller Lösungen x ∈ V f (x) = b der Gleichung Im Fall der homogenen Gleichung ist daher f (x) = 0 ⇐⇒ x ∈ heiÿt Kern (f ). 35 homogen, wenn b = 0, ansonsten f (x) = b ist denitionsgemäÿ f −1 ({b}). Die homogene Gleichung hat stets (mindestens) eine Lösung, nämlich lich, dass die Gleichung b∈ f (x) = b genau dann lösbar x = 0. Allgemein gilt natür- ist, d.h. (mindestens) eine Lösung hat, wenn Bild (f ). (6.18) Lösungsmenge. Sei f : V → W linear und b ∈ Bild (f ). Weiter sei x0 ∈ V f (x) = b. Dann gilt für die Lösungsmenge f −1 ({b}) = x0 + Alle Lösungen x∈V eine Lösung von Kern (f ). von f (x) = b sind also von der Form x = x0 + z , wobei spezielle oder partikuläre Lösung der inhomogenen Gleichung ist und z x0 eine sog. alle Lösungen der homogenen Gleichung durchläuft. Beweis. x = x0 + z eine Lösung, denn f (x) = f (x0 + z) = f (x0 ) + f (z) = f (x0 ) = b. Umgekehrt sei x ∈ V eine Lösung, d.h. f (x) = b. Da auch f (x0 ) = b, folgt: f (x) = f (x0 ) ⇒ 0 = f (x) − f (x0 ) = f (x − x0 ) ⇒ x − x0 =: z ∈ Kern (f ). (6.19) Es ist Korollar. Sei dim V = dim W < ∞. Dann sind äquivalent: (a) Die inhomogene Gleichung f (x) = b hat für jedes b ∈ W eine Lösung. (b) Die homogene Gleichung f (x) = 0 hat nur die triviale Lösung x = 0. Gilt (a) oder Lösung. Beweis. (b), dann hat die inhomogene Gleichung f (x) = b für jedes b ∈ W genau eine (a) bedeutet, dass f (17). Die restliche Behauptung besagt die Bijektivität (6.20) f von f surjektiv ist und (b), dass Aner Unterraum. Seien V ein VR, U ⊂V injektiv ist. Die Äquivalenz gilt nach und folgt somit auch aus (17). ein UVR und a∈V. Dann nennt man a + U := {a + x : x ∈ U } einen anen Unterraum von V. Ist u ∈ U, a + U = (a + u) + U . x0 + Kern (f ). dann ist oenbar ane Unteraum Die Lösungsmenge von f (x) = b ist also der Isomorphismen (6.21) Isomorphismus. Seien V, W VR. Eine Abbildung f : V → W heiÿt (VR)Isomorphismus, f linear und bijektiv ist. V und W heiÿen isomorph, wenn es einen Isomorphismus f : V → W gibt. Man schreibt V ' W. wenn (6.22) Lemma. Es gilt: f Isomorphismus ⇒ f −1 Isomorphismus. Beweis. f −1 seien y, y 0 ∈ W, λ ∈ K : f (f −1 (y + λy 0 )) = y + λy 0 , f (f −1 (y) + λf −1 (y 0 )) = f (f −1 (y)) + λf (f −1 (y 0 )) = y + λy 0 ⇒ f −1 (y + λy 0 ) = f −1 (y) + λf −1 (y 0 ). (6.23) Zur Linearität von Isomorphes Bild einer Basis. Seien f : V → W linear und M ⊂ V eine Basis. Dann ist f genau dann ein Isomorphismus, wenn f |M injektiv und f (M ) eine Basis ist. 36 Beweis. f |M injektiv und f (M ) eine Basis. Dann ist f surjektiv nach (12). Zur Injektivität betrachte x ∈ Kern (f ). Weil Pn M eine Basis ist,Pist x = i=1 αi xi mit αi ∈ K und paarweise verschiedenen xi ∈ M . Damit n ist 0 = f (x) = i=1 αi f (xi ), wobei f (xi ) paarweise verschiedene Basiselemente sind. Es folgt (α1 , . . . , αn ) = (0, . . . , 0) und somit x = 0. Nach (10) ist f injektiv. (6.24) Sei f ein Isomorphismus. Die Behauptung folgt aus (12), (13). Sei nun Korollar. Seien V, W VR und dim V < ∞ Dann gilt: V ' W ⇐⇒ Beweis. ⇒ dim V = dim W. f : V → W . Sei x1 , . . . , xn eine Basis von V mit n = dim V. Nach (23) ist f (x1 ), . . . , f (xn ) eine Basis in W , womit dim V = dim W . ⇐ Es existieren Basen x1 , . . . , xn und y1 , . . . , yn von V bzw. W mit n = dim V = dim W . Nach (5) gibt es eine lineare Abbildung f : V → W mit f (xi ) = yi für i = 1, . . . , n. Nach (23) ist f ein Isomorphismus. Üb Seien Es gibt einen Isomorphismus V, W VR und sind isomorph, wenn (6.25) M ⊂ V bzw. N ⊂ W eine Basis M und N gleichmächtig sind. von V bzw. von W. Zeige: V und Korollar. Sei V ein K-VR mit dim V < ∞ und n ∈ N. Dann gilt: V ' K n ⇐⇒ n = dim V. Beweis. Die Aussage folgt aus (24) wegen.(5.29). Üb (6.26) V ein K-VR und M ⊂ V mit ey aus (5.20). Sei Korollar. Seien dim V = eine Basis. Zeige: V ' K (M ) . Tipp: Betrachte y 7→ ey für y∈M < ∞ und f : V → W linear. Dann ist f ein Isomorphismus genau dann, wenn f injekiv oder surjektiv ist. dim W Beweis. Wende (17) an. (6.27) W Lemma. Seien V , V 0 , W und W 0 VR, f : V → W linear, sowie s : V → V 0 und t : W → W 0 Isomorphismen. Setze f 0 := t ◦ f ◦ s−1 . Dann ist f 0 surjektiv bzw. injektiv genau dann, wenn f surjektiv bzw. injektiv ist, und es gelten: Rang(f 0 Üb Beweise (27). Üb Sei V ein ) = Rang(f ) und K VR, X dim Kern(f eine Menge und 0 )= dim Kern(f ). f :V →X eine Bijektion. Führe auf X eine abelsche Gruppenstruktur ein und deniere dazu eine Multiplikation mit Skalaren derart, dass K VR ist und f ein VRIsomorphismus. 37 X ein Mengen von linearen Abbildungen nach V und W W . ∗) (6.28) Lemma. Seien K-VR. Dann bezeichnet Hom Hom Verknüpfungen. (V, W ) die Menge aller linearen Abbildungen von V (V, W ) ist ein UVR von W V versehen mit den punktweise denierten VR Beweis. Seien f, g : V → W linear. Zu zeigen ist, dass f +λg für λ ∈ K linear ist: αx0 ) (f +λg)(x+αx0 ) = + = + λg(x + αx0 ) (nach Denition der VR-Verknüpfungen in W V ) = f (x) + αf (x0 ) λ(g(x) + αg(x0 )) (weil f und g linear sind) = (f (x) + λg(x)) + α(f (x0 ) + λg(x0 )) f (x + λf (x0 ) + (f + λg)(x) + α(f + λg)(x0 ) (nach Denition der VR-Verknüpfung in W V ). V oensichtlich linear und somit 0 ∈ Hom (V, W ). Nullabbildung 0 ∈ W (6.29) Schlieÿlich ist die Lemma. Seien V, W, U VR, f : V → W linear und g : W → U linear. Dann ist g ◦f : V → U linear. Üb Weise (29) nach. Aut (V von V (6.30) ) bezeichnet die Menge aller auf sich. Aut (V ) idV aber kein UVR. ∈ Aut (V ) und mit f, g ∈ Aut (V ) gilt: f ◦ g −1 ∈ Aut (V ). Beweis. Oensichtlich ist idV ∗) (V, V ), Automorphismengruppe. Aut (V ) bildet eine Untergruppe der symmetrischen Gruppe S(V ), d.h. ist Automorphismen von V , d.i. die Menge aller Isomorphismen ist eine Teilmenge von Hom f◦ ein Isomorphismus. Nach (22) ist g −1 g −1 linear und nach (2.23) bijektiv, also ein Isomorphismus. Hom steht für Homomorphismus. 38 ein Isomorphismus. Nach (29) 7 Matrizen Lineare Abbildungen zwischen endlichdimensionalen Vektorräumen können in eektiver Weise mittels Matrizen beschrieben werden. Die Abbildungsmatrix Seien V dizierte W und v1 , . . . , vn Basen K VR mit n := dim V und m := dim W . Weiter seien inw1 , . . . , wm von V bzw. W gegeben. Diese liegen den folgenden endlichdimensionale und Konstruktionen zugrunde. f : V → W Sei nun ten Basisvektors unter eine lineare Abbildung. Für jedes f m X f (vl ) = akl wk akl ∈ K f (vl ) des lwk , k = 1, . . . , m, ist das Bild eindeutig als Linearkombination der Basisvektoren darstellbar. Es existieren also eindeutig bestimmte Skalare (7.1) l = 1, . . . , n derart, dass l = 1, . . . , n. für k=1 a1l , . . . , aml sind die Koordinaten von f (vl ) bez. der Basis w1 , . . . , wm (s. (5.21)). l = 1, . . . , n. Sei nun x ∈ V beliebig. Seine Koordinaten bez. der Basis v1 , . . . , vn Anders ausgedrückt, Dies gilt für jedes seien (7.2) ∗) , d.h. ξ1 , . . . , ξn x= n X ξl vl . l=1 Entsprechend seien (7.3) f (x) = m X η1 , . . . , ηm †) die Koordinaten von f (x) bez. der Basis w1 , . . . , wm , d.h. ηk wk . k=1 ξ1 , .. . , ξn und η ? Nach (2), (1) 1 , . . . , ηm m n m n P P P P akl wk = ξl akl wk = akl ξl wk . Welcher Zusammenhang besteht zwischen den Koordinaten ist f (x) = f n P ξl vl = l=1 n P ξl f (vl ) = l=1 n P l=1 ξl m P k=1 k=1 l=1 k=1 l=1 Der Vergleich mit (3) zeigt (7.4) ηk = n X akl ξl für k = 1, . . . , m. l=1 Man beachte die unterschiedliche Stellung des Summationsindex in (1) und (4). Die in (4) schreibt man in der Form (7.5) η1 a11 a12 . . . a1n ξ1 η2 a21 a22 . . . a2n ξ2 .. = .. . . . . .. . . . . . . . . . ηm am1 am2 . . . amn ξn Dabei nennt man ξ1 .. ξ := . ξn ∗) †) ξ η xi eta 39 m Gleichungen Koordinatenvektor von x bez. der Basis v1 , . . . , vn . Entsprechend bildet man den Koordinatenvektor η . Koordinatenvektoren sind stets Spaltenvektoren. Durch Transponieren erhält man aus einem Spaltenvektor einen Zeilenvektor und umgekehrt: den ξ T := ξ1 . . . ξn , ξ1 . . . ξn T := ξ. Weiter nennt man a11 ... a1n . .. . A := (akl )k=1,...,m = ... . . l=1,...,n am1 . . . amn eine (m × n)-Matrix von Elementen aus K ak1 ak1 . . . akn lautet , die l-te m Zeilen und n Spalten. Die k -te Zeile bestehend aus Spalte lautet a1l .. . . aml Somit ist k der Zeilenindex und l der Spaltenindex. Die Gleichung (5) schreibt man kurz in der Form (7.6) η = A ξ. Die Gleichungen in (4) geben an, wie man eine ξ der Länge n (m × n)-Matrix A = (akl ) mit einem η der Länge m zu erhalten. Spaltenvektor multipliziert, um einen Spaltenvektor Beispiel. 7 4·1+0·2+1·3 4 0 1 1 −8 · 1 + 2 · 2 + 0 · 3 −4 −8 2 0 1 −1 0 2 = 1 · 1 − 1 · 2 + 0 · 3 = −1 . 3 10 3·1+2·2+1·3 3 2 1 A in (5), aus den Koordinaten des Vektors x ∈ V v1 , . . . , vn die Koordinaten des Bildvektors f (x) ∈ W bez. der Basis w1 , . . . , wm zu berechnen. A heiÿt die f darstellende Matrix oder die Abbildungsmatrix für f bez. der Basen v1 , . . . , vn in V und w1 , . . . , wm in W . Mit Hilfe dieser Multiplikation gestattet die Matrix bez. der Basis (7.7) Beispiel. Ist f : K n → K m aus den Koordinaten von in Kn und linear, dann ist die (m × n)-Matrix A, deren Spaltenvektoren al f (el ) bestehen, die Abbildungsmatrix von f bez. der Standardbasen K m. (m × n)-Matrizen über K mit m, n ∈ N wird mit K m×n ξ der Länge n ist eine (n × 1)-Matrix, d.h. ξ ∈ K n×1 . Die Menge der tenvektor (7.8) bezeichnet. Ein Koordina- Koordinatenabbildung, Koordinatenraum. Sei ϕ : V → K n×1 die Koordinatenabbildung bezüglich der Basis x= n X v1 , . . . , vn ϕ(x)l vl für von V, d.h. x ∈ V. l=1 P P P ϕ bijektiv. Wegen nl=1 ϕ(x + λx0 )l vl = x + λx0 = nl=1 ϕ(x)l vl + λ nl=1 ϕ(x0 )l vl ϕ(x + λx0 )l = ϕ(x)l + λϕ(x0 )l für jedes l = 1, . . . , n. Wir versehen K n×1 mit der Oenbar ist folgt 40 komponentenweise denierten Addition und skalaren Multiplikation (so wie K n×1 ein K -VR, der Koordinatenraum von V bez. der Basis v1 , . . . , vn , und K n ). Dann ϕ ist linear ist ϕ(x + λx0 ) = ϕ(x) + λϕ(x0 ). Somit ist ϕ mit der 1 an der l -ten Stelle für ϕ(vl ) = el für l = 1, . . . , n K m×1 W bezüglich der Basis el := T l = 1, . . . , n. Entsprechend gewinnt man den Koordinatenraum (7.9) bilden die 0 ... 0 1 0 ... 0 n×1 . Es gilt Standardbasis von K ein VR-Isomorphismus. Die Spaltenvektoren von und die Koordinatenabbildung ψ ‡) w1 , . . . , wm . Darstellung von f in Koordinaten. Mit Hilfe der Koordinatenabbildungen ϕ, ψ erhält fˆ := ψ ◦ f ◦ ϕ−1 . Sie ist die Darstellung von f in Koordinaten bezüglich der Basen v1 . . . , vn von V und w1 . . . , wm von W . Ist A die Abbildungsmatrix von f , dann gilt oenbar fˆ(ξ) = A ξ für alle ξ ∈ K n×1 . man aus f die lineare Abbildung Im Folgenden bezeichne (7.10) a1l al := ... aml den l -ten Spaltenvektor von A. Matrix als lineare Abbildung. Sei A ∈ K m×n . Dann ist LA : K n×1 → K m×1 , LA (ξ) := A ξ, eine lineare Abbildung, d.h. die Matrixmultiplikation erfüllt für ξ, ξ 0 ∈ K n×1 , λ ∈ K : A (ξ + λξ 0 ) = A ξ + λA ξ 0 . Es ist LA (el ) = A el = al für l = 1, . . . , n und A ist die Abbildungsmatrix für LA bez. der Standardbasen in K n×1 und K m×1 . Ist umgekehrt f : K n×1 → K m×1 linear, dann gilt f = LA , wobei A die f bez. der Standardbasen darstellende Matrix ist. Beweis. (A(ξ + λξ 0 ))k = n P l=1 für ‡) ψ k = 1, . . . , m. akl (ξ + λξ 0 )l = n P l=1 akl (ξl + λξl0 ) = Weiter gilt psi 41 n P l=1 akl ξl + λ n P l=1 akl ξl0 = (Aξ + λAξ 0 )k a11 . . . A el = am1 0 . a1l . . . a1n .. m X . . .. . . akl ek . . . 1 = . = al = .. k=1 aml . . . amn . 0 LA (el ) = al und A die Abbildungsmatrix zu LA (vgl. (1)). Schlieÿlich m P f (el ) = akl el . Dann ist f (el ) = A el = LA (el ) für alle l. Daher ist f = LA . Also ist sei, gemäÿ (1), k=1 Man deniert für jede Matrix naheliegenderweise Kern(A) := Kern(LA ), (7.11) Bild(A) := Bild(LA ), Rang(A) := Rang(LA ), usw. Spaltenraum und Rang einer Matrix. Sei A ∈ K m×n . Dann ist Bild(A) = Span{a1 , . . . , an }. Bild(A) auch der Spaltenraum von A. Insbesondere ist der Rang einer Matrix gleich der maximalen Anzahl ihrer linear unabhängigen Spaltenvektoren. Deswegen heiÿt Beweis. Mit (6.12) ist Bild(A) = LA (K n×1 ) = LA (Span{e1 , . . . , en }) = Span{LA (e1 ), . . . , LA (en )} = Span{a1 , . . . , an }. (7.12) Korollar. Sei A ∈ K m×n eine darstellende Matrix von f ∈ Hom(V, W ). Dann ist LA surjektiv bzw. injektiv genau dann, wenn f surjektiv bzw. injektiv ist, und es gelten: Rang(A) = Rang(f ), dim Kern(A) = dim Kern(f ). Beweis. Nach (9), (10) ist LA = fˆ = ψ ◦ f ◦ ϕ−1 . Wende (6.27) an. Linearkombination von Matrizen B ihre Abbildungsmatrix (s. (1)). Sei λ ∈ K . h := f + λg sei C P die Abbildungsmatrix. In welcher Beziehung stehen m A, B und C ? Nach ist einerseits h(vl ) = kl wk und andererseits h(vl ) = (f + λg)(x) = k=1 P(1) Pm Pcm m f (vl ) + λg(vl ) = a w + λ b w = k=1 kl k k=1 kl k k=1 (akl + λbkl )wk . Der Koezientenvergleich Sei g:V →W eine weitere lineare Abbildung und Für die Linearkombination ergibt (7.13) ckl = akl + λbkl für k = 1, . . . , m, l = 1, . . . , n. Alternativ zu dieser Herleitung gilt nach (9) fˆ + λĝ . f\ + λg = ψ ◦(f +λg)◦ϕ−1 = ψ ◦f ◦ϕ−1 +λψ ◦g ◦ϕ−1 = Das bedeutet nach (9) C ξ = A ξ + λB ξ ∀ ξ ∈ K n×1 . ξ = el ein, folgt, dass die Spaltenvektoren von C die Linearkombination der A und B sind. D.h. es gilt (13). Also bildet man eine Linearkombination von Matrizen (wie in K n×1 ) komponentenweise. (Natürlich können nur gleichartige Matrizen, Setzt man speziell Spaltenvektoren von 42 d.h. Matrizen mit jeweils gleicher Zeilenzahl und gleicher Spaltenzahl linear kombiniert werden.) K m×n wird 0 0 ... 0 0 . . . 0 := . . . .. .. . . 0 0 ... Die Menge K -VR. 0 0 m×n . . ∈ K . . 0 so zu einem Das Nullelement ist die Nullmatrix Beispiel. 4 0 1 2 2 −8 2 0 −2 4 1 1 1 1 −1 0 2 −2 1 2 4−2·2 0−2·2 1 − 2 · 12 0 −4 0 0 = −8 − 2 · 4 2−2·1 0 − 2 · 0 = −16 0 0 . 1 1 1 − 2 · 2 −1 − 2 · (− 2 ) 0 − 2 · 0 0 0 0 0 A Bezeichnen wir die Abbildungsmatrix der linearen Abbildung f (s. (1)) mit M (f ), um die Zuor- dung deutlich zu machen, dann haben wir gerade M (f + λg) = M (f ) + λM (g). etabliert. Nimmt man (10), (9) hinzu, folgt zusammenfassend (für Liebhaber der Abstraktion) der (7.14) Darstellungssatz. M : Hom(V, W ) → K m×n , f 7→ M (f ), L : K m×n → Hom(K n×1 , K m×1 ), A 7→ LA , sind VR-Isomorphismen und es gilt fˆ = L(M (f )) ∀ f ∈ Hom(V, W ). A ∈ K m×n . Dann ist A die darstellende Matrix von f := M (A). Aber A ist natürlich auch die Abbildungsmatrix anderer linearer Abbildungen, z.B. 0 0 0 0 0 0 von LA . Allgemeiner seien V , W K -VR mit Basen v1 , . . . , vn und w1 , . . . , wm . Dann bestimmt Folgende Bemerkung ist hier angebracht. Sei −1 f 0 (vl0 ) := m X akl wk0 für l = 1, . . . , m k=1 nach (6.5) eindeutig ein 0 f 0 ∈ Hom(V 0 , W 0 ), wofür A ebenfalls die Abbildungsmatrix ist, d.h. wofür (f 0 ) M = A ist. Andererseits ändert sich die darstellende Matrix von f , V und W wechselt. Das wird im Abschnitt Basiswechsel untersucht. Üb Sei A ∈ K m×n Isomorphismen (7.15) Die f ∈ Hom(V, W ) und f 0 ∈ Hom(V 0 , W 0 ). t : W → W 0 derart, dass f 0 = t ◦ f ◦ s−1 . darstellende Matrix für s:V →V 0 und Standardbasis von K m×n 0 .. . 0 ... .. 0 . 1 .. ... ↑ l-te Ihre Anzahl ist wenn man die Basen in . besteht aus den Matrizen . . . ← k -te 0 Zeile Spalte m · n. Nach (14) ist dim Hom(V, W ) = dim K m×n = m · n. 43 Zeige: Es gibt (7.16) Einheitsmatrix. 1, . . . , n, Sei speziell dim W = dim V = n. f (vl ) := wl , l = f : V → W . Die zugehörige Betrachte die durch gemäÿ (6.5) eindeutig bestimmte lineare Abbildung Abbildungsmatrix ist die Einheitsmatrix E n = E = (δkl )k=1,...,n l=1,...,n Dabei ist ( 1 δkl := 0 für für 1 0 ... 0 0 1 . . . 0 := . . . . . . . . . . . . . 0 0 ... 1 k=l k 6= l das Kronecker Symbol. Oenbar ist LE = idK n×1 . Produkt von Matrizen Seien U ein weiterer Abbildung. Damit ist (7.17) K -VR mit einer indizierten Basis u1 , . . . , up und g : W → U h := g ◦ f eine lineare Abbildung von V nach U (s. (6.29)). eine lineare Satz. Sei A ∈ K m×n bzw. B ∈ K p×m die Abbildungsmatrix von f bezüglich der Basen v1 , . . . , vn in V und w1 , . . . , wm in W bzw. von g bezüglich der Basen w1 , . . . , wm in W und u1 , . . . , up in U . Sei C = (cjl )j=1,...,p ∈ K p×n die Abbildungsmatrix von h bezüglich der Basen l=1,...,n v1 , . . . , vn in V und w1 , . . . , wm in W . Dann gilt (?) cjl = m X bjk akl für j = 1, . . . , p, l = 1, . . . , n. k=1 Man schreibt hierfür C = B A und nennt C das Produkt der Matrix B mit der Matrix A. Beweis. Nach (1) ist h(vl ) = h(vl ) = g f (vl ) = g m P Pp j=1 cjl uj und die Anwendung von (1) für ! p m m P P P akl wk k=1 = akl g(wk ) = k=1 bjk uj akl k=1 j=1 f = und für p P j=1 g m P ergibt bjk akl uj . k=1 Der Koezientenvergleich liefert (?). Ein Alternativbeweis erfolgt unter Verwendung der Koor- ϕ : V → K n×1 , ψ : W → K m×1 und χ : U → K p×1 : g[ ◦ f = χ ◦ (g ◦ f ) ◦ ϕ−1 = (χ ◦ g ◦ ψ −1 ) ◦ (ψ ◦ f ◦ ϕ−1 ) = ĝ ◦ fˆ. §) Daher gilt nach (9) dinatenabbbildungen C ξ = B (A ξ) Setzt man speziell vektor von A ∀ ξ ∈ K n×1 . ξ = el l-te Spaltenvektor von C sich aus dem l-ten B gemäÿ (5) anwendet. Das ist (?). ein, folgt, dass der ergibt, indem man auf diesen Zu (17)(?) gehört das kommutative Diagramm, woraus §) χ chi 44 f[ ◦ g = fˆ ◦ ĝ ersichtlich ist. Spalten- (7.18) Matrixmultiplikation. Die Formel (17)(?) gibt an, wie man eine (p×m)Matrix B mit einer (m × n)Matrix A multipliziert, um eine (p × n)Matrix C = B A zu erhalten. Wichtig dabei B mit der Zeilenzahl von A übereinstimmt. Formel (5) ist der spezielle Fall der Multiplikation einer m × nMatrix mit einer n × 1Matrix. Formel (17)(?) besagt auch LBA = LB ◦ LA . Als konkretes Beispiel rechnen wir 4 0 −3 1 2 3 4 3 1 −1 = 2 2 −2 −4 −3 −2 −1 1 3 0 4+6+6+4 0 + 2 + 6 + 12 −3 − 2 − 6 + 0 20 20 −11 = . −16 − 9 − 4 − 1 0 − 3 − 4 − 3 12 + 3 + 4 + 0 −30 −10 19 ist, dass die Spaltenzahl von Wir betrachten noch zwei Spezialfälle. Seien ξ ∈ K n×1 , ζ ∈ K n×1 , η ∈ K m×1 . ¶) Dann sind die Produkte ξ T ζ = ξ1 ζ1 n . X . . . ξn .. = ξl ζl ∈ K 1×1 = K, l=1 ζn ζ1 η1 ζ1 η2 . . . ζ1 ηm ζ1 .. ζ2 η1 ζ2 η2 . . . ζ2 ηm T n×m ζ η = . η1 . . . ηm = . . . = (ζl ηk )l=1,...,n ∈ K .. . . .. . . . k=1,...,m ζn ζn η1 ζn η2 . . . ζn ηm deniert. Letzteres heiÿt das dyadische Produkt. Ebenso ist auch η ζ T deniert. Weil die Komposition von Abbildungen assoziativ ist (s. (2.25)), folgt aus (17), dass auch die Matrixmultiplikation assoziativ ist. Ebenso übertragen sich die Distributivgesetze für lineare Abbildungen auf Matrizen. (7.19) Korollar. Die Matrixmultiplikation ist assoziativ und distributiv. Es gelten A (B C) = (A B) C =: A B C, λA = (λ E m ) A, A (λ E n ) = λA, (A + A0 ) B = A B + A0 B, A(B + B 0 ) = A B + A B 0 für A, A0 ∈ K m×n , B, B 0 ∈ K n×p , C ∈ K p×q mit m, n, p, q ∈ N, λ ∈ K . Insbesondere ist 0 A = 0, 0 A = 0 für 0 ∈ K und den entsprechenden Nullmatrizen. Üb Zeige für m, n, p ∈ N und A ∈ K m×n , dass K n×p → K m×p , eine darstellende Matrix hierfür? ¶) ζ zeta 45 X 7→ AX , linear ist. Wie lautet Invertierbare Matrizen V ein K -VR der Dimension n ∈ N und v1 , . . . , vn eine indizierte Basis von V . f : V → V linear. Man nennt f einen Endomorphismus. Wir bestimmen diejenige Abbildungsmatrix für f , wofür auch die Bildvektoren f (x) nach der Basis v1 , . . . , vn entwickelt Sei, wie bisher, Weiter sei werden: (7.20) f (vl ) = m X akl vk für l = 1, . . . , n. k=1 Die Abbildungsmatrix durch E M (f ) = (akl )k,l=1,...,n M (idV ) = E . ist quadratisch. Die identische Abbildung idV wird dargestellt, d.h. Man nennt End(V ) := Hom(V, V ) die Endomorphismenalgebra, weitere Verknüpfung besitzt, nämlich die Komposition von Abbildungen End(V ), (g, f ) 7→ g ◦ f , wofür die Algebragesetze gelten: h ◦ (g ◦ f ) = (h ◦ g) ◦ f (h + g) ◦ f = h ◦ f + g ◦ f h ◦ (g + f ) = h ◦ g + h ◦ f End(V ) eine End(V ) × End(V ) → weil der VR Assoziativität Distributivgesetze (λg) ◦ f = g ◦ (λf ) = λ(g ◦ f ), λ ∈ K. K n×n eine Algebra, die sogenannte Matrixalgebra, K n×n × K n×n → K n×n , (A, B) 7→ A B . Entsprechend ist knüpfung Üb (7.21) Weise für End(V ) und K n×n bezüglich der Algebraver- die Algebragesetze nach. Algebraisomorphismus. Die Matrixdarstellung M : End(V ) → K n×n ist ein somorphismus, d.i. ein VRIsomorphismus mit M (idV ) = E und Algebrai- M (g ◦ f ) = M (g)M (f ). Beweis. Die Aussage folgt aus (14) und (17). f ∈ End(V ) ist ein Automorphismus, wenn es ein g ∈ End(V ) gibt f ◦ g = idV . Dies gilt nach (6.26) und (2.24). In diesem Fall folgt g = f −1 . Ein Endomorphismus mit g ◦ f = idV Die oder Anwendung von (21) ergibt (7.22) Invertierbare Matrix. Seien A, B ∈ K n×n . Wenn B A = E gilt, dann gilt auch A B = E . Es ist B durch B A = E eindeutig bestimmt. −1 und A := B die zu A inverse Matrix. Wenn BA = E gilt, dann heiÿt GL(n, K) := M (Aut(V )) = {A ∈ K n×n : A invertierbar} eine meine lineare Gruppe über K . Daher gelten z.B. für A, B ∈ GL(n, K): Insbesondere ist (A−1 )−1 = A, Auÿerdem folgt (7.23) A invertierbar Gruppe, die allge- (A B)−1 = B −1 A−1 . LA−1 = (LA )−1 . Invertierbarkeitskriterien. A ∈ K n×n ist invertierbar genau dann, wenn Rang(A) = n oder wenn dim Kern(A) = 0. Beweis. Wende (6.26), (6.9), (6.10), (12) an. Üb Zeige: GL(n, R) ist für n≥2 nicht kommutativ. 46 (7.24) Abbildungsmatrix eines Isomorphismus. Isomorphismus und A Seien die Abbildungsmatrix von f dim V = dim W = n, f : V → W ein aus (1). Es ist h(vl ) := wl , g(wl ) := f (vl ) für l = 1, . . . , n gemäÿ h durch E dargestellt. Deshalb Automorphismus g . Insbesondere ist A invertierbar. ein kommutatives Diagramm mit den durch (6.5) eindeutig bestimmten Isomorphismen. Nach (16) wird ist A auch die Abbildungsmatrix des Basiswechsel Wir kehren zur Ausgangssituation zurück. Die Frage ist, wie sich die Abbildungsmatrix wenn man die Basis in V bzw. in W A verändert, V . Wir 0 0 wechselt. Sei v1 , . . . , vn eine weitere indizierte Basis in drücken die gestrichenen Basisvektoren durch die ungestrichenen aus: (7.25) vj0 = n X slj vl für j = 1, . . . , n. l=1 Dabei sind s1j , . . . , snj die eindeutig bestimmten Koordinaten von Beachte, dass in (25) über den ersten Index von f (vj0 ) = f n X ! slj vl = l=1 n X slj f (vl ) = l=1 n X slj slj l=1 vj0 bez. der Basis v1 , . . . , vn . summiert wird. Mit (1) folgt n X akl wk = k=1 n n X X k=1 ! akl slj wk . l=1 S := (slj )l,j=1,...,n ∈ K n×n ist invertierbar, denn S ist nach (1) auch die darstellende 0 Matrix des Automorphismus s : V → V , der durch s(vj ) = vj , j = 1, . . . , n eindeutig bestimmt ist ((6.5), (6.23)). Schlieÿlich beschreibt S auch die Koordinatentransformation von den gestrichenen auf die ungestrichenen Koordinaten. Denn sei x ∈ V . Bezüglich der ungestrichenen Pn Basis sei x = l=1 ξl vl . Dann gilt für die Darstellung von x bezüglich der gestrichenen Basis P P P Pn Pn 0 0 0 x = j=1 ξj vj = nj=1 ξj0 nl=1 slj vl = nl=1 j=1 slj ξj vl , woraus Die Matrix (7.26) ξ = S ξ0 folgt. Indem man beide Seiten von (26) von links mit (7.27) multipliziert, folgt äquivalent zu (26) ξ 0 = S −1 ξ. Jetzt betrachten wir auch in (7.28) S −1 wq0 = m X tpq wp für W eine weitere indizierte Basis 0 . Hierfür sei entsprechend w10 , . . . , wm q = 1, . . . , m. p=1 Wie S T := (tpq )p,q=1,...,m ∈ K m×m einen Automorphismus t : W →P W . Daher T invertierbar. Sei T −1 = (t̂pq )p,q=1,...,m . Dafür gilt E = T T −1 , d.h. δpq = m r=1 tpr t̂rq bestimmt auch ist auch 47 Pmp, q = 1, . . . , m. Damit q=1 δqp wq = wp , d.h. für (7.29) wp = m X t̂qp wq0 folgt für Pm 0 r=1 t̂rp wr = Pm r=1 t̂rp Pm q=1 tqr wq = Pm q=1 Pm r=1 tqr t̂rp wq = p = 1, . . . , m. q=1 Man vergleiche dies mit (28). Hiermit können wir die obige Rechnung fortführen: f (vj0 ) = m n X X k=1 ! akl slj t̂qk wq0 = q=1 l=1 Für die Abbildungsmatrix m X A0 m m X n X X q=1 von f ! t̂qk akl slj wq0 . k=1 l=1 bez. der Basen v10 , . . . , vn0 in V und 0 w10 , . . . , wm in W gilt denitionsgemäÿ (7.30) f (vj0 ) = m X a0qj wq0 . q=1 Wir schlieÿen daraus 0 (7.31) aqj = m X n X t̂qk akl slj , q = 1, . . . , m, j = 1, . . . , n. k=1 l=1 Damit ist die folgende Aussage bewiesen. (7.32) Abbildungsmatrix nach Basiswechsel. Seien V , W K -VR mit dim V = n, dim W = m und f : V → W linear. Weiter sei A die Abbildungsmatrix von f bez. der Basen v1 , . . . , vn von V und w1 , . . . , wm von W . Dann ist (?) A0 = T −1 A S 0 in W , wobei S die Abbildungsmatrix von f bez. der Basen v10 , . . . , vn0 von V und w10 , . . . , wm und T in (25) und (28) die Basiswechsel beschreiben. Das zu (32) (?) gehörige kommutative Diagramm ist ϕ0 = ϕ ◦ s−1 , ψ 0 = ψ ◦ t−1 die Koordinatenabbildungen bezüglich der gestrichenen Basen. 0 −1 ◦ fˆ ◦ ŝ ersichtlich. ist fˆ = t̂ Dabei sind Hieraus (7.33) Invarianz von Rang und Dimension des Kerns. Gleichung (32)(?) ist die Transformation der Abbildungsmatrix unter Koordinatentransformationen. Dabei ist 48 Rang (A 0 ) = Rang (A), ) = dim Kern (A). Allgemeiner folgt hieraus für A ∈ K m×n , T ∈ GL(m, K) und S ∈ GL(n, K), dass dim Kern (A 0 Kern (T A) = Kern (A), dim Kern (A S) Rang (T Bild (A S) = Bild (A). Beweis. Die Aussage folgt aus LA0 = (LT )−1 ◦ LA ◦ LS wegen (12). (7.34) = dim Kern (A), A) = Rang (A), Basiswechsel für einen Endomorphismus. Seien V = W , vl = wl für l = 1, . . . , n und f ∈ End(V ). Dann ist t = s und somit (?) A0 = S −1 A S die Transformation der Abbildungsmatrix A bei einem Basiswechsel Koordinatentransformation (26). 49 (25) bzw. unter einer 8 Lineare Gleichungssysteme Für den Fall endlichdimensionaler Vektorräume V und W wird ein Verfahren zur Lösung der in Kapitel 6 (speziell (6.18), (6.19)) untersuchten linearen Gleichung (8.1) f (x) = b entwickelt. Sei n := dim Koordinatendarstellung (8.2) V , m := dim W . Wir wählen indizierte von f , x und b (siehe (7.8), (7.9)) über Basen in V und W und gehen zur A x = b. A = (akl ) ∈ K m×n die f darstellende Matrix, x = (x1 . . . xn )T und T (b1 . . . bm ) die Koordinatenvektoren von x und b. Ausgeschrieben lautet (2) Dabei bezeichnen (8.3) a11 x1 a21 x1 + + . . . a12 x2 a22 x2 + ··· + ··· + + . . . a1n xn a2n xn = = . . . am1 x1 + am2 x2 + · · · b = b1 b2 . . . + amn xn = bm lineares Gleichungssystem (LGS) für n Unbekannte x1 , . . . , xn aus K , was aus m Koezienten akl ∈ K und Absolutgliedern bk ∈ K besteht. Das LGS (3) heiÿt homogen, wenn b = 0. Das ist ein skalaren Bedingungensgleichungen mit Beispiel 3x1 + 2x2 = 1 3x1 + x2 = 5 hat genau eine Lösung, nämlich x1 = 3, x2 = −4. Beispiel 3x1 + 2x2 = 1 3x1 + 2x2 = 5 hat oenbar keine Lösung. Beispiel 3x1 + 2x2 = 1 −9x1 − 6x2 = −3 hat unendlich viele Lösungen, nämlich 1 3 0 − 32 +R 1 1 x1 = (1 − 2λ), x2 = λ für jedes λ ∈ R, d.i. der ane Raum 3 . 50 Im ersten Schritt bildet man die (A|b) := a11 ··· . . . am1 · · · erweiterte Koezientenmatrix a1n b1 .. . amn bm Der vertikale Strich dient lediglich der deutlichen Abgrenzung. (8.4) Lösbarkeitskriterium. Das LGS A x = b ist genau dann lösbar, wenn Rang ((A|b)) = Rang (A). Beweis. (7.11)) ⇔ b ∈ Bild (A) ⇔ Span {a1 , . . . , an , b} = Span {a1 , . . . , an , b} = dim Span {a1 , . . . , an }. Lösbarkeit des LSG ⇔ dim Span {a1 , . . . , an } (wegen x = (x1 . . . xn )T mit A ∈ K m×n und B ∈ K p×n nennt man äquivalent, wenn sie dieselbe Lösungsmenge (⊂ K n×1 ) besitzen. Im Fall nichtleerer Lösungsmenn×1 existiert mit A x = b und B x = c und gen (siehe (4)) bedeutet dies nach (6.18), dass x0 ∈ K 0 0 dass Kern (A) = Kern (B) gilt. Die folgende Aussage gilt oensichtlich. Zwei LSG (8.5) Ax=b und B x=c für Übergang zu äquivalentem LGS. Sei T ∈ GL (m, K). Dann ist (T A|T b) = T (A|b) und x ∈ K n×1 ist genau dann eine Lösung von A x = b, wenn es (T A)x = T b löst. D.h. (A|b) und T (A|b) beschreiben äquivalente LGS. Üb A, B ∈ K m×n derart, dass es zu jedem b ∈ K m×1 ein c ∈ K m×1 gibt, wofür A x = b B x = c äquivalent sind. Zeige: Es existiert T ∈ GL (m, K) mit B = T A. Seien und Die Idee, die jetzt verfolgt wird, ist das LGS (2) gemäÿ (5) in ein äquivalentes System zu transformieren, wofür die Lösungen leicht zu bestimmen sind. Elementare Zeilenumformungen Oenbar geht das LGS (2),(3) in ein äquivalentes über, wenn man an elementaren Zeilenumformungen vornimmt: 1 Vertauschung zweier Zeilen. 2 Multiplikation einer Zeile mit einem Skalar 3 Addition des Vielfachen einer Zeile zu einer anderen. 6= 0. 51 (A|b) eine der folgenden Betrachte dazu die folgenden 1 · · · 1 Z := · · · 3 Z := . 1 ··· ··· (8.6) . . . . . . . . . . . . . . . . . . 0 ··· . . . ··· ··· 1 ··· 1 .. ··· 1 ··· . . . . . . . ··· ··· . . . . . . ··· . . . 1 ··· 0 ··· . . . . . . . . . . . . . . . . . . ··· 1 .. . · · · j-te Zeile · · · k-te Zeile 1 .. . 1 λ ··· 1 ··· .. . . . . 1 .. . . . . 1 ··· Alle übrigen Einträge in zen. ∗) - Matrizen 1 2 Z := .. (m × m) .. . α ··· . . . 1 ··· . . . .. . . . Z 1, Z 2, Z 3 . · · · k-te 1 Zeile für λ 6= 0 · · · j-te Zeile · · · k-te Zeile 1 sind 0. Die Matrizen Z κ , κ = 1, 2, 3 heiÿen Elementarmatri- Multiplikation mit Elementarmatrix von links. Die Elementarmatrizen sind invertierbar. Genauer gelten Z 1 Z 1 = Z 2 (λ)Z 2 ( λ1 ) = Z 3 (α)Z 3 (−α) = E m für λ = 6 0. Daher ist ein Produkt von Elementarmatrizen invertierbar und die Inverse des Produkts wieder ein Produkt von solchen. Seien C, C̃ ∈ K m×p . Entsteht C̃ aus C durch 1 1 Vertauschung der Zeilen j und k, dann ist C̃ = Z C . 2 2 Multiplikation der k-ten Zeile mit λ 6= 0, dann ist C̃ = Z C . 3 3 Addition des α-fachen der k-ten Zeile zur j-ten Zeile, dann ist C̃ = Z C . Beweis. Man führe die entsprechenden Matrixmultiplikationen aus. ∗) κ kappa 52 Gauÿ Eliminationsverfahren Sei 3 A ∈ K m×n , A 6= 0. (8.7) 1 1, 2, Durch wiederholte Anwendung von elementaren Zeilenumformungen auf spezielle Zeilenstufenform gebracht. Der erste Teil des Verfahrens besteht aus der wird A (Abwärts-) Elimination, Zeilenstufenform. ∈ {1, . . . , n} Sei l1 die erste Zeile mit der k-ten Zeile. Es β1 γ2 .. . γm mit ∗ k ∈ {1, . . . , m} existiert mit akl1 6= 0. entsteht aus A eine Matrix der Gestalt minimal derart, dass ein Vertausche ∗ β1 6= 0 und gewissen γ2 , . . . , γm ∈ K †) in der l -ten Spalte und unspezizierten Einträgen 1 . Alle übrigen Einträge sind null. 3 Addiere das neue Matrix (− γβk1 )-fache der ersten Zeile zur k-ten Zeile für k = 2, . . . , m. A0 , wofür in der l1 -ten Spalte unterhalb β1 nur Nullen stehen: β1 Es entsteht eine ∗ ↑ l1 -te Gibt es kein Spalte a0kl 6= 0 für k ∈ {2, . . . , m}, ∗ β1 A0 = dann ist ↑ l1 -te Spalte 1 und 3 wiederholen: und die Elimination endet hier. Andernfalls lassen sich 1 Sei l2 ∈ {l1 + 1, . . . , n} Vertausche die zweite Zeile mit der k-ten Zeile. Es β2 δ3 . . . ↑ l1 mit †) †) γ δ β2 6= 0 β1 δm ↑ l2 -te k ∈ {2, . . . , m} existiert mit a0kl2 6= 0. 0 entsteht aus A eine Matrix der Gestalt minimal derart, dass ein ∗ Spalte in der l2 -ten Spalte. ‡) gamma delta 53 3 Addiere das (− βδk2 )-fache der zweiten Zeile zur k-ten Zeile für neue Matrix, wofür in der l2 -ten Spalte unterhalb β1 β2 ↑ l1 ∗ ↑ l2 -te (8.8) (m × n)-Matrix in ∗ β2 β3 . . . βr ↑ l2 ↑ ··· l3 ↑ lr Zeilenstufenform β1 ↑ l1 nur Nullen stehen: Spalte Die Elimination endet mit einer r Zeilen m−r Zeilen -te Spalte β1 6= 0, . . . , βr 6= 0. In jeder Zeile der ersten r Zeilen stehen links von βk nur Nullen. Die m − r Zeilen (falls überhaupt vorhanden) sind Nullzeilen. Es ist 1 ≤ l1 < l2 < · · · < lr ≤ n. Dabei sind letzten (8.9) Beispiel. Gegeben sei das homogenen LGS 2x4 x2 − 2x3 + 2x4 2x2 − 4x3 + 4x4 − 21 x2 + x3 − 5x4 Man schreibt es in der Form 0 0 0 1 A= 0 2 0 − 21 + x5 + 4x5 + 7x5 − 4x5 A x = 0. − + + + 4x6 2x6 7x6 7x6 = = = = 0 0 0 0 Die Koezientenmatrix 0 2 1 −4 −2 2 4 2 −4 4 7 7 1 −5 −4 7 wird auf Zeilenstufenform durch Abwärtselimination gebracht. 1 Vertausche erste Zeile mit zweiter Zeile: 0 1 0 0 0 2 0 − 21 3 Es entsteht eine β2 k = 3, . . . , m. Addiere das −2 2 4 2 0 2 1 −4 −4 4 7 7 1 −5 −4 7 (−2)-fache 0 1 0 0 0 0 0 − 21 der ersten Zeile zur dritten Zeile: −2 2 4 2 0 2 1 −4 0 0 −1 3 1 −5 −4 7 54 Addiere das 0 0 0 0 3 1 2 -fache der ersten Zeile zur vierten Zeile: 1 −2 2 4 2 0 0 2 1 −4 0 0 0 −1 3 0 0 −4 −2 8 Addiere das 2-fache der zweiten Zeile zur vierten Zeile. Die entstehende Matrix hat Zeilen- stufenform: 0 0 A0 := 0 0 Es sind 1 −2 2 4 2 0 0 2 1 −4 . 0 0 0 -1 3 0 0 0 0 0 r = 3 , l1 = 2 , l2 = 4 , l3 = 5 und β1 = 1 , β2 = 2 , β3 = −1. Der zweite Teil des Verfahrens besteht in der Aufwärts-)Substitution. (8.10) ( An der Matrix in Zeilenstufenform aus (8) werden folgende Zei- 3 vorgenommen: Addiere geeignete Vielfache der lenumformungen vom Typ den Zeilen r − 1, r − 2, . . . , 1, um in der fahre anschlieÿend so mit der (m × n)-Matrix β1 lr−1 -ten lr -ten Spalte oberhalb βr r-ten Zeile zu Nullen zu erzeugen. Ver- Spalte und so fort. Die Substitution endet mit einer der folgenden Gestalt: ∗ ∗ β2 ∗ β3 . . . ∗ ... βr Der letzte Teil besteht in der Freistellung der abhängigen Variablen. Dazu benötigt man Zeilenum2. formungen von Typ (8.11) Freistellung, spezielle Zeilenstufenform. −1 mit βk für k = 1, . . . , r. −1 B= Es entsteht eine ∗ −1 Multipliziere die m×n ∗ - Matrix in Zeile der Matrix in (10) spezieller Zeilenstufenform ∗ −1 . . . ∗ ... −1 Speziell gegenüber der Matrix in (8) ist also, dass die k = 1, . . . , r. B k -te lk -te r Zeilen m−r Spalte von B Zeilen gleich −ek ist für Damit ist gemäÿ (7.11) Rang (B) = r. Auch die maximale Anzahl linear unabhängiger Zeilenvektoren von lenrang, ist oenbar r. B in K 1×n , der sog. Zei 55 Der Übergang von βk nach −1 in (11) lässt sich bereits während der Elimination vollziehen. Das hat den Vorteil, leichter rechnen zu können. (8.12) Satz zur speziellen Zeilenstufenform. Sei A ∈ K m×n . Dann existiert Z ∈ GL(m, K) derart, dass B := Z A spezielle Zeilenstufenform besitzt. Dabei ist Z als Produkt von Elementarmatrizen Z κ , κ = 1, 2, 3, wählbar. Für B in der Form von (10) genügen Z 1 und Z 3 Matrizen. Beweis. Üb Wende das Verfahren (7), (10), (11) an und beachte (6). Eindeutigkeit der speziellen Zeilenstufenform. A ∈ K m×n und Z ∈ GL (m, K) 0 derart, dass B := Z A spezielle Zeilenstufenform besitzt. Zeige: B ist eindeutig, d.h. ist Z ∈ 0 0 0 GL (m, K) derart, dass auch B := Z A spezielle Zeilenstufenform besitzt, dann ist B = B . Er Zeige weiter: Es existiert T ∈ GL (m, K) derart, dass T = mit r := Rang (A) und Seien ∗ Z0 = T Z. (8.13) Zeige schlieÿlich: Z ist eindeutig genau dann, wenn r = m. Spaltenrang gleich Zeilenrang. Für jede Matrix sind Spaltenrang und Zeilenrang gleich. Beweis. Nach (11) gilt die Behauptung für Matrizen in spezieller Zeilenstufenform. Elementare Zeilenumformungen erhalten oenbar den Zeilenrang. Wegen (6) gilt dies nach (7.33) auch für den Spaltenrang. Die Aussage gilt daher wegen (12). (8.14) Lösung des homogenen LGS. Das LGS A x = 0 wird durch Elimination (7), Substitution B x = 0 transformiert, wofür B Die Menge aller Lösungen von A x = 0 ist (10), und Freistellung (11) in ein äquivalentes LGS Zeilenstufenform (siehe (11)) besitzt. Kern (A) spezielle = Kern (B). xl1 , . . . , xlr heiÿen abhängige Variable, die restlichen heiÿen freie Variable. Das LGS B x = 0 mit freigestellten abhängigen Variablen lautet Die Unbekannten xlk = n X bkl xl , k = 1, . . . , r, l=1 wobei auf der rechten Seite eektiv nur die freien Variablen vorkommen. Diese können beliebig gewählt werden. Jede Wahl liefert eine Lösung des LGS A x = 0. Um die Lösungsmenge leichter beschreiben zu können, benennen wir die Unbekannten so um, dass die ersten r die abhängigen Variablen sind. Dann lautet die Lösungsmenge n X b1l xl l=r+1 . x . 1 . .. n . X = = : x , . . . , x ∈ K Kern (A) = r+1 n brl xl .. . l=r+1 xr+1 x n . . . xn 56 b1,r+2 b1,n .. .. .. . . . br,r+1 br,r+2 br,n 1 0 0 =K 0 + K 1 + ··· + K 0 0 0 .. . .. .. . . 0 0 0 1 in der (8.15) b1,r+1 Parameter- bzw. Basisdarstellung. Es ist ein (n − r)dimensionaler UVR von K n×1 . Bedeutung von m, n, r. Sei A ∈ K m×n m und Ax=0 das zugehörige LGS. Dann ist Anzahl der Gleichungen = Anzahl der Zeilen n Anzahl der Unbekannten = Anzahl der Spalten r Anzahl abhängiger Variablen = maximale Anzahl linear unabhängiger Zeilenvektoren (Zeilenrang) = maximale Anzahl unabhängiger Spaltenvektoren (Spaltenrang) = Rang (A) n−r (8.16) Anzahl freier Variablen = Dimension des Lösungsraums = dim Kern (A). Folgerungen aus (15). (a) r ≤ n , r ≤ m. (b) r = n ⇐⇒ 0 ∈ K n×1 ist die einzige Lösung. (c) m < n (d.h. mehr Unbekannte als Gleichungen) ⇒ es gibt mindestens n − m linear unabhängige Lösungen x ∈ K n×1 . + dim Kern (A) = r + n − r = n = formel (6.14) für LA . (d) Rang (A) Üb Sei A ∈ K n×n . Zeige: Zeilenvektoren von (8.17) A A ∈ n×1 ⇔ Spaltenvektoren 1×n . von K GL (n, K) bilden Basis dim K ist die altbekannte Dimensions- von A bilden Basis von K n×1 ⇔ Fortsetzung Beispiel (9). Die Matrix A0 in (9) wird auf spezielle Zeilenstufenform gebracht: 0 0 A0 → 0 0 1 −2 2 0 14 0 0 0 2 0 −1 0 → 0 0 0 0 −1 3 0 0 0 0 0 0 1 −2 0 0 15 0 0 2 0 −1 0 0 0 −1 3 0 0 0 0 0 0 −1 2 0 0 −15 1 0 0 0 −1 0 2 . → B := 0 0 0 0 −1 3 0 0 0 0 0 0 Also sind x1 , x3 , x6 die freien Variablen. Das LGS mit freigestellten abhängigen Variablen ist x2 = 2x3 − 15x6 x4 = 21 x6 x5 = 3x6 . 57 Sei ν := x1 , µ := x3 , λ := x6 .§) Hieraus folgt für die Lösungsmenge von Ax=0 in Parame- terdarstellung ν x1 x2 2µ − 15λ x3 µ : = 1 x4 2 λ x5 3λ λ x6 ν, µ, λ ∈ R und in Basisdarstellung 0 0 1 −15 2 0 0 1 0 R + R + R 1 . 2 0 0 3 0 0 1 0 0 Die Lösungsmenge Kern (A) ist also ein 3dimensionaler UVR von Üb gilt: Üb Z ∈ R4×4 als Produkt von Elementarmatrizen, B = Z A. Bestimme Z −1 . Tipp: Siehe (6). Bestimme Zeilenstufenform B (8.18) (A|b) Ax=b −1 ∗ (B|c) = B in (17) erinnern wir uns an (5). Wir führen an der erweiter- −1 b in c über. Es ist ∗ B=Z A ∗ −1 . . . ∗ . . . −1 A (siehe (12)) und c1 c2 c3 auf spezielle c=Z b mit . . . . cr cr+1 . . . cm Lösbarkeit des inhomogenen LGS. Das LGS A x = b ist genau dann lösbar, wenn cr+1 = cr+2 = · · · = cm = 0. Insbesondere ist A x = b lösbar, wenn r = m. Beweis. Nach (5) ist Ax=b genau dann lösbar, wenn genau dann lösbar, wenn Rang ((B|c)) = Rang (B). B x=c lösbar ist. Letzteres ist nach (4) Hieraus folgt die Behauptung. Lösung des inhomogenen LGS. Im Fall der Lösbarkeit lautet das LGS B x = c mit freigestellten abhängigen Variablen xlk = n X blk xl − ck , (14) k = 1, . . . , r. l=1 ν in (9) und die gleichen elementaren Zeilenumformungen aus, die bringen. Dabei geht §) A W := Span {a, b, c, d, e} ⊂ C4 , wobei a := (0, 0, i, 1 + i), b := (0, 2, 0, 1 − i), c := (2, 1 − i, 0, 0), d := (−1, 0, 1, 0) und e := (0, 2i, 2, 0). Berechne eine Basis von W . ten Koezientenmatrix (8.20) so dass für Sei Zur Lösung des inhomogenen LGS (8.19) R6×1 . nü, µ mü 58 Eine partikuläre Lösung x0 = (γ1 , . . . , γn )T erhält man durch Nullsetzen der freien Variablen: γlk = −ck für k = 1, . . . , r und γl = 0 sonst. Die Lösungsmenge von A x = b ist der ane Raum x0 + Kern (A). Zum Kern (A) siehe Beweis. (8.21) (14). Siehe (6.18), (6.20) und vor (5). Fortsetzung Beispiel (9) mit Inhomogenität. Wir betrachten jetzt das inhomogene LGS b := (−1 |4 |18 | − 2)T . Wie man leicht nachrechnet, transformieren die elementaren Zeilenumformungen, die A auf die spezielle 1 T Zeilenstufenform B in (17) bringen, die Inhomogenität b in c := (−15 | − |2 |0) . Gemäÿ (17) 2 sind x1 , x3 , x6 die freien Variablen. Das LGS hat Lösungen wegen c4 = 0. Nach (20) lautet es Ax = b mit der Matrix A aus (9) und der Inhomogenität x2 = 2x3 − 15x6 + 15 1 x4 = 12 x6 + 2 x5 = 3x6 − 2 Die abhängigen Variablen sind freigestellt. Setzt man die freien Variablen gleich Null, dann x0 = (0 |15 |0 | 12 | − 2 |0)T . Eine andere partikuläre sie, wenn man x1 = 0, x3 = 0 und x6 = 1 setzt. erhält man die partikuläre Lösung ist z.B. (0 0 0 1 1 1). Man erhält 59 Lösung 9 Weitere Folgerungen des Eliminationsverfahrens Das Eliminationsverfahren nach Gauÿ erönet weitere Einsichten in die Matrizenrechnung. (9.1) Transponierte Matrix. Sei A = (akl )k=1,...,m ∈ K m×n . Die zu A transponierte Matrix AT l=1,...,n hat als l te Zeile die l te Spalte von A l = 1, . . . , n: für a11 a21 . . . am1 a12 a22 . . . am2 AT = . . . .. . . .. . . . a1n a2n . . . amn Damit ist AT =: (aTlk )l=1,...,n ∈ K n×m mit k=1,...,m aTlk = akl . 1 8 T 0 −7 1 0 −3 2i = Beispiel. −3 i 8 −7 i 0 2i 0 (9.2) Regeln für das Transponieren. Seien A, B ∈ K m×n , C ∈ K n×p , λ ∈ K . Dann ist (A + λ B)T = AT + λ B T , Üb (B C)T = C T B T . Weise (2) nach. Beispiel. (Aξ)T = ξ T AT (9.3) (AT )T = A , für A ∈ K m×n , ξ ∈ K n×1 . (Schief)symmetrische Matrix. Sei A ∈ K n×n . Dann heiÿt A symmetrisch bzw. schiefsym- AT = A bzw. AT = −A. Es gilt: A symmetrisch ⇔ akl = alk ; A schiefsymmetrisch ⇔ akl = −alk . Für schiefsymmetrische Matrizen sind die Diagonalelemente akk null. Ist A ∈ K n×n , dann ist A = 12 (A + AT ) + 12 (A − AT ) die Summe einer symmetrischen und einer schiefsymmetrischen Matrix. Ist A ∈ K m×n , dann sind AT A und AAT deniert und symmetrisch. metrisch, wenn Üb (9.4) A, B, C ∈ K n×n mit A = B + C B = 21 (A + AT ), C = 12 (A − AT ). Seien und B symmetrisch, C schiefsymmetrisch. Zeige: Diagonalmatrix. Eine quadratische Matrix A heiÿt Diagonalmatrix, wenn akl = 0 für k 6= l, d.h. wenn ∗ ∗ A= .. . . Man schreibt ∗ λ1 λ2 diag(λ1 , λ2 , . . . , λn ) := .. . . λn 60 Jede Diagonalmatrix ist symmetrisch, insbesondere ist es (9.5) λE für λ ∈ K. Transponieren, Invertieren. Sei A ∈ GL(n, K). Dann ist AT ∈ GL(n, K) mit (AT )−1 = (A−1 )T . Ist zudem A (schief-)symmetrisch, dann ist es auch A−1 . Beweis. Es ist: −1 AT (A−1 )T = (A−1 A)T = E T = E ⇒ (AT )−1 = (A−1 )T . Für AT = A folgt daraus = (A−1 )T . Da (−A)(−A−1 ) = AA−1 = E , sofort A = (A−1 )T . Für AT = −A erhält man (−A)−1 −1 = −A−1 , gilt somit −A−1 = (A−1 )T . weshalb (−A) (9.6) Dreiecksmatrix. A ∈ K n×n heiÿt obere Dreiecksmatrix, wenn akl = 0 für k > l, d.h. a11 a12 . . . a1n a22 . . . a2n A= . . .. . . . ann A ∈ K n×n (9.7) heiÿt untere Dreiecksmatrix, wenn AT eine obere Dreiecksmatrix ist. Invertierbare Dreiecksmatrix. Eine Dreiecksmatrix ist invertierbar genau dann, wenn die Diagonalelemente ungleich Null sind. Beweis. x = 0, Sei A eine Dreiecksmatrix. Das LGS wenn die Diagonalelemente Speziell ist 6= 0 Ax = 0 hat oenbar genau dann nur die Lösung sind. Wende (7.23) an. diag(λ1 , . . . , λn )−1 = diag( λ11 , . . . , λ1n ) für λ1 , λ2 , . . . , λn 6= 0. Zeilenraum und Spaltenumformungen A ∈ K m×n . Nach (7.11) ist x ∈ K n×1 }. Betrachte jetzt die Sei der Spaltenraum von A Span{a1 , . . . , an } = Bild(A) = {Ax 1×n K von A. Entsprechend heiÿt gleich 0 0 Zeilenvektoren a1 , . . . , am ∈ : Span{a01 , . . . , a0m } = {y A : y ∈ K 1×m } Zeilenraum von A. Wie in (8.13) gezeigt, ist der Spaltenrang gleich dem Zeilenrang. Für T ∈ der GL(m, K) gilt oenbar, dass A und TA gleichen Zeilenraum haben. Vergleiche dazu die Aussagen in (7.33). A ∈ K m×n . Zeige, dass RA : K 1×m → K 1×n , RA (ζ) := ζA ∗) eine lineare Abbildung ist. Oenbar ist Bild(RA ) der Zeilenraum von A. Bestimme die Abbildungsmatrix für RA bez. der 1×m und K 1×n . Standardbasen in K Üb Sei Üb Sei Üb A ∈ K m×n , T ∈ GL(m, K), S ∈ GL(n, K). Welche Beziehungen bestehen zwischen Bild(A), Kern(A), Bild(T A), Kern(T A), Bild(A S), Kern(A S), Bild(AT ), Kern(AT ), Bild((T A)T ), Kern((T A)T ), Bild((A S)T ), Kern((A S)T ), den zugehörigen Dimensionen und n, m, sowie den jeweiligen Spalten und Zeilenräumen? ∗) ζ C ∈ GL(n, K). Zeige: LC und RC sind Automorphismen. Sei zeta 61 Analog zu den Zeilenumformungen deniert man die Spaltenumformungen. Multiplikation mit Elementarmatrix von rechts. (9.8) Elementarmatrizen aus Kap. 8. Seien e∈ C, C Seien K p×m . Entsteht Z κ ∈ K m×m für κ = 1, 2, 3 die e aus C durch die elementare C Spaltenumformung 1 Vertauschen der Spalten 2 Multiplikation der 3 Addition des Beweis. 1 Z ,Z dass (9.9) αfachen C Z T = (Z C T )T , Da 2 k ten j und k, Spalte mit der j ten e = C Z 1. C e = C Z 2. λ, dann ist C dann ist Spalte zur k ten Spalte, dann ist e = C Z 3. C folgt die Behauptung aus (8.6) aufgrund von (1). Beachte dabei, symmetrisch sind und dass (Z 3 (j, k))T = Z 3 (k, j) gilt. Struktursatz für Matrizen. Seien A ∈ K m×n und r = Rang(A). Dann existieren T ∈ GL(m, K) und S ∈ GL(n, K) derart, dass Er . T AS = Jede invertierbare Matrix ist Produkt von Elementarmatrizen. Beweis. Nach (8.12) existiert Z ∈ GL(m, K) derart, dass B := Z A spezielle Zeilenstufenform hat. Indem man geeignete Vielfache der l1 -ten Spalte von erste Zeile gleich −eTl1 . B zu den folgenden Spalten addiert, wird die Man verfahre ebenso mit den Zeilen 2, . . . , r. Jetzt vertausche man die erste Spalte mit der l1 -ten Spalte, dann die zweite Spalte mit der l2 -ten Spalte, u.s.w. Anschlieÿend mul tipliziere jede Spalte mit Produkt nun S∈ −1. Es entsteht aus B K n×n von Elementarmatrizen gibt, so dass A ∈ GL(n, K). Dann ist B = −E Üb die Matrix und daher Er . Daher folgt aus (8), dass es ein BS = Er . Man setze T := Z . Sei A = −T −1 . Die Behauptung folgt nun mit (8.6). V und W endlichdimensionale VR, f : V → W eine lineare Abbildung und B eine (m × n)Matrix. Es gelte: n = dim V , m = dim W und Rang(f ) = Rang(B). Gibt es Basen in V und W derart, dass B die darstellende Matrix von f bez. dieser Basen ist? Seien A ∈ K m×n , B ∈ K m×p . Indem man A durch die p Spalten von B erweitert, erhält man (A|B) ∈ K m×(n+p) . Für T ∈ K q×m ist T (A|B) = (T A|T B). Das bedeutet: Nimmt man an (A|B) elementare Zeilenumformungen vor, so nimmt man diese gleichzeitig an A und B vor. Seien (9.10) Anwendung: Spezielle Zeilenstufenform. Sei A ∈ K m×n . Wie berechnet man Z ∈ GL(m, K) derart, dass B := Z A spezielle Zeilenstufenform hat? Antwort: Man wende auf (A|E m ) jene elementaren Zeilenstufenumformungen (Elimination, Substitution, Freistellung) an, die A in B überführen. E m geht dabei in Z über, denn Z (A|E m ) = (B|Z). (9.11) Berechnung der Inversen. A (9.12) gleich −E n . Also ist A −1 Sei = −Z A ∈ GL(n, K). Dann ist die spezielle Zeilenstufenform für aus (10). α β und ∆ := αδ − βγ . Dann ist A genau dann invertierbar, wenn γ δ α β δ −β ∆ 6= 0. Allgemein gilt =∆ E 2 . γ δ −γ α Beispiel. Sei A = 62 Beweis. Gemäÿ (11) wird (A|E 2 ) umgeformt: α β 1 0 α β 1 0 → → γ γ δ 0 1 (α6=0) 0 ∆ − (∆6=0) α α 1 −1 1 α β δ −β = für ∆ 6= 0, auch γ δ ∆ −γ α α 0 falls 0 ∆ α αδ ∆ − αγ α = 0. − αβ ∆ 1 → δ 1 0 ∆ γ 0 1 −∆ β −∆ α ∆ . So ist Die angegebene Formel rechnet man leicht nach. m×n , C ∈ K p×n . Indem man A durch die p Zeilen von C erweitert, erhält man A ∈ K A A AS A (m+p)×n n×q ∈K . Für S ∈ K ist S = . Das bedeutet: Nimmt man an eleC C CS C mentare Spaltenumformungen vor, so nimmt man diese gleichzeitig an A und C vor. Seien (9.13) Anwendung: Spaltenstufenform. lenstufenform deniert. C ∈ K m×n Die Spaltenstufenform einer Matrix ist analog zur Zei- hat Spaltenstufenform genau dann, wenn fenform hat. Entsprechend lässt sich eine Matrix A∈ dass man auf A En C = AS (9.14) En jene elementaren Spaltenumformungen anwendet, die S über, denn A En A in C überführen. C S= . S Basis des Spaltenraums. Da elementare Spaltenumformungen den Spaltenraum nicht verändern, haben r Üb in S ∈ GL(n, K) von EleS dadurch, Spaltenstufenform besitzt. Man berechnet Dabei geht Zeilenstu- K m×n mittels elementarer Spaltenum- formungen in Spaltenstufenform bringen. Damit gibt es ein Produkt mentarmatrizen derart, dass CT Spalten von Eine Basis davon bilden die ersten v1 , v2 , . . . , vp linear unabhängige Vektoren aus V . Weiter seien q P ul = pk=1 akl vk mit akl ∈ K für l = 1, . . . , q aus V gegeben. Man berechne eine Basis von Span{u1 , . . . , uq } für den Fall, dass p = 4, q = 5 und A = (akl ) die folgende Matrix Sei V A und C in (13) den gleichen Spaltenraum. C . Diese sind also eine Basis von Bild(A). ein VR und seien Vektoren ist: 0 0 2 −1 0 0 2 1 − i 0 2i . A= i 0 0 1 2 1+i 1−i 0 0 0 63 10 Determinanten A ∈ K n×n lässt sich ein Skalar det A ∈ K , die sog. Determinante A berechnen, der genau dann nicht null ist, wenn A invertierbar ist. Es ist also GL (n, K) = {A ∈ K n×n : det A 6= 0}. Die Determinatenfunktion hat weitere wichtige Eigenschaften wie z.B. die Multiplikativität det (A B) = (det A)(det B). Für jede quadratische Matrix von Für (10.1) (2 × 2)Matrizen haben wir die a1 b1 det := a1 b2 − a2 b1 . a2 b2 Im Fall K=R ist det a1 b1 a2 b2 Determinante bereits kennengelernt (9.12): die Fläche F des von den Vektoren a = (a1 , a2 ) und b = (b1 , b2 ) aufgespannten Parallelogramms. F = a1 b2 − a2 b1 falls der kleine Winkel von a nach b positiv ist Üb Rechne die Multiplikativität der Determinante (1) für Für (10.2) (2 × 2)Matrizen nach. (3 × 3)Matrizen deniert man a1 b1 c1 det a2 b2 c2 := a1 b2 c3 + b1 c2 a3 + c1 a2 b3 − a3 b2 c1 − b3 c2 a1 − c3 a2 b1 . a3 b3 c3 Das ist das Spatprodukt [a, b, c] = a· (b × c) c = (c1 , c2 , c3 ). Im Fall K=R ist |[a, b, c]| der Vektoren das Volumen 64 V a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ) a, b, c. des Spats mit den Kanten und V = [a, b, c] für ein Rechtssystem a, b, c Merkregeln det det a1 b1 a2 b2 a1 b1 % & = a2 b2 a1 b1 c1 a1 b1 a1 b1 c1 % % % a2 b2 c2 = a2 b2 c2 a2 b2 a3 b3 c3 & & & a3 b3 c3 a3 b3 Dabei bezeichnen & (%) Regel von Sarrus Produkte versehen mit einem positiven (negativen) Vorzeichen. Ihre Summe ergibt die Determinante. Also ist die Determinante im Fall n = 2, 3 für K=R eine sog. Volumenform. Sie ist genau dann null, wenn das Parallelogramm zur Strecke oder der Spat zum Parallelogramm entartet, d.h. wenn die Spaltenvektoren linear abhängig sind. Als Volumenform ist die Determinante, wie geometrisch ersichtlich, linear in jeder Spalte. Die Fläche des Parallelogramms mit Seiten a, c ist die Suma, b und me der Flächen der Parallelogramme mit Seiten a, b0 . 3 × 3Matrix 0 c1 a1 b1 c1 a1 b1 c1 c2 = det a2 b2 c2 + λ det a02 b2 c2 c3 a3 b3 c3 a03 b3 c3 Z.B. gilt für die Determinante einer a1 + λa01 b1 a2 + λa02 b2 a3 + λa03 b3 (10.3) det Üb Rechne die Linearität der Determinante in (3) nach. Auÿerdem ist die Determinante normiert, indem (10.4) det E2 =1, det E3 = 1. 65 A ∈ K n×n (K n×1 )n . Im Folgenden schreiben wir n×n mit identizieren K (10.5) als nTupel (a1 , a2 , . . . , an ) ihrer Spaltenvektoren. D.h. wir Determinantenfunktion. Wir nennen eine Abbildung det : K n×n −→ K eine Determinantenfunktion, wenn sie folgende Eigenschaften besitzt: (a) det ist multilinear bezüglich der Spalten, d.h. det (a1 , . . . , ak−1 , ak +λa0k , ak+1 , . . . , an ) = det (a1 , . . . , an ) (b) det (a1 , . . . , an ) (c) det En + λ det (a1 , . . . , ak−1 , a0k , ak+1 , . . . , an ) =0 falls a1 , . . . , an ∈ := a, wobei n=1 gilt dies für A = (a), a ∈ K. Es geht nun darum, allgemein für (10.7) n∈N die Existenz und Eindeutigkeit von det zu zeigen. Lemma. Sei δ : K n×n −→ K multilinear im Sinne von Aussagen (i) (ii) (iii) k ∈ {1, . . . , n}. = 1. Oenbar sind (a)(c) für (1) und (2) erfüllt. Im Fall (10.6) det A für jedes K n×1 linear abhängig sind. (i), (ii) und (iii) Es gilt Eigenschaft (5)(a). äquivalent: Dann sind die folgenden (5)(b). δ(a1 , . . . , an ) = 0 falls a1 , . . . , an nicht paarweise verschieden sind. δ ist alternierend, d.h. δ ändert das Vorzeichen bei einem Platzwechsel, d.h. bei Vertauschung benachbarter Spaltenvektoren. Beweis. (ii) gilt, weil nicht paarweise verschiedene von (ii) ersetze die l -te und (i) ⇒ ⇒ (iii) ak linear abhängig sind. Zum Nachweis (l + 1)-te Komponente für l < n durch al + al+1 . Dann ist wegen der Multilinearität 0 = δ(. . . , al + al+1 , al + al+1 , . . . ) = δ(. . . , al , al + al+1 , . . . ) + δ(. . . , al+1 , al + al+1 , . . . ) = δ(. . . , al , al , . . . ) + δ(. . . , al , al+1 , . . . ) + δ(. . . , al+1 , al , . . . ) + δ(. . . , al+1 , al+1 , . . . ) = δ(. . . , al , al+1 , . . . ) + δ(. . . , al+1 , al , . . . ). Pn Es bleibt (iii) ⇒ (i) zu zeigen. Sei aq = k=1,k6=q αk ak mit αk ∈ K für ein q ∈ {1, . . . , n}. Dann ist Pn δ(a1 , . . . , aq , . . . , an ) = k=1,k6=q αk δ(a1 , . . . , ak , . . . , a1 ) mit ak als q -te Komponente. Weil k 6= q , stimmen für den k -ten Summanden die k -te und die q -te Komponente überein. Sind k und q benachbart, dann ist der Summand null als unmittelbare Folge von (iii). Den allgemeinen Fall führt man auf diesen durch mehrfachen Platzwechsel zurück: . . . , ∗, a, ∗, ∗, a, ∗. · · · → . . . , ∗, ∗, a, ∗, a, ∗. · · · → . . . , ∗, ∗, ∗, a, a, ∗. . . . Eine Determinantenfunktion ist demnach eine K n×n ' (K n×1 )n . normierte alternierende Multilinearform auf Existenz und Eindeutigkeit der Determinantenfunktion ist gleichbedeutend mit der Existenz des folgenden einfacheren Objekts. (10.8) Vollständig antisymmetrischer Tensor n-ter Stufe . Sei n ∈ N. Zu j1 , . . . , jn ∈ {1, . . . , n} gibt es j1 ...jn ∈ K derart, dass 12...n = 1 und bei Platzwechel der Indexwerte das Vorzeichen ändert. ist eindeutig und nimmt für n ≥ 2 genau die Werte −1, 0, 1 an. 66 Beweis. Zur Eindeutigkeit von null ist, wenn zwei Indexwerte überein- j1 ...jn für paarweise j1 , . . . , jn liegt fest, weil man diese durch mehrfache Vertauschung benachbarter Indizes in die Ordnung 12 . . . n bringen kann, wofür eins ist. Damit ist auch klar, dass für n ≥ 2 genau die Werte −1, 0, 1 annimmt. (1) Die Existenz wird durch rekursive Denition gezeigt. Für n=1 sei 1 := 1 := 1. Seien nun die (1) , . . . , (n) bereits konstruiert. Setze Tensoren ( 0 falls zwei Indizes übereinstimmen (n+1) j1 ...jq ...jn jn+1 := (n) (−1)n+1−q j1 ...\ jq ...jn jn+1 sonst stimmen, weil stellt man fest, dass alternierend ist (vgl. Beweis von (7)). Aber auch der Wert von verschiedene Indexwerte q ∈ {1, . . . , n + 1} durch jq = n + 1 bestimmt ist. Zunächst beachte, dass jk ∈ {1, . . . , n} für (n+1) (n) k ∈ {1, . . . , n+1}\{q}, womit die Denition sinnvoll ist. Weiter ist 1...n(n+1) = (−1)0 · 1...n = 1. Bei wobei jq nicht betrit, liefert (n) ein Minuszeichen. Rückt hingegen jq um einen (n) (n+1) normiert Platz, bleibt unverändert aber der Vorfaktor liefert ein Minuszeichen. Also ist einem Platzwechsel, der und vollständig antisymmetrisch. Sind j1 . . . jn In diesem Fall mutation. idSn π(k) := jk eine Permutation π ∈ Sn (siehe (4.3)). schreibt man π := j1 ...jn und nennt π das Vorzeichen oder Signum der Per−1 durch die gleiche Anzahl von Platzwechsel aus gilt stets π = π −1 , weil π und π paarweise verschieden, dann deniert Es hervorgehen. Produktschreibweise. Alternativ zur Pünktchenschreibweise benutzt man für m < n, m, n ∈ Z, n Y αi := αm αm+1 . . . αn ∗) i=m (10.9) Leibniz Formel für Determinanten. Es gibt genau eine Determinantenfunktion, nämlich det A X := n Y π π∈Sn Beweis. aπ(k)k k=1 Zum Nachweis der Eindeutigkeit sei alternierende Multilinearform auf δ(A) = δ n X = n X j1 =1 j2 =1 Oensichtlich ist (K n×1 )n . n X aj1 1 ej1 , j1 =1 n X n X δ eine Determinantenfunktion, d.h. eine normierte Dann ist aj2 2 ej2 , . . . , j2 =1 ··· A ∈ K n×n . für n X ajn n ejn jn =1 aj1 1 aj2 2 . . . ajn n δ(ej1 , ej2 , . . . , ejn ). jn =1 δ(ej1 , ej2 , . . . , ejn ) = j1 j2 ...jn Zur Existenz bleibt zu zeigen, dass und somit δ(A) = P π∈Sn π aπ(1)1 . . . aπ(n)n = det (A). det wie oben deniert wirklich eine Determinatenfunktion ist, d.h. normiert, alternierend und multilinear ist. Es ist det E P Q P = π∈Sn π ( nk=1 δπ(k)k ) = π∈Sn ,π=id π = 1. Bei einem Wechsel der Plätze l A in die Matrix B über mit bk = aσ(k) , wobei σ ∈ Sn , σ(l) := l + 1, σ(l + 1) =: l und l + 1 geht σ(k) = k sonst. und n Y k=1 ∗) Q Demnach ist bπ(k)k = n Y aπ(k)σ(k) = k=1 n Y aπ(σ−1 (j))j j=1 Pi , das groÿe griechische P 67 und somit det B X = π n Y aπ◦σ−1 (j)j = j=1 π∈Sn X κ◦σ n Y aκ(j)j = j=1 κ∈Sn X (−κ ) n Y j=1 κ∈Sn Es bleibt die Multilinearität zu zeigen. Ersetzt man die l -te Spalte durch n Y bπ(k)k = k=1 aπ(k)k + λ k=1 a0k := ak wobei n Y für n Y aκ(j)j = −det (A). bl := al + λa0l , dann ist a0π(k)k , k=1 k 6= l. Einsetzen in die Leibniz Formel liefert die Behauptung. Konkrete Berechnungen mit Hilfe der Leibniz Formel sind oftmals sehr umfangreich wegen der n! groÿen Anzahl von Summanden (siehe die Übung zu (4.3)). Ausgehend von (9) werden jetzt die wichtigsten Eigenschaften der Determinantenfunktion bewiesen. (10.10) Determinante der transponierten Matrix. Für A ∈ K n×n gilt Beweis. Zunächst ist det (A T ), weil Qn k=1 aπ(k)k κ−1 = κ Identiziert man = Qn j=1 ajπ −1 (j) . Damit folgt det (A) = det (A T ) = det (A). P κ∈Sn κ−1 Qn j=1 ajκ(j) nach (8). K n×n ' (K 1×n )n und schreibt A ∈ K n×n als n-Tupel = ihrer Zeilenvektoren, dann folgt aus (9) und (10) sofort (10.11) Korollar. det : K n×n → K ist eine (die einzige) normierte, alternierende Multilinearform bezüglich der Zeilen. Sei A ∈ K n×n Matrix, die aus (10.12) (k, l) ∈ {1, . . . , n}2 . Dann deniert man A(kl) ∈ K (k−1)×(n−1) A durch Streichen der k -ten Zeile und der l-ten Spalte ensteht. und als diejenige Lemma. Sei A ∈ K n×n und (k, l) ∈ {1, . . . , n}2 derart, dass al = ek , d.h. der l-te Spalten- vektor von A ist der k -te Standardspaltenvektor. Dann gilt det (A) = (−1)k+l det A(kl) , Die gleiche Formel gilt, wenn der k -te Zeilenvektor von A gleich dem l-ten Standardzeilenvektor ist. Beweis. Durch n − l Platzwechsel ...∗ verschiebt man ek ek ∗∗∗ → von der l-ten . . . ∗∗ ek ∗∗ → Spalte in die n-te . . . ∗∗∗ ek ∗ → . . . ∗∗∗∗ Spalte ohne die Reihenfolge der übrigen Spal- tenvektoren zu verändern. Anschlieÿend verschiebt man analog durch Zeilenvektor in die n-te Zeile. Für die neue Matrix 68 ek B gelten: n−k Platzwechsel den k -ten (i) der letzte Spaltenvektor von (ii) durch Streichen der (iii) det B ist en , n-ten Zeile und der Spalte von B A(kl) , entsteht = (−1)(k+l) det A. Letzteres gilt, weil det B n-ten B = X (n − l) + (n − k) π π∈Sn n Y Platzwechsel vorgenommen werden. Jetzt wende (9) auf (i) X bπ(k)k = k=1 π n−1 Y bπ(k)k = κ π∈Sn−1 k=1 π∈Sn ,π(n)=n X n−1 Y B an: (ii) bκ(k)k = det A(kl) . k=1 Schlieÿlich beachte (iii). Der Rest der Behauptung gilt wegen (10). Es folgt der Entwicklungssatz von Laplace. (10.13) Entwicklung nach Zeile oder Spalte. Sei A ∈ K n×n beliebig. Dann gelten die Entwicklung von det A nach der lten Spalte (Sl ) det A = n X (−1)k+l akl det A(kl) k=1 und die Entwicklung von det A nach der k ten Zeile (Zk ) det A = n X (−1)k+l akl det A(kl) . l=1 Beweis. P (10.14) lten Spalte ist det A = det (a1 , . . . , al , . . . , an ) = (Sl ) mit (12). Analog zeigt man (Zk ). Aufgrund der Linearität bezüglich der n k=1 akl det (a1 , . . . , ek , . . . , an ). Hieraus folgt Verhalten bei elementaren Umformungen. Seien Z κ , κ = 1, 2, 3, die drei Typen von Elementarmatritzen und C ∈ K n×n , vgl. (8.6) 1 det (Z 1 C) = det (C Z 1 ) = −det (C), 2 det (Z 2 C) = det (C Z 2 ) = λ det (C), 3 det (Z 3 C) = det (C Z 3 ) = det (C). und (9.8). Dann gelten Beweis. Diese Beziehungen sind eine unmittelbare Folge der Multilinearität und der vollständigen Antisymmetrie der Determinantenfunktion. Üb Drücke in Worten die Bedeutung von (14) aus. Die Sätze (13) und (14) erlauben in eektiver Weise Determinanten auszurechnen. (10.15) Beispiel. Vandermonde Determinante. 1 x x2 1 x x2 y − x y 2 − x2 2 2 2 1 y y 0 y−x y −x det = det = det = z − x z 2 − x2 1 z z2 0 z − x z 2 − x2 1 y+x 1 y (y − x)(z − x) det = (y − x)(z − x) det = (y − x)(z − x)(z − y). 1 z+x 1 z 69 Allgemein gilt 1 x1 . . . 1 x2 . . . det . . .. .. 1 xn . . . Üb (10.16) xn−1 1 Y xn−1 2 (xj − xi ). = . . . 1≤i<j≤n xn−1 n Weise die allgemeine Formel für die Vandermonde Determinante aus (15) nach. Multiplikationssatz. Für A, B ∈ K n×n gilt det (A B) = (det A)( det B). Beweis. Da det (E) = 1, folgt aus (14) für C = E , dass (?) det (Z 1 ) = −1, Daher gilt det (Z κ C) = det (Z det (Z 2 κ ) = λ, det (Z ) det (C) für 3 ) = 1. κ = 1, 2, 3. Dies wird nun mehrfach angewendet. A invertierbar. Dann existieren nach (9.9) Elementarmatritzen Z 1 , . . . , Z m derart, dass A = Z 1 . . . Z m . Daher gilt: det (A B) = det (Z 1 . . . Z m B) = det (Z 1 ) det (Z 2 . . . Z m B) = det (Z 1 ) det (Z 2 ) det (Z 3 . . . Z m B) = · · · = det (Z 1 ) . . . det (Z m ) det (B). Letzteres ist nun gleich det (Z 1 ) . . . det (Z m−2 ) det (Z m−1 Z m ) det (B) = · · · = det (Z 1 . . . Z m ) det (B) = det (A) det (B). Sei zunächst Jetzt sei A nicht invertierbar, d.h. Rang(A)< Denition (5)(b) gelten det (A) =0 Wir erinnern nochmals an (7.23): wenn (10.17) n. und det (A B) A ∈ K n×n Dann ist auch Rang(A B )< n. Nach (7.23) und = 0. ist invertierbar genau dann, wenn Rang (A) =n oder dim Kern (A) = 0. Invertierbarkeitskriterium. Es ist K n×n GL(n, K) = {A ∈ K n×n : det (A) gilt: 6= 0}, d.h. für A ∈ A invertierbar ⇔ det (A) 6= 0. Ist A invertierbar, dann ist det(A−1 ) = 1/ det(A). Beweis. ist det A Üb A nicht invertierbar ⇒ Rang (A) < n ⇒ det (A) = 0. Sei nun A E = A A−1 ⇒ 1 = det (E) = det (A A−1 ) = det A det (A−1 ). Insbesondere Wir wissen bereits: invertierbar. Dann gilt: 6= 0. Man beweise die folgenden Formeln für A, B, C ∈ K n×n und S ∈ GL(n, K). • det (A B C) = det (B A C) = det (B C A). • det (Ak ) = (det A)k für k ∈ N, wobei Ak := (. . . ((A A) A) . . . )A k mal. • det (S −1 A S) = det (A). Üb Blockmultiplikation von Matrizen. seien Akl eine C kj := (mk × nl )Matrix n X und B lj Für k = 1, . . . , m, l = 1, . . . , n (nl × pj )Matrix. Damit ist eine Akl B lj l=1 70 und j = 1, . . . , p Pm (mk × pj )Matrix. Pn Setze (Akl )k=1,...,m, l=1,...,n k=1 mk und N := l=1 nl zusammen: A11 A12 · · · A1n A 21 A22 · · · A2n A= . . . .. . . .. . . . Am1 Am2 · · · Amn eine (M × N )Matrix A mit M := P P := pj=1 pj . Zeige C = A B. B C B n×n derart, dass als Blockmatrix A = Sei A ∈ K bzw. A = , D C D wobei B und D quadratisch sind. Zeige: det A = (det B)(det D). B ∈ K N ×P Ebenso bilde Üb zu einer Tipp: C ∈ K M ×P und mit Zeige die Behauptung für den Spezialfall D=E A in geeigneter Weise als Aii , i = 1, . . . , p. Man zeige die Formel und schreibe Produkt zweier Matrizen. Üb Dreiecksblockmatrizen. Sei A11 A= ∗ A22 .. . App eine obere Dreiecksblockmatrix mit quadratischen det A = Qp i=1 det Aii . Entsprechendes zeige man für untere Dreiecksblockmatrizen. Üb Sei B C D A= Übung folgt, dass von Üb B −1 D und Eine Matrix −1 mit A B, D quadratische invertierbare Matrizen. Aus der vorangegangenen invertierbar ist. Wie lautet die Blockmatrix für A−1 unter Verwendung ? P ∈ K n×n heiÿt Permutationsmatrix, von Spalten hervorgeht, d.h. wenn es eine Permutation wenn P aus E n durch Vertauschung π ∈ Sn (siehe (4.3)) gibt derart, dass P = (eπ(1) |eπ(2) | . . . |eπ(n) ) oder, anders ausgedrückt, wenn P ek = eπ(k) für k = 1, . . . , n. Also besteht eine eineindeutige Zuordnung π 7→ Pπ zwischen den Permutationen aus Sn und den (n × n)Permutationsmatrizen. Sei Πn ⊂ K n×n die Menge der Permutationsmatrizen. a) Zu welcher Permutation gehört 0 0 0 1 0 1 0 0 b) Wie sieht die Permutationsmatrix zu π(5) := 1 1 0 0 0 π ∈ 0 0 ? 1 0 S5 mit π(i) := i + 1 für i ∈ {1, . . . , 4} und aus? c) Weise nach: Es ist Πn ⊂ GL(n, K) Gruppenhomomorphismus Pπ◦κ = Pπ Pκ und ist ein injektiver ∀ π, κ ∈ Sn , Πn ist. Allgemein nennt man einen Gruppenhomomorphismus GL(n, K) eine ndimensionale Matrixdarstellung von G. dessen Bild gleich Gruppe G in Sn → GL(n, K), π 7→ Pπ , 71 einer d) Weise nach: Πn ist eine Gruppe bezüglich der Gruppenmultiplikation, d.h. Untergruppe von π Tipp: e) Sei ist eine GL(n, K). π ∈ Sn . das Vorzeichen der Permutation Wie hängen Pπ und π Zeige: nter antisymmetrischen Tensor π◦κ = π κ ∀π, κ ∈ Sn . zusammen? f ) Finde einen Zusammenhang zwischen gewissen (10.18) Πn Stufe (n × n)Matrizen und dem vollständig . Cramer Regel. Seien A ∈ GL(n, K) und b ∈ K n×1 . Dann hat A x = b die eindeutige Lösung x = (x1 . . . xn )T ∈ K n×1 mit xk = 1 det A det (a1 , . . . , ak−1 , b, ak+1 , . . . , an ). Beweis. Es ist b = A x = Pn Pn l=1 xl det (a1 , l=1 xl al und somit det (a1 , . . . , ak−1 , b, ak+1 , . . . , an ) = P n . . . , ak−1 , al , ak+1 , . . . , an ) = l=1 xl δkl det A = xk det A. (10.19) Formel für die inverse Matrix. Sei A ∈ GL(n, K). Setze (âkl )k, l=1,...,n := A−1 . Dann ist âkl = 1 (−1)k+l det A(lk) für k, l = 1, . . . , n. det A Beachte die Reihenfolge der Indizes. Beweis. Für b = el x = A−1 el = âl die lte Spalte von A−1 . 1 1 det (a1 , . . . , ak−1 , el , ak+1 , . . . , an ) = (−1)k+l det A(lk) . âkl = det A det A (10.20) in (18) ist Adjunkte Matrix. Zu A ∈ K n×n Die Matrix à setze heisst die Adjunkte zu à = (ãkl )k,l=1,...,n mit Also ist nach (18) und (12) ãkl := (−1)k+l det A(lk) . A. Sie erfüllt à A = A à = (det A) E n . Beweis. Mit (12) gilt Pn l=1 ãkl alj = Pn l=1 det (a1 , . . . , ak−1 , el , ak+1 , . . . , an ) alj = det (a1 , . . . , ak−1 , aj , ak+1 , . . . , an ) = δkj det A. à A = ( det A) E n . Nun ist (A˜T )T = Ã, wie man sich leicht überzeugt. Damit A˜T AT = ( det AT )E n durch Transponieren A à = ( det A) E n . Man beachte dabei (10). Also gilt (10.21) Üb Beispiel. Die Adjunkte zu A = Seien f : Rn → Rn linear und α β γ δ b1 , . . . , b n ( n X ist Vektoren des Rn . , vgl. (9.12). Die Teilmenge des ) λl bl : λl ∈ [0, 1] l=1 heiÿt à = δ −β −γ α Spat mit Kanten b1 , . . . , bn . 72 für l = 1, . . . , n Rn folgt aus bl der Spaltenvektor in Rn×1 bestehend aus den Komponenten (b1 . . . bn ) ∈ Rn×n . In Übereinstimmung mit der Anschauung im R2 Sei von und bl ∈ Rn . Setze B := R3 (vgl. die Erläute- rungen zu (1) und (2)) nennt man allgemein V := | det B | Volumen b1 , . . . , bn . Zeige: Das Volumen des Spats mit Kanten f (b1 ), . . . , f (bn ) ist | det f | V . (Dabei ist det f := det A für eine f darstellende Matrix A. Wegen das des Spats mit Kanten (7.34) und (16), (17) kommt es dabei nicht auf eine spezielle Wahl der Abbildungsmatrix an.) 73 11 Eigenwerte und Eigenvektoren Gegeben sei eine lineare Abbildung f : V → W von einem ndimensionalen K VR V in einen mdimensionalen K VR W . (11.1) Struktursatz für Homomorphismen. Sei r := Rang (f ). Bei geeigneter Wahl von Basen in V und W ist die Abbildungsmatrix A ∈ K m×n von f gleich Er A= Jede weitere Abbildungsmatrix A0 von f ist von der Form A0 = T −1 A S mit T ∈ GL(m, K) und S ∈ GL(n, K). Beweis. Die Behauptung folgt sofort aus (9.9) und (7.32). Ähnlichkeit von quadratischen Matrizen V bestimmt man eine Abbildungsmatrix A ∈ K n×n von f , indem man auch die Bildvektoren f (x) bezüglich derselben Basis entwickelt. Ein Basiswechsel in V 0 führt auf eine zu A ähnliche Matrix A , nämlich Im Fall eines Endomorphismus (11.2) mit f von A0 = S −1 AS S ∈ GL(n, K), siehe (7.34). Die Aufgabe ist S so zu bestimmen, dass A0 eine möglichst einfache Gestalt hat. Diese Aufgabenstellung hat einen prinzipiellen Aspekt, auf den wir kurz eingehen wollen. (11.3) Äquivalenzrelation. Eigenschaften für Sei X eine Menge. Eine Äquivalenzrelation ∼ auf X hat x, y, z ∈ X . Dabei steht x ∼ y für "x ist äquivalent zu y ". die folgenden x ∼ x (Reexivität) x ∼ y ⇒ y ∼ x (Symmetrie) x ∼ y, y ∼ z ⇒ x ∼ z (Transitivität). Zu jedem x∈X bildet man nun die zugehörige Äquivalenzklasse von Elementen aus X [x] := {y ∈ X : y ∼ x}. Je zwei Äquivalenzklassen [x] und [x0 ] sind gleich [x] = [x0 ], wenn x ∼ x0 , und disjunkt [x] ∩ [x0 ] = ∅, wenn x x0 . (Denn ist x ∼ x0 und sind y, y 0 ∈ X mit y ∈ [x] und y 0 ∈ [x0 ], dann 0 0 0 0 0 gilt y ∼ x ∼ x ∼ y , weshalb y ∈ [x ] und y ∈ [x]. Ist hingegen x x , dann ist für jedes 0 0 y ∈ [x] auch y x und somit y ∈ / [x ].) Damit ist X die Vereinigung der paarweise disjunkten Äquivalenzklassen. Ist K ⊂ X eine Äquivalenzklasse und x ∈ K , dann ist [x] = K und x heiÿt ein Repräsentant von K . Es folgen einige Beispiele für Äquivalenzrelationen. (11.4) Partition. Sei X eine Menge. Sei K ⊂ P(X). Ist K eine Partition von aus K sind nichtleer und paarweise disjunkt und ihre Vereinigung y :⇔ ∃K ∈ K mit x, y ∈ K eine Äquivalenzrelation auf X . 74 ist X, X, d.h. die Mengen dann deniert x∼ (11.5) Isomorphe Vektorräume. endlichdimensionalen (11.6) Die Isomorphie ist eine Äquivalenzrelation auf der Menge der K -VR. Quotientenraum. Seien V ein VR und eine Äquivalenzrelation auf V. x. Zu W ⊂ V ein UVR. Dann deniert "x ∼ y : y −x ∈ W " x ∈ V ist [x] = x + W der ane Unterraum (6.20) zu Die Äquivalenzklassen heiÿen auch Nebenklassen und die Menge der Nebenklassen heiÿt Quotientenraum und wird mit V /W bezeichnet. Der Quotientenraum ist ein VR bezüglich (x + W ) + λ(x0 + W ) := (x + λx0 ) + W und 0 + W = W als Nullvektor. Diese Verknüpfung ist wohldeniert, denn sind x + w und x0 + w0 0 0 mit w, w ∈ W zwei weitere Repräsentanten der beiden Nebenklassen, dann ist (x + w + λ(x + 0 0 0 w )) + W = (x + λx ) + W , weil (w + λw) ∈ W . der repräsentantenweise denierten Verknüpfung (11.7) (11.8) Üb Äquivalente Matrizen. A, B ∈ K m×n sei A ∼ B , falls T ∈ GL(m, K) und S ∈ −1 A S . Damit ist eine Äquivalenzrelation auf K m×n deniert. GL(n, K) existieren mit B = T Die Anzahl der Äquivalenzklassen ist endlich, nämlich min{n, m} + 1. Repräsentanten der Er Äquivalenzklassen sind die Nullmatrix und für r = 1, . . . , min{n, m}. Vgl. (1). Für Ähnliche Matrizen. Die Ähnlichkeit (2) für Matrizen aus K n×n ist eine Äquivalenzrelation. Weise die Behauptungen in (4) (8) nach. Die Aufgabe besteht also darin, möglichst einfache Repräsentanten der nden. Diagonalmatrizen D := diag(λ1 , . . . , λn ), Abbildungsmatrix eines Endomorphismus v1 , . . . , vn von f (vl ) = V n X f von Ähnlichkeitsklassen zu λl ∈ K , sind besonders einfach. Wann ist D die V ? Die Antwort ist oenbar, wenn es eine Basis gibt derart, dass nach (7.20) (λk δkl ) vk = λl vl für l = 1, . . . , n. k=1 (11.9) Eigenwert, Eigenvektor. f, von f V ein K -VR, f ∈ End (V ) und λ ∈ K . Dann heiÿt λ ein v ∈ V , v 6= 0, existiert mit f (v) = λv . Man nennt v einen Eigenwert λ. Eigenwert von wenn ein Eigenvektor zum Sei Beachte, Eigenvektoren sind stets ungleich x ∈ Kern (f ) \ {0} 0 ∈ V, ist Eigenvektor zum Eigenwert während 0∈K ein Eigenwert sein kann. Jedes 0. f diagonalisierbar, wenn es eine Basis in V aus Eigenvektoren f gibt. Im Fall n = dim V < ∞ wird f bez. einer solchen Basis durch die Diagonalmatrix n×n eine diag (λ1 , . . . , λn ), λl ∈ K dargestellt, wobei λl die zugehörigen Eigenwerte sind. Ist A ∈ K Abbildungsmatrix von f , dann ist wie wir gesehen haben, f genau dann diagonalisierbar, wenn A Man nennt einen Endomorphismus von ähnlich zu einer Diagonalmatrix ist. A ∈ K n×n . Im Sinne von (7.10). spricht man von Eigenwerten, Eigenvektoren lisierbarkeit von A anstelle von LA . Zusammenfassend können wir feststellen Sei (11.10) (i) (ii) Lemma. Sei A ∈ K n×n . Dann sind äquivalent: A ist diagonalisierbar. A ist ähnlich zu einer Diagonalmatrix. Genaueres sagt der nächste Satz aus. 75 und Diagona- (11.11) Diagonalisierung. Sei A ∈ K n×n und sei s1 , . . . , sn eine Basis in K n×1 von Eigenvektoren von A zu den Eigenwerten λ1 , . . . , λn in K . Dann ist S := (s1 . . . sn ) ∈ K n×n invertierbar und S −1 A S = diag (λ1 , . . . , λn ). Umgekehrt, ist A ∈ K n×n und sind S = (s1 . . . sn ) ∈ GL(n, K) und λ1 , . . . , λn aus K derart, dass S −1 A S = diag (λ1 , . . . , λn ), dann ist s1 , . . . , sn eine Basis in K n×1 von Eigenvektoren von A zu den Eigenwerten λ1 , . . . , λn . Beweis. S el = sl und somit el = S −1 sl A S el = S A sl = S (λsl ) = λS −1 sl = λel für alle l. Zur für l = 1, . . . , n. Damit folgt: S Umkehrung beachte S el = sl und somit A sl = A S el = S diag(λ1 , . . . , λn ) el = Sλl el = λl sl . Üb = n, Da Rang (S) ist S invertierbar (7.23). Weiter ist −1 Man zeige: Ist A ∈ K n×n −1 −1 äquivalent zu einer Diagonalmatrix, so ist letztere bis auf die Reihenfolge der Diagonalelemente eindeutig. (11.12) Lineare Unabhängigkeit von Eigenvektoren. Seien v1 , . . . , vm Eigenvektoren zu paarweise verschiedenen Eigenwerten λ1 , . . . , λm von f ∈ End (V ). Dann sind v1 , . . . , vm linear unabhängig. Beweis. Der Beweis erfolgt durch Induktion nach mP . Für m = 1 gilt die Aussage, weil v1 6= 0. Für den Induktionsschluss von 0 = λm+1 0 = 0 = f (0) = m+1 X k=1 m+1 X m nach m+1 betrachte m+1 k=1 αk vk =0 mit αk ∈ K . Dann ist λm+1 αk vk , λk αk vk . k=1 Die Dierenz der beiden Ausdrücke ist zung folgt vm+1 6= 0 (λm+1 − λk )αk = 0 Pm und somit als Eigenvektor, ist auch αm+1 k=1 (λm+1 − λk )αk vk = 0. Aus der Induktionsvoraussetαk = 0 für k = 1, . . . , m. Daher ist αm+1 vm+1 = 0. Weil = 0. Die folgende Aussage ist ein unmittelbares Korollar zu (12). (11.13) Diagonalisierbarkeitskriterium. verschiedene Eigenwerte, dann ist f Ist n := dim V <∞ und hat f ∈ End (V )n paarweise diagonalisierbar. Natürlich ist die Verschiedenheit der Eigenwerte keine notwendige Bedingung für die Diagonalisierbarkeit, wie f = idV lehrt. Seien V und W (beliebig dimensionale) Isomorphismus. Das Diagramm ist mit f 0 := s ◦ f ◦ s−1 kommutativ. 76 K -VR und s:V →W ein (11.14) Eigenwert als Invariante. Sei v ein Eigenvektor zum Eigenwert λ von f ∈ End (V ). Dann ist λ ein Eigenwert und s(v) dazu ein Eigenvektor von f 0 . Üb Weise (14) nach. Charakteristisches Polynom Wie aus dem Bisherigen hervorgeht und wie besonders die Aussage (13) zeigt, ist es wichtig, die Eigenwerte eines Endomorphismus dass jede Darstellungsmatrix (11.15) A f zu kennen. Im Fall dim von f V < ∞ folgt aus (14) mit (7.9), (7.10), f besitzt. die gleichen Eigenwerte wie Hauptlemma. Für f ∈ End (V ) gilt: λ Eigenwert von f ⇔ Für A ∈ K n×n gilt: λ Eigenwert von A ⇔ Kern (A Kern (f − λidV ) 6= {0}. − λE n ) 6= {0} ⇔ det (A − λ En ) = 0. Beweis. Oenbar ist f (x) = λx äquivalent zu (f − λidV )(x) = 0, d.h. x ∈ Kern (f − λidV ). Ferner gilt: Kern (A − λE n ) 6= {0} ⇔ A − λE n nicht invertierbar ⇔ det (A − λE n ) = 0. Siehe dazu (7.23) und (10.17). Sei X eine Unbestimmte und a11 − X a12 ··· a21 a − X · ·· 22 A − XE n = . . . . . .. . . an1 an2 ··· a1n a2n . . . . ann − X Dann bezeichne χA := det (A − XE n ) (11.16) das Polynom in χA = n Y X gemäÿ der Leibniz Formel (10.9). Danach ist (akk − X) + Q, k=1 π = id ist und Q die Summe über π ∈ Sn \ {id} bezeichnet. Q ≤ n − 2. Nach fallenden Potenzen in X geordnet ist wobei das Produkt der Summand zu ist ein Polynom in (11.17) X vom Grad χA = (−1)n X n + (−1)n−1 (Spur A)X n−1 + . . . + det A. Dabei ist die Spur von A als die Summe der Diagonalelemente von A (11.18) Spur A := n X akk k=1 deniert. Man nennt vom Grad n χA das charakteristische Polynom von A ∈ K n×n . Es ist also ein Polynom in einer Unbestimmten mit Koezienten aus K. n−1 Spur A und das Absolutglied lautet Koezient zur zweithöchsten Potenz ist (−1) Üb Sei B ∈ K m×n und C ∈ K n×m . Zeige: Spur (B 77 (−1)n . det A. Der Leitkoezient ist C) = Spur (C B). Der Polynome über K Polynomrings K[X] einzuschieben. Die ElePolynome über K in einer Unbestimmten. K[X] ist der VR K (N0 ) Hier ist es angebracht, eine strenge Denition des mente von K[X] heiÿen (siehe (5.4)) versehen mit einer weiteren inneren Verknüpfung, einem Produkt. Zu seiner Denition wird die kanonische Basis in K (N0 ) X l := (0, . . . , 0, 1, 0, . . .) für wie folgt bezeichnet: l ∈ N0 , wobei l Nullen vor der 1 stehen. X 0 = (1, 0, . . . , 0, . . .). Ein Polynom p ∈ K[X] schreibt man als Linearkombinal tion der Basisvektoren X , l ∈ N0 , d.h. es existiert ein n ∈ N0 und eindeutig bestimmte αl ∈ K für l = 0, . . . , n mit Insbesondere ist p= n X αl X l . l=0 αl = 0, dann heiÿt p = 0 das Nullpolynom. Andernfalls existiert ein maximales d ∈ N0 mit d ≤ n und αd 6= 0. Dann heiÿt p ein Polynom von Grad d, bezeichnet mit d =: grad p, und Leitkoezient αd . Im Fall d = 0 schreibt man p = α0 X 0 =: α0 , wobei α0 6= 0. Das Nullpolynom hat keinen Grad. Die Sprechweise "p ist ein Polynom vom Grad ≤ n" schlieÿt jedoch das Nullpoly- Sind alle nom mit ein. Ist q= Pm k=0 βk X p q := k ein weiteres Polynom, dann deniert man das n X m X αl βk X l+k = n+m X γj X j mit j=0 l=0 k=0 αl βk . l,k mit l+k=j Dieses Produkt hat folgende Eigenschaften für (a) p (q r) = (p q) r (b) pq = qp (c) p (q + r) = p q + p r, (p + q) r = p r + q r p, q, r in K[X]: assoziativ kommutativ (d) grad (p q) = (grad p) + (grad q) für n X l=0 αl m X distributiv p 6= 0, q 6= 0. Mit Hilfe des Produkts deniert man auch die p ◦ q := X γj := Produkt Komposition zweier Polynome: !l βk X k . k=0 Auch hierfür gilt die Assoziativität (p ◦ q) ◦ r = p ◦ (q ◦ r), die man mit etwas formalem algebraischen Aufwand beweist. P p ∈ K[X] ist die Polynomfunktion p̂ : K → K, p̂(λ) := nl=0 αl λl , zugeordnet. Die Abbildung p 7→ p̂ ist für unendliche Körper injektiv, siehe (20) unten. Für endliche Körper ist das nicht der Fall. Eine Nullstelle von p ist denitionsgemäÿ ein λ ∈ K mit p̂(λ) = 0. Wenn es nicht zu Missverständnissen führt, schreiben wir p(λ) anstelle von p̂(λ). Jedem Polynom Für p, q, r ∈ K[X], λ ∈ K gelten (p + q)(λ) = p(λ) + q(λ) und (pq)(λ) = p(λ)q(λ), 78 sowie (p ◦ q ◦ r)(λ) = p(q(r(λ))). Üb Polynomdivision mit Rest. Sei q ∈ K[X]\{0} und p ∈ K[X]. Zeige: Es existieren eindeutig bestimmte h ∈ K[X] und r ∈ K[X] derart, dass p = hq + r mit r=0 oder grad r < grad q . Wir fahren mit der Untersuchung des charakteristischen Polynoms fort. Aus (15) folgt sofort (11.19) Eigenwerte als Nullstellen des charakteristischen Polynoms. Die Nullstellen von χA in K sind genau die Eigenwerte von A. Sei A0 ähnlich zu A, siehe (2). Dann ist χA (λ) = χA0 (λ) für alle λ ∈ K, d.h. die charakteristischen Polynomfunktionen sind gleich, denn χA0 (λ) = det(A0 −λE n ) = det(S −1 A S −λS −1 S) = det(S −1 (A−λE n )S) = det(A−λE n ) = χA (λ). Im Fall, dass K unendlich viele Elemente hat, wie etwa Q, R oder C, folgt daraus, dass χA und χA0 selbst gleich sind, denn es gilt (11.20) Gleichheit von Polynomen. Seien p, p0 zwei Polynome über K vom Grad ≤ n, die für n + 1 paarweise verschiedene Werte λ1 , . . . , λn+1 aus K übereinstimmen. Dann ist p = p0 . P Beweis. Oenbar genügt es zu zeigen, dass q := p−p0 das Nullpolynom ist. Sei q = nl=0 αl X l mit al ∈ K, l = 1, . . . , n. Dazu betrachte man das LGS q(λj ) = 0, j = 1, . . . , n + 1, d.h. 1 λ1 · · · λn1 x1 1 λ2 · · · λn2 x2 .. . . . = 0. . . . . . . . n 1 λn+1 · · · λn+1 xn+1 (x1 , . . . , xn+1 ) = (α0 , . . . , αn ). Die Vandermonde (λ − λ ) = 6 0. Daher hat das LGS nur die Nulllösung. j k 1≤k<j≤n+1 Eine Lösung davon ist Q (11.21) Determinante (10.15) ist Charakteristisches Polynom als Invariante. Die charakteristischen Polynome für ähnli- che Matrizen sind gleich. Beweis. Für den Fall unendlichem K siehe nach (19). Der Fall endlichen Körpers folgt mit etwas formalen Aufwand, indem man direkt von det(S (11.22) Determinante für Endomorphismen. χf := χA , wobei A −1 (A − XE n )S) Ist dim V ausgeht. < ∞ und f ∈ End (V ), dann setzt man f ist. Dies ist sinnvoll wegen (21) und (irgend)eine Abbildungsmatrix von (7.34). Ebenso ist detf := detA wohldeniert. Eigenräume Zu einem Eigenwert einfaches Beispiel ist λ ∈ K von f kann es mehrere linear unabhängige Eigenvektoren geben. Ein f := α idV mit α ∈ K : Einziger Eigenwert von f ist α und jedes x ∈ V \ {0} ist Eigenvektor dazu. − λ idV ) den Eigenraum von f bezüglich λ. Oenbar ist λ genau dann ein Eigenwert von f , wenn Ef (λ) 6= {0} ; in diesem Fall heiÿt γf (λ) := dim Ef (λ) die geometrische Vielfachheit von λ. Jedes x ∈ Ef (λ) \ {0} ist ein Eigenvektor zu λ von f . Aufgrund von (12) ist für paarweise verschiedene λ1 , . . . , λm aus K gemäÿ folgender Denition die Summe der Eigenräume Ef (λi ) direkt. Für λ ∈ K nennt man E(λ) := Ef (λ) := Kern(f 79 (11.23) Direkte Summe von UVR. Seien V W1 , . . . , Wn UVR von V . In Verallgemeinerung von (6.15) heiÿt die Summe W := W1 + W2 + . . . + Wm direkt, wenn {x1 , . . . , xm } \ {0} linear unabhängig ist, falls xk ∈ Wk für k = 1, . . . , m. Man schreibt ein VR und W = W1 ⊕ W2 ⊕ . . . ⊕ Wm . Üb Sei W1 , . . . , Wm . Zeige: Jedes v ∈ V lässt sich in eindeutiger v = w1 + . . . + wm mit wk ∈ Wk für k = 1, . . . , m schreiben. Zeige weiter: Ist Mk Basis von Wk für k = 1, . . . , m, dann ist M := M1 ∪ . . . ∪ Mm eine Basis von V . V die direkte Summe der UVR Weise als eine Üb Verallgemeinere die obige Denition der direkten Summe von UVR für beliebig viele UVR und beweise dafür die Aussagen der vorangegangenen Übung. Für A ∈ K n×n EA (λ) := Ef (λ) mit f := LA . Zur Berechnung von EA (λ) (A − λE) x = 0. Es folgen drei typische Beispiele dazu, wofür die n×1 oder {0} ergibt, oder eindimensional ist. Eigenräume entweder ganz K setzt man natürlich löst man das homogene LGS direkte Summe der (11.24) Beispiel 1. 0 −1 1 A = −3 −2 3 ∈ K 3×3 . −2 −2 3 Sei χA = −X det −2 − X 3 −2 3−X Dann ist + 3 det −X −1 1 3 A − XE 3 = −3 −2 − X −2 −2 3−X −1 1 −2 3 − X − 2 det und −1 1 = −2 − X 3 −X((−2 − X)(3 − X) + 6) + 3(−(3 − X) + 2) − 2(−3 + 2 + X) = −X 2 (X − 1) + 3(X − 1) −2(X − 1) = (X − 1)(−X 2 + 1) = −(X − 1)2 (X + 1) = −X 3 + X 2 + X − 1. Also ist 1, −1. χA = −X 3 + X 2 + X − 1. Die Nullstellen von χA sind die Eigenwerte von A. Sie lauten Jetzt lassen sich die Eigenräume dazu berechnen. EA (1) = Kern(A − E 3 ) (A − E 3 ) X = 0, ist die Lösungsmenge des LGS d.h. x1 −1 −1 1 0 −3 −3 3 x2 = 0 . −2 −2 2 0 x3 EA (1) wende das Gauÿ −1 −1 1 −1 −1 1 −3 −3 3 −→ 0 0 0 −2 −2 2 0 0 0 Zur Berechnung von Verfahren an: λ := x2 , µ := x3 die freien −1 1 −λ + µ x1 x2 = λ 1 + K 0 : λ, µ ∈ K = K EA (1) = x3 µ 0 1 ist bereits die spezielle Zeilenstufenform. Damit sind in Parameter und Basisdarstellung. Also ist der Eigenwert Vielfachheit von 1 ist γA (1) = dim EA (1) = 2. 80 Variablen und 1 zweifach entartet, d.h. die geometrische EA (−1) = Kern(A + E 3 ): 1 −1 1 −1 0 12 1 −1 1 1 −1 1 1 0 − 21 A + E 3 = −3 −1 3 −→ 0 −4 6 −→ 0 −4 6 −→ 0 −4 6 −→ 0 −1 32 0 0 0 −2 −2 4 0 0 0 0 −4 6 0 0 0 Berechne jetzt λ := x3 die freie 1 1 x1 2λ 2 EA (−1) = x2 = 32 λ : λ ∈ K = K 32 λ 1 x3 ist die spezielle Zeilenstufenform. Damit ist in Parameter und Basisdarstellung. Also ist von −1 nicht entartet, d.h. die geometrische Vielfachheit γA (−1) = dim EA (−1) = 1. ist Es folgt −1 Variable und K 3×1 = EA (1) ⊕ EA (−1). Damit ist A diagonalisierbar. Explizit erhält man nach (11) −1 1 12 S := 1 0 32 . 0 1 1 S −1 A S = diag(1, 1, −1) (11.25) Sei mit Beispiel 2. ϕ∈R und Dϕ := Die Matrix Winkel ϕ, Dϕ beschreibt eine Drehung in der Ebene R2 (' R2×1 ) in positivem Drehsinn um den denn: Dϕ cos(ϕ) − sin(ϕ) ∈ R2×2 . sin(ϕ) cos(ϕ) cos(α) cos(ϕ) cos(α) − sin(ϕ) sin(α) cos(ϕ + α) = = . sin(α) sin(ϕ) cos(α) + cos(ϕ) sin(α) sin(ϕ + α) χ = (cos(ϕ) − X)2 + sin2 (ϕ) = X 2 − (2 cos(ϕ))X + 1 hat eine reelle − 4 ≥ 0, d.h. nur für ϕ ∈ πZ, wozu zwei unterschiedliche Fälle gehören: D0 = E 2 und Dπ = −E 2 haben jeweils 2-fach entartete Eigenwerte 1 bzw. −1. Die Eigenräume 2 dazu sind jeweils ganz R . Für ϕ ∈ / πZ ist E(λ) = {0} für jedes λ ∈ R. Das charakteristische Polynom 2 Lösung nur für 4 cos (ϕ) Wir fassen nun Dϕ ∈ C2×2 auf. Dann gibt es Nullstellen von χ, λ1,2 = cos(ϕ) ± i sin(ϕ) =: e±iϕ . 81 nämlich Berechne E(eiϕ ) für ϕ∈ / πZ: cos(ϕ) − eiϕ − sin(ϕ) −i sin(ϕ) − sin(ϕ) −i −1 = = sin ϕ sin(ϕ) cos(ϕ) − eiϕ sin(ϕ) −i sin(ϕ) 1 −i −i −1 −1 i −→ −→ 0 0 0 0 λ := x2 die x1 iλ i iϕ E(e ) = = :λ∈C =C . x2 λ 1 ist die spezielle Zeilenstufenform. Damit ist −iϕ ) Analog folgt E(e 2×1 Also ist C Fazit: (11.26) Sei Dϕ = −i =C . 1 E(eiϕ ) ϕ∈ / πZ für ⊕ R S −1 AS = iϕ −iϕ ) mit diag(e , e S= nicht diagonalisierbar, wohl aber über i −i . 1 1 C. Beispiel 3. λ 1 J n (λ) := λ λ E(e−iϕ ) und ist über .. . .. . Dreiecksmatrix und somit ist freie Variable und ∈ K n×n , n ≥ 2 die Jordanmatrix zu λ ∈ K . Es ist eine obere 1 λ n P n n−i i n λ X ) ihr charakteristisches Polynom. Also χ = (λ − X) (= i=0 i einziger Eigenwert. Berechne 0 1 E(λ) : J n (λ) − λE n = 0 .. . .. . 0 −1 0 −→ 1 0 hat bereits spezielle Zeilenstufenform. Die freie Variable ist µ := x1 .. . .. . −1 0 und x1 µ 1 x2 0 0 E(λ) = . = . : µ ∈ K = K . 6= K n×n . . . .. . . xn 0 0 Ist J n (λ) diagonalisierbar? Nein, denn sonst müsste Eigenwert ist. Aber λ∈K λ En und jeden Körper D = (dkl ) J n (λ) zu λ En ist nur zu sich selbst ähnlich. Beachte, dass dies für K λ der einzige jedes n ≥ 2, jedes ähnlich sein, weil gilt. (n × n)−Dreiecksmatrix. χD = Qn l=1 (dll − X). Üb Sei Üb Wie lautet die Verallgemeinerung des Ergebnisses der vorangegangenen Übung auf Dreiecks- eine Zeige: blockmatrizen? 82 12 Diagonalisierbarkeit und Trigonalisierbarkeit Im Folgenden ist V stets ein n-dimensionaler K -VR. Wir verfolgen hier weiter die am Anfang des vorangegangenen Kapitels gestellte Aufgabe, einen Repräsentanten möglichst einfacher Gestalt für jede Ähnlichkeitsklasse zu nden. Das charakteristische Polynom, das für ähnliche Matrizen gleich ist, ist das entscheidende Hilfsmittel dazu. Diagonalisierbarkeit Aus den bisherigen Ergebnissen schlieÿen wir (12.1) Lemma. Sei f ∈ End(V ) diagonalisierbar. Dann ist χf = (λ1 − X)γ1 (λ2 − X)γ2 . . . (λs − X)γs , wobei λ1 , λ2 , . . . , λs die paarweise verschiedenen Eigenwerte von f bezeichnen und γi := γf (λi ) ihre geometrischen Vielfachheiten sind. Beweis. Für die f darstellende Diagonalmatrix λ 1 E γ1 D := .. . λ s Eγs ist χf = χD nach (11.22), und Umgekehrt, wenn für f ∈ End(V ) nearfaktoren (λ − X) χf hat die behauptete Gestalt. das charakteristische Polynom in zerfällt, dann ist sich, wenn Nullstellen von (12.2) χD = det(D − XEn ) f n paarweise verschiedene Li- diagonalisierbar nach (11.13). Schwierigkeiten ergeben mehrfach auftreten. Vielfachheit eines Linearfaktors. p ∈ K[X] vom Grad n ∈ N0 und λ ∈ K . Das α maximale α ∈ {0, . . . , n}, wofür q ∈ K[X] existiert derart, das p = (λ − X) q , heiÿt die α Vielfachheit αp (λ) von λ. Ist p = (λ − X) q für α = αp (λ), dann ist q(λ) 6= 0. Ist p = (λ − X)β q 0 mit β ∈ {0, . . . , n} und q 0 ∈ K[X] mit q 0 (λ) 6= 0, dann ist α = β und q = q 0 . Sei Beweis. Angenommen es ist q(λ) folgt für q̃ := q ◦ l mit l := λ − X ∈ K[X]: q̃(0) = Pn= 0. Dann j mit β ∈ K und β = 0 ⇒ q̃ ◦ l = q ◦ (l ◦ l) = q(l(0)) = q(λ) = 0 ⇒ q̃ = β X j 0 j=0 j P Pn n j j−1 =: q ◦ (λ − (λ − X)) = q ◦ X = q und somit q = j=0 βj (λ − X) = (λ − X) β (λ − X) j j=1 (λ − X)q1 ⇒ p = (λ − X)α+1 q1 im Widerspruch zur Maximalität von α. α ≥ β und somit (λ − X)β ((λ − X)α−β q − q 0 ) = 0. β Allgemein gilt für Q ∈ K[X], dass Q = 0 falls (λ − X) Q = 0. Für β = 0 ist dies oensichtlich. 0 0 β−1 Q folgt λQ0 = XQ0 . Der Fall λQ0 6= 0 ist nicht möglich, Aus (λ − X)Q = 0 für Q := (λ − X) 0 0 0 0 0 weil sonst grad(λQ ) < grad(XQ ). Also ist 0 = λQ = XQ , weshalb Q = 0. Nach β Schritten folgt Q = 0. 0 α−β q . Wegen q 0 (λ) 6= 0 folgt α = β und somit q = q 0 . Diese Überlegung zeigt q = (λ − X) Zur Eindeutigkeit beachte 83 Üb Man weise das Ergebnis von (2) alternativ mit Hilfe der Polynomdivision mit Rest (siehe die Aufgabe vor (11.19)) nach. λ ∈ K Sei ein Eigenwert von Vielfachheit von (12.3) λ f ∈ End(V ). Die algebraische Vielfachheit αf (λ) von λ ist die als Nullstelle des charakteristischen Polynoms. Geometrische und algebraische Vielfachheit. Es ist stets γf (λ) ≤ αf (λ), d.h. die geometrische Vielfachheit eines Eigenwertes ist höchstens gleich der algebraischen. Beweis. Sei γ := γf (λ). Ergänze eine Basis v1 , . . . , vγ von V. Ef (λ) durch vγ+1 , . . . , vn zu einer Basis Bezüglich dieser Basis ist M (f ) = λE γ ∗ B χf = (λ − X)γ det(B − XE n−γ ) γ ≤ αf (λ) nach (2). und damit ist von mittels Entwicklung nach den ersten Spalten. Daher Bemerkung. Weil χf = χA für jede Abbildungsmatrix A von f αA (λ) := αf (λ) γ gilt (s. (11.22)), ist die Bezeichnung sinnvoll. Bemerkung. Für Jn (λ) aus (11.26) gilt der Extremfall γ(λ) = 1 < n = α(λ). (12.4) Satz zur Diagonalisierbarkeit. Seien V ein K VR mit n := dim V < ∞ und f ∈ End(V ). Dann sind äquivalent: (i) (ii) (iii) f ist diagonalisierbar. χf zerfällt in Linearfaktoren und γf (λ) = αf (λ) für alle Eigenwerte λ von f . + . . . E + f (λs ), wobei λ1 , . . . , λs die paarweise verschiedenen Eigenwerte von V = Ef (λ1 ) f sind. Beweis. (i) ⇒ (ii) gilt wegen (1) und · · · + αf (λs ) = γf (λ1 ) + · · · + γf (λs ). (2). Aus (ii) folgt in Hinblick auf (iii), dass Schlieÿlich bedeutet (iii), dass es eine Basis von Eigenvektoren von (12.5) Beispiel. n = αf (λ1 ) + Wegen (11.12) folgt daraus (iii), wie vor (11.23) bemerkt. Es soll der Endomorphismus f gibt, d.h. es gilt (i). f : R3 −→ R3 , f (x, y, z) := (y, −2x + z, −2x + 5y) wenn möglich diagonalisiert werden. 1. Schritt. Man bestimme die Abbildungsmatrix A von f bez. einer Basis v1 , . . . , vn . Bezüglich der kanonischen Basis liest man ab, dass 0 1 0 A = −2 0 1 . −2 5 0 2. Schritt. Man berechne des charakteristische Polynom χA . Nach der Regel von Sarrus ist −X 3 χA = det(A−XE 3 ) = −X 3 +(−2)+0−0−(−X)· 5−1 (−2)(−X) = + 3X − 2. 3. Schritt. Finde die Linearfaktoren von χA . Eine explizite Angabe der Linearfaktoren ist oftmals prinzipiell nicht möglich. Wenn χA nicht Produkt von Linearfaktoren ist, ist f nicht diagonalisierbar. Als Beispiel siehe dazu (11.25). 84 χA (1) = 0. Polynomdivision liefert χA = (1 − X)(X 2 + X − 2) = (1 − X)2 (−2 − X). Eigenwerte sind also 1 und −2. Der Eigenwert 1 ist doppelt. Oenbar ist Die 4. Schritt. Für jeden Eigenwert bestimme man eine Basis des Eigenraums Ef (λ) = Kern(A−λE n ). Dazu löst man das LGS Eigenwert (A − λE n ) x = 0 und schreibt die Lösungsmenge in der Basisdarstellung. −2: 1 2 1 0 2 1 0 2 1 0 2 0 − 13 −1 0 6 A+2E = −2 2 1 −→ 0 3 1 −→ 0 3 1 −→ 0 3 1 −→ 0 −1 − 13 . −2 5 2 0 6 2 0 0 0 0 0 0 0 0 0 µ := x3 die freie 1 1 x1 6µ 6 EA (−2) = x2 = − 31 µ : µ ∈ R = R − 13 . µ 1 x3 Das ist die spezielle Zeilenstufenform. Damit ist Eigenwert Variable und 1: −1 1 0 −1 1 0 −1 1 0 −1 0 31 A − E = −2 −1 1 −→ 0 −3 1 −→ 0 −3 1 −→ 0 −1 13 . 0 0 0 −2 5 −1 0 3 −1 0 0 0 µ := x3 1 1 x1 3µ 3 EA (1) = x2 = 13 µ : µ ∈ R = R 13 . x3 µ 1 Das ist die spezielle Zeilenstufenform. Damit ist 5. Schritt. Ist für einen Eigenwert γf (λ) < αf (λ), die freie Variable und dann ist f nach (4) nicht diagonalisierbar. Andernfalls bilde aus den Basisvektoren der Eigenräume in der Reihenfolge der Eigenwerte mit Vielfachheiten die A diagonalisierende Matrix S, d.h. diag(λ1 , . . . , λn ) = S −1 A S. γA (1) = 1 < 2 = αA (1) (!) und somit A nicht diagonalisierbar. Ein Beispiel diagonalisierbare Matrix ist A aus (11.24). In diesem Beispiel ist für eine 6. Schritt. Im Fall der Diagonalisierbarkeit von f Diese gewinnt man nach (7.25) aus n X v1 , . . . , vn bleibt eine Basis von Eigenvektoren anzugeben. (siehe 1. Schritt) wie folgt sjl vj , l = 1, . . . , n. j=1 Trigonalisierbarkeit Nach den Diagonalmatrizen sind Dreiecksmatrizen von nächst einfacher Gestalt. Wenn eine Matrix schon nicht ähnlich zu einer Diagonalmatrix ist, so könnte sie es doch wenigstens zu einer Dreiecksmatrix sein. Welche Eigenschaft hat ein Endomorphismus mit einer solchen Abbildungsmatrix? (12.6) Trigonalisierbarer Endomorphismus. f ∈ End(V ) Basis v1 , . . . , vn in V gibt derart, dass f (Vl ) ⊂ Vl 85 für heiÿt trigonalisierbar, wenn es eine Vl := Span{v1 , . . . , vl }, l = 1, . . . , n − 1. Beachte, f (V1 ) ⊂ V1 bedeutet genau, dass v1 Eigenvektor zu besitzt einen Eigenvektor, siehe (11.25). Ein UVR (12.7) W von V f mit ist. Nicht jeder Endomorphismus f (W ) ⊂ W heiÿt f invariant. Darstellung durch obere Dreiecksmatrix. f ∈ End(V ) ist trigonalisierbar genau dann, wenn es eine Basis in V gibt, wofür die Abbildungsmatrix von f eine obere Dreiecksmatrix ist. In der Diagonalen stehen die Eigenwerte von f , die gemäÿ ihren algebraischen Vielfachheiten auftreten. Beweis. Sei f trigonalisierbar. l = 1, . . . , n − 1: Sei v1 , . . . , vn f (vl ) = l X akl vk eine Basis dazu gemäÿ Denition (6). Dann ist für mit akl = 0 für k > l. k=1 Also ist A := (akl ) eine obere Dreiecksmatrix. Umgekehrt, ist die Abbildungsmatrix v1 , . . . , vn eine obere Dreiecksmatrix, dann besagt die obige Vl := Span{v1 , . . . , vl } die Denition Qn (6) erfüllen. Die letzte Behauptung folgt Formel (10.9), weil danach χA = k=1 (akk − X). bezüglich einer Basis Gemäÿ der allgemeinen Verabredung wird eine Martrix ist. Das ist gleichbedeutend damit, dass (12.8) A A trigonalisierbar A von f Gleichung, dass aus der Leibniz genannt, wenn LA es ähnlich zu einer oberen Dreiecksmatrix ist. Trigonalisierbarkeitskriterium. f ∈ End(V ) ist trigonalisierbar genau dann, wenn χf Produkt von (nicht notwendig verschiedenen) Linearfaktoren ist. Beweis. Q Für eine Dreiecksmatrix D = (dkl ) gilt nach der Leibniz Formel (10.9), dass χD = det(D − n ll − X). Nach (7) bleibt zu zeigen, dass l=1 (dQ n ist, wenn χA = l=1 (λl − X). XE n ) = A ∈ K n×n ähnlich zu einer Dreiecksmatrix t1 ∈ E(λ1 ) \ {0}. Ergänze t1 zu einer Basis t1 , . . . , tn von K n×1 . Dann invertierbar und A T = (A t1 . . . A tn ) = (λ1 t1 ∗ . . . ∗) = T (λ1 e1 ∗ . . . ∗), d.h. Sei ∗ λ1 T −1 A T = A 0 ist T := (t1 . . . tn ) (n−1)×(n−1) . Da χ = (λ −X)χ 0 nach (11.22) und dem Determinantenentwicklungssatz, A0 ∈ K 1 A A Qn 0 ist χA0 = (λ − X) . Wie eben gezeigt, gibt es daher zu A eine invertierbare (n − 1) × (n − 1) l l=2 −1 0 0 Matrix T mit T A0 T 0 = (λe2 ∗ . . . ∗). Dann gilt 1 λ1 1 T −1 A T = . λ2 −1 0 0 T T mit ∗ In insgesamt n−1 solchen Schritten folgt die Behauptung. Der Beweis von (8) gibt auch bereits ein Verfahren zur praktischen Trigonalisierung eines Endomorphismus an. Die erzielte Darstellung durch eine obere Dreiecksmatriz nennt man die Normalform von f . (12.9) Schur Beispiel. Es soll der Endomorphismus f : R3 −→ R3 , f (x, y, z) := (3x + 4y + 3z, −x − z, x + 2y + 3z) wenn möglich trigonalisiert werden. 86 1. Schritt. Man bestimme eine Abbildungsmatrix A von f . Bezüglich der kanonischen Basis liest man ab 3 4 3 A = −1 0 −1 . 1 2 3 2. Schritt. Man berechne das charakteristische Polynom χA . Nach der Regel von Sarrus ist χA = det(A − XE 3 ) = (3 − X)(−X)(3 − X) + 4 (−1) 1 + 3 (−1) 2 − 3 (−X) 1 − (3 − X)(−1) 2 − 4 (−1)(3 − X) = −X 3 + 6X 2 − 9X − 4 − 6 + 3X + 6 − 2X + 12 − 4X = −X 3 + 6X 2 − 12X + 8. 3. Schritt. Man nde die Linearfaktoren von χA . f ist genau dann trigonalisierbar, wenn χA Produkt von Linearfaktoren ist. χA = (2 − X)3 . Also ist f trigonalisierbar. Der einzige Eigenwert 2 ist 3fach. Damit γA (2) < 3 = αA (2) (!) und f nicht diagonalisierbar. Oenbar ist ist 4. Schritt. Für den Eigenwert λ1 nde einen Eigenvektor t1 . Nach dem Austauschlemma (5.24) q ∈ {1, . . . , n} derart, dass t1 , e1 , . . . , e\q , . . . , en eine Basis von K n×1 ist. Bestimme zu dieser Basis die Abbildungsmatrix von f λ1 . 0 A existiert ∗ Wiederhole diesen Schritt für Eigenvektor zu Eigenwert A0 u.s.w., bis die Abbildungsmatrix trigonal ist. 2: 1 0 −1 1 4 3 1 4 3 1 4 3 A − 2E 3 = −1 −2 −1 −→ −1 −2 −1 −→ 0 2 2 −→ 0 2 2 0 0 0 0 0 0 0 0 0 1 2 1 −1 0 1 −→ 0 −1 −1 . 0 0 0 µ := x3 die freie Variable und 1 µ x1 E(2) = x2 = −µ : µ ∈ R = R −1 . 1 x3 µ 1 1 0 0 Also ist t1 = −1 Eigenvektor zu 2. Wähle t1 , e2 , e3 als neue Basis. T := −1 1 0 besorgt 1 1 0 1 0 −1 den Basiswechsel. Um A zu bestimmen, benötigt man T : 1 0 0 1 0 0 1 0 0 1 0 0 −1 1 0 0 1 0 −→ 0 1 0 1 1 0 . 1 0 10 0 1 0 0 1 −1 0 1 1 0 0 2 4 3 4 2 −1 −1 0 1 1 0 folgt T A T = 0 4 2 und A = Mit T = . Bekannt ist χA0 = −2 0 −1 0 1 0 −2 0 (2 − X)2 . Nun wiederholt man den Schritt 4 für A0 . Das ist die spezielle Zeilenstufenform. Damit ist 87 2: Eigenvektor zu Eigenwert 0 A − 2E 2 = 2 2 −2 −2 −→ 2 2 0 0 −→ −1 −1 . 0 0 Das ist die spezielle Zeilenstufenform mit freier Variable E(2) = x1 x2 = Ergänze den Eigenvektor Daher ist Basis. 0 T = −1 0 1 1 besorgt den Basis- −1 T0 : 1 0 −1 0 −1 0 1 0 −1 0 1 0 , −→ −→ 0 1 1 1 0 1 1 1 1 10 1 −1 0 2 −2 0 −1 0 −1 0 0 T = . Hiermit folgt T AT = . Damit 1 1 0 2 wechsel. Bestimme d.h. −µ −1 : µ∈R =R . µ 1 −1 0 0 t1 = mit zu neuer 1 1 x2 . 2 4 3 1 S −1 A S = 0 2 −2 mit S := T 0 0 2 T0 ist die Dreiecksform erreicht: 1 0 0 1 0 0 1 0 0 = −1 1 0 0 −1 0 = −1 −1 0. 1 0 1 0 1 1 1 1 1 5. Schritt. Gebe gemäÿ (7.25) die Basis an, wofür f trigonal ist. Die trigonalisierende Basis lautet: 3 X skl ek , l = 1, 2, 3, das ist (1, −1, 1), (0, −1, 1), (0, 0, 1). k=1 Üb (12.10) Trigonalisiere den Endomorphismus aus (5). Polynome über C. Der Fundamentalsatz der Algebra besagt: Jedes Polynom p ∈ C[X] mit grad p ≥ 1 hat mindestens eine Nullstelle. Hieraus folgt sofort mit (2), dass p = c (λ1 − X)α1 (λ2 − X)α2 . . . (λs − X)αs c, λ1 , . . . , λs aus C, und α1 , . . . , αs λ1 , . . . , λs paarweise verschieden sind. mit gewissen wenn (12.11) aus N, wobei diese Darstellung eindeutig ist, Trigonalisierbarkeit über C. Sei V ein endlich dimensionaler C-VR. Dann ist jeder Endomorphismus von V trigonalisierbar. Beweis. Folgt aus (8) und (10). (12.12) Polynome über R. Reelle Polynome zerfallen bekanntlich i. allg. nicht in reelle Linearfak- 1 + X 2 . Jedoch lässt sich folgende Überlegung anstellen: Sei p ∈ R[X]. Fasse p ∈ C[X] auf. Sei λ ∈ C eine Nullstelle von p. Dann ist auch λ eine Nullstelle von p, denn P P p(λ) = nl=0 αl (λ)l = nl=0 αl λl = p(λ) = 0, weil αl ∈ R. Die nicht reellen Nullstellen treten also in Paaren konjugierter Nullstellen auf. Diese ergeben einen Faktor toren, wie z.B. 88 q := (λ − X)(λ − X) = X 2 − 2(Re λ)X + |λ|2 =: X 2 + βX + γ Daraus schlieÿt man: mit β, γ ∈ R und β 2 < 4γ . Jedes Polynom p ∈ R[X] mit grad p ≥ 1 besitzt eine Darstellung p = c (λ1 − X)α1 . . . (λs − X)αs q1δ1 . . . qtδt mit c ∈ R, λi ∈ R, αi ∈ N für i = 1, . . . , s und qj = X 2 + βj X + γj mit βj , γj ∈ R, βj2 < 4γj , δj ∈ N für j = 1, . . . , t. Dabei kann s oder t auch null sein. Diese Darstellung ist eindeutig, wenn λ1 , . . . , λs und q1 , . . . , qt paarweise verschieden sind. Vorstufe der Jordan Normalform Eine Dreiecksmatrix läÿt sich mittels einer Ähnlichkeitstransformation auf diagonale Blockmatrixform bringen, deren Blöcke Dreiecksmatrizen mit nur einem Eigenwert sind. (12.13) Hauptvektoren. Hauptvektor der λ ein Stufe l ∈ N Sei A ∈ K n×n . Dann Matrix A, wenn Eigenwert der Matrix zum Eigenwert λ der heiÿt v ∈ K n×1 ein (A − λE)l v = 0 und (A − λE)l−1 v 6= 0. Entsprechend deniert man einen Hauptvektor und seine Stufe für einen Endomorphismus. Bemerkung. Ein Hauptvektor der Stufe 1 ist ein Eigenvektor und umgekehrt, denn beide sind durch (A − λE)v = 0 (12.14) und (A − λE)0 v = v 6= 0 deniert. Kette von Hauptvektoren. Ist v ein Hauptvektor der Stufe l, dann sind oenbar v, (A − λE)v, (A − λE)2 v, . . . , (A − λE)l−1 v Hauptvektoren der Stufen l, l − 1, . . . , 1. Diese Vektoren sind linear unabhängig. Sie bilden die durch v bestimmte Kette von Hauptvektoren. P i Beweis. Zum Nachweis der linearen Unabhängigkeit werde die Gleichung l−1 i=0 αi (A − λE) v = 0 von links mit (A − λE)l−1 multipliziert. Es folgt α0 (A − λE)l−1 v = 0, weshalb α0 = 0. Die l−2 , womit α = 0 folgt, u.s.w. verbleibende Summe multipliziert man nun mit (A − λE) 1 (12.15) Lineare Unabhängigkeit von Hauptvektoren. Seien v 1 , . . . , v s Hauptvektoren zu den paarweise verschiedenen Eigenwerten λ1 , . . . , λs der Matrix A ∈ K n×n . Dann sind v 1 , . . . , v s linear unabhängig. Beweis. Seien l1 , . . . , ls die Längen der Hauptvektoren und k ∈ {1, . . . , s}. Die Faktoren des ProQ Pk := (A − λk E)lk −1 sj=1,j6=k (A − λj E)lj lassen sich vertauschen, da jeder Faktor eine l −1 v ein Eigenvektor zu Linearkombination von Potenzen von A ist. Weiter ist uk := (A − λk E) k Qk λk . Daher ist (A − λj E)lj uk = (λk − λj )lj uk . Damit ndet man Pk v i = δik sj=1,j6=k (λk − λj )lj uk . Ps Qs lj Wendet man nun Pk auf die Gleichung i=1 αi v i = 0 an, so folgt αk j=1,j6=k (λk − λj ) uk = 0, weshalb αk = 0. Dies gilt für jedes k , woraus die Behauptung folgt. dukts (12.16) Invariante UVR von Hauptvektoren. Das charakteristische Polynom χA der Matrix A ∈ K n×n sei Produkt von Linearfaktoren. Weiter sei λ ein Eigenwert der algebraischen Vielfachheit k . Dann ist HA (λ) := Kern (A − λE)k ein Untervektorraum der Dimension k . Oenbar ist jedes v ∈ HA (λ) \ {0} ein Hauptvektor zu λ. Schlieÿlich ist HA (λ) unter A invariant, d.h. für jedes v ∈ HA (λ) ist A v ∈ HA (λ). 89 Beweis. Gemäÿ (8), (7) kann man davon ausgehen, dass A eine obere Dreiecksmatrix ist, deren ers(A − λE)k eine k deren ersten k Spalten null sind und deren Diagonalelemente gleich (λi − λ) ten k Diagonalelemente gleich λ sind. Deshalb ist die Matrix obere Dreiecksmatrix, sind, wobei λ1 , . . . , λ n k ihrer DiagonaleleRang(A − λE)k = n − k , woraus mit (8.15) dim HA (λ) = k folgt. (A − λE)k A v = A(A − λE)k v = A 0 = 0 für v ∈ HA (λ), weshalb A v ∈ HA (λ). die Eigenwerte mit algebraischen Vielfachheiten sind. Insbesondere sind genau mente gleich null. Damit ist Schlieÿlich gilt Seien λ1 , . . . , λ s die paarweise verschiedenen Eigenwerte von A und Vielfachheiten. Für den Fall, dass das charakteristische Polynom ist, ist Ps j=1 αj = n. χA α1 , . . . , αs ihre algebraischen Produkt von Linearfaktoren In dieser Situation zeigen (15) und (16), dass + . . . H + A (λs ) K n×1 = HA (λ1 ) gemäÿ Denition (11.23), wobei jeder Untervektorraum aus αj (12.17) HA (λj ) invariant unter A ist und eine Basis Hauptvektoren besitzt. Damit erhält man folgendes Ergebnis. Vorstufe der Jordan Normalform. Sei A ∈ K n×n eine Matrix, deren charakteristisches Polynom χA Produkt von Linearfaktoren ist. Dann existiert eine Basis t1 , . . . , tn von K n×1 derart, dass die ersten α1 Elemente Hauptvektoren zum Eigenwert λ1 sind, die nächsten α2 Elemente Hauptvektoren zum Eigenwert λ2 sind und so fort. Mit der invertierbaren Matrix T := (t1 . . . tn ) ist B1 B2 T −1 A T = .. . Bs eine diagonale Blockmatrix mit Blöcken B j ∈ K αj ×αj . Das charakteristische Polynom von B j ist (λj − X)αj . Wendet man auf jeden Block das Trigonaliserungsverfahren aus (8) an, erhält man B j in der Schur Normalform λj λj Bj = ∗ .. . , λj das ist eine obere Dreiecksmatrix, deren Diagonalelemente alle gleich λj sind. Aus der Denition von man HA (λj ) N ∈ K n×n nilpotent, wenn es ein α N j j = 0 für N j := B j − λj E . k ∈ N gibt mit N k = 0. folgt sofort, dass Allgemein nennt Das Ergebnis (17) ndet eine wichtige praktische Anwendung in der Theorie der Linearen Dierentialgleichungssysteme bei der Berechnung der Matrix-Exponentialfunktion. Üb Man zeige: Ist A ∈ K n×n Linearfaktoren ist (was für Matrix D K =C und χA Produkt von stets der Fall ist), dann existieren eine diagonalisierbare und eine nilpotente Matrix A=D+N Hinweis: eine Matrix, deren charakteristisches Polynom N mit D N = N D. Benutze (17) und überlege, warum eine Matrix genau dann diagonalisierbar bzw. nilpotent ist, wenn sie ähnlich zu einer solchen ist. 90 Üb Seien r, s ∈ N akl = 0 und für A = (akl ), B = (bkl ) (n × n)Matrizen k ≥l−r+1 und bkl = 0 für derart, dass k ≥ l − s + 1. r − 1 bzw. s − 1 Nebendiagonalen von A bzw. B null sind. Zeige: Für C := A B gilt ckj = 0 für k ≥ j − r − s + 1, d.h. die Diagonale sowie die anschlieÿenden r + s − 1 Nebendiagonalen von C sind null. Also 0 ··· 0 .. .. . . .. C= . 0 . .. . r + s Nullzeilen . . 0 Das bedeutet, dass die Diagonale sowie die anschlieÿenden ∗ addieren sich bei der Multiplikation von A mit B die Anzahlen der Nullzeilen. Jordan Normalform Die Blöcke Bj in (17) lassen sich durch eine spezielle Wahl der Basis von Hauptvektoren noch weiter vereinfachen. In der Jordan Normalform erzielt man in der ersten oberen Nebendiagonalen Einträge 0 oder 1. Alle anderen Nebendiagonalen sind null. Wir verzichten auf einen Beweis des folgenden Satzes. Eine quadratische Matrix n ∈ N, (12.18) wobei J 1 (λ) := (λ) J K heiÿt Jordan Matrix, J n (λ) aus (11.26) für n ≥ 2. über und wenn J = J n (λ) für ein λ∈K und Jordan Normalform. Sei V ein endlichdimensionaler K VR. Sei f ∈ End(V ) und χf sei Produkt von Linearfaktoren. Dann gibt es eine Basis in V aus Hauptvektoren, wofür die Abbildungsmatrix A von f die Jordan Normalform besitzt, d.h. J1 J2 A= , . . . Jm wobei J 1 , . . . , J m Jordan Matrizen sind. Sie sind nicht notwendigerweise verschieden und sind bis auf Reihenfolge eindeutig. J n (λ) = λE n + N n 0 1 .. .. . . , N n := .. . 1 0 Man bemerkt, dass wofür N nn = 0 mit gilt. Üb N ∈ K n×n nilpotent. Zeige: Es existiert ein k ∈ N mit k ≤ n, k k−1 jedes k ∈ {1, . . . , n} ein Beispiel N an mit N = 0 und N 6= 0. Üb Bestimme die Potenzen Sei Aj , j ∈ N , für A wofür N k = 0. aus (18). Betrachte dazu zunächst 91 Gebe für (J n (λ))j . 13 Vektorräume mit Skalarprodukt Der Anschauungsraum R3 ist mehr als nur ein Vektorraum. In ihm lassen sich Längen und Win- kel bestimmen. Der Begri der Orthogonalität und die Gültigkeit des Satzes von Pythagoras sind fundamental für die Geometrie des R3 . Sie sind auch fundamental für den sich der Anschauung entziehenden Zustandsraum eines quantenmenchanischen Systems, dem Hilbertraum. Diese zusätzliche Struktur eines Vektorraums wird im Sinne der analytischen Geometrie am einfachsten mit Hilfe eines Skalarprodukts eingeführt. Im Folgenden werden nur reelle und komplexe Vektorräume betrachtet. Das Symbol R oder (13.1) C. Mit z wird nach (4.12) die konjugiert komplexe Zahl zu Skalarprodukt. Sei V produkt (SP) auf V, ein z∈C K steht für bezeichnet. K-VR. Eine Abbildung V × V → K, (x, y) 7→ hx, yi, x, y, y 0 aus V und λ ∈ K gelten heiÿt Skalar- wenn für hx, y + λy 0 i = hx, yi + λhx, y 0 i (linear im zweiten Argument) hy, xi = hx, yi (konjugiert symmetrisch) hx, xi ≥ 0 und hx, xi = 0 nur für x = 0 (positiv denit) Ein VR mit SP Fall (13.2) (V, h·, ·i) heiÿt euklidischer Raum im Fall K = R und unitärer Raum im K = C. Bemerkungen. Aus der Linearität im zweiten Argument und der konjugierten Symmetrie λx0 , yi = hy, x + λx0 i = hy, xi + λhy, x0 i = hy, xi + λ hy, x0 i = hx, yi + λ hx0 , yi für alle aus V und λ ∈ K, d. i. die konjugierte Linearität im ersten Argument. Im euklidischen Raum ist hx, yi = hy, xi = hy, xi, d.h. das SP ist symmetrisch. Als Folge ist es linear auch im ersten Argument und damit bilinear. Man beachte, dass hx, xi = hx, xi wegen der konjugierten Symmetrie. Daher ist hx, xi stets reell. Die positive Denitheit fordert insbesondere hx, xi ≥ 0. Für jedes x ∈ V ist hx, 0i = 0, weil hx, ·i linear ist. hx + x, x0 , y folgt (13.3) StandardSP. (a) In Kn deniert man für hx, yi := x1 y1 + . . . + xn yn = n X x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) xl yl , l=1 P hx, xi = nl=1 |xl |2 ≥ 0 P hx, yi = nl=1 xl yl . was das StandardSP ist. Insbesondere ist d.h. für (b) In x = 0. K(X) Im Fall K=R ist und =0 nur für xl = 0 ∀ l, (vgl. (5.4)) lautet das StandardSP hf, gi := X f (x) g(x). x∈X (13.4) Eigenschaft von Erzeugendenmengen. Sei x ∈ V und M eine Erzeugendenmenge von V . Dann gilt: hx, yi = 0 ∀ y ∈ M ⇒ x = 0. 92 Beweis. Weil M P x = y y mit gewissen αy ∈ K, die bis auf y∈M α P P hx, y∈M αy yi = y∈M αy hx, yi = 0 nach Vorrausset eine Erzeugendenmenge ist, ist endlich viele Null sind. Daher ist zung. Wegen der Denitheit folgt hx, xi = x = 0. p |x| p = x21 + x22 + x23 die Länge |x| = hx, xi. Dies verallgemeinert Bekanntlich ist des Vektors schreibt sich man auf (13.5) Zugehörige Norm. p hx, xi (13.6) Sei V ein K-VR V. x ∈ R3 . K-VR Mit Hilfe des StandardSP mit SP. mit SP. Dann heiÿt die Funktion V → R, x 7→ kxk := die zugehörige Norm auf Eigenschaften. Sei V ein K-VR mit SP. Die Norm erfüllt für x, y aus V und λ ∈ K kxk ≥ 0 und kxk = 0 nur für x = 0 (positiv denit) kλxk = |λ| kxk (positiv homogen) kx + yk ≤ kxk + kyk (Dreiecksungleichung (DU)) |hx, yi| ≤ kxkkyk (CauchySchwarzUngleichung (CSU)) Für die CSU gilt Gleichheit genau dann, wenn x und y linear abhängig sind. Für die DU ist dies für die Gleichheit notwendig. Beweis. Positive Denitheit und Homogenität sind oensichtlich. Wir beweisen erst die CSU. Of- fenbar ist |hx, 0i| = kxkk0k (= 0) ϕ(λ) := kx − λyk2 für = x, 0 sind linear abhängig. Sei jetzt y 6= 0 und betrachte λ ∈ K. Wir suchen das Minimum von λhx, yi + λλkyk2 und ϕ auf. Dazu formen wir ϕ(λ) = hx − λy, x − λyi = kxk2 − λhy, xi − = = dann vorliegt, wenn x − λ0 y = 0, d.h. wenn 2 − kyk−1 hy, xi um. Beachte dazu, dass |hx, yi|2 = kyk−2 hy, xi =: λ0 . Es folgt 0 ≤ kx − λ0 yk2 kxk2 − kyk−2 |hx, yi|2 + λkyk hx, yihy, xi. Also ist ϕ minimimal genau für λ ϕ(λ0 ) = kxk2 − kyk−2 |hx, yi|2 , wobei Gleichheit genau x und y linear abhängig sind. Zur DU beachte zunächst, dass hx, yi + hy, xi = 2 Re(hx, yi) ≤ 2 |hx, yi| ≤ 2kxkkyk, wobei Gleich2 heit wegen CSU nur bestehen kann, wenn x und y linear abhängig sind. Damit folgt kx + yk = hx + y, x + yi = kxk2 + kyk2 + hx, yi + hy, xi ≤ kxk2 + kyk2 + 2kxkkyk = (kxk + kyk)2 , woraus DU mit dem Zusatz folgt. Ein Spezialfall ist die DU für den Betrag in C (siehe (4.13)), die aus der DU in R2 mit dem Standard-SP folgt. Üb Der Hilbertraum l2 , eine Verallgemeinerung von (3). Hierzu ist etwas Analysis erforderlich. Es ist l2 die Teilmenge von CN , die aus den Folgen sup N X (xn ) besteht, wofür |xn |2 < ∞ N ∈N n=1 2 2 2 N P∞C ist. (Tipp: Zeige und benutze |xn + yn | ≤2 2 |xn | + 2 |yn | .) Zeige weiter, dass hx, yi := n=1 xn yn absolut konvergiert und ein SP auf l deniert. (Tipp: N an.) Wie lautet explizit die zugehörige CSU? Wende DU in C und CSU in R ist. Zeige, dass (13.7) l2 ein UVR von Adjungierte Matrix. Das Standard-SP in Kn×1 hξ, ηi := n X ξl ηl . l=1 Zu einer Matrix A = (akl ) ∈ Km×n führen wir die 93 lautet (i) konjugiert komplexe Matrix (ii) adjungierte Matrix A := (akl ) A∗ := (A)T ein. Hiermit lässt sich insbesondere (13.8) T hξ, ηi = ξ η = ξ ∗ η schreiben. Adjungieren, Transponieren, Invertieren. Seien A, B aus Km×n , C ∈ Kn×p , S ∈ GL(n, K). Dann gelten Üb (13.9) A∗ = (A)T = (AT ) (A∗ )∗ = A (A + λ B)∗ = A∗ + λ B ∗ (BC)∗ = C ∗ B ∗ (S ∗ )−1 = (S −1 )∗ hξ, A ηi = hA∗ ξ, ηi für alle ξ ∈ Km×1 , η ∈ Kn×1 . Weise (8) nach. Skalarprodukte auf Kn×1 . Sei D := diag(λ1 , . . . , λn ) mit λl > 0 für alle l und sei S ∈ GL(n, K). Dann sind (a) ξ, η := hξ, Dηi ∗ (b) ξ, η := hξ, S Sηi SP auf Kn×1 . √ √ Beweis. (b) ist wegen S := diag( λ1 , . . . , λn ) eine Verallgemeinerung von (a). Es genügt (b) zu hξ, S ∗ Sηi = hSξ, Sηi (siehe (8)), ist [·, ·] 2 konjugiert symmetrisch. Es ist auch positiv denit, da aus ξ, ξ = 0 zunächst kSξk = 0 und somit Sξ = 0 folgt, weshalb ξ = 0, weil S invertierbar ist. zeigen. Oenbar ist [·, ·] linear im zweiten Argument. Da A ∈ Kn×n gegeben. Wir (13.10) ξ, η := hξ, A ηi Sei für ξ, η aus Kn×1 können nun umgekehrt fragen, welche Eigenschaften hat? Zunächst ist klar, dass [·, ·] aus (10) linear im zweiten und konjugiert linear [·, ·] nennt man daher sesquilinear. Wann ist [·, ·] konjugiert η, ξ = hη, A ξi = hA∗ η, ξi = hξ, A∗ ηi. Daher ist [·, ·] aus (10) genau ∗ ∗ dann konjugiert symmetrisch, wenn hξ, A ηi = hξ, A ηi, d.h. hξ, (A − A) ηi = 0 für alle ξ, η aus ∗ ∗ n×1 n×1 K . Wegen (4) folgt daraus (A − A) η = 0 für alle η ∈ K und somit A = A. im ersten Argument ist. Die Form symmetrisch? Dazu beachte Zum Folgenden siehe auch (14.21). (13.11) Sesquilinearformen. A. [·, ·] aus (10) ist genau dann konjugiert symmetrisch, wenn A∗ = man A hermitesch oder selbstadjungiert. (Für K = R ist A (a) In diesem Fall nennt symmetrisch.) [·, ·] aus (10) ist genau dann positiv denit (siehe (1)) und somit ein SP, wenn A positiv und, falls K = R, A symmetrisch ist. Dabei heiÿt A positiv, wenn hξ, A ξi > 0 (insbesondere n×1 \{0}. reell) für alle ξ ∈ K (b) 94 Beweis. Aufgrund der Überlegungen zu (10) bleibt nur noch zu zeigen, dass (13.12) A ∈ Cn×n positiv ⇒A selbstadjungiert R 3 hξ, A ξi = hA∗ ξ, ξi = hA∗ ξ, ξi = hξ, A∗ ξi und somit 0 = hξ, A ξi − hξ, A ξi = hξ, A ξ − A ξi = hξ, B ξi für alle ξ ∈ Cn×1 mit B := A − A∗ . Hieraus folgt mit (13), dass hξ, B ηi = 0 für alle ξ, η aus Cn×1 , woraus (wie nach (10) argumentiert) B = 0. gilt. Zum Beweis betrachte ∗ (13.13) ∗ Polaridentität für Sesquilinearformen. Seien V ein C-VR und [·, ·] : V × V → C sesqui- linear, d.h. linear im zweiten und konjugiert linear im ersten Argument. Dann gilt [x, y] = 1X α [αx + y, αx + y] 4 für alle x, y aus V, α∈Ω wobei Ω := {1, −1, i, −i}. Daraus folgt, dass [·, ·] genau dann konjugiert symmetrisch ist, wenn [x, x] ∈ R für alle x ∈ V . Üb Üb Man weise (13) nach. Polaridentität für symmetrische Bilinearformen. Seien V R [x, y] = für alle Üb ein R-VR und [·, ·] : V × V → bilinear und symmetrisch. Man zeige: x, y aus 1 1 [x + y, x + y] − [−x + y, −x + y] 4 4 V. Man zeige an einem Beispiel, dass (12) im Reellen nicht gilt, d.h. dass aus hξ, Aξi > 0 für alle ξ∈ Rn×1 \ {0} nicht A=A T A ∈ Rn×n mit folgt. [·, ·] eine konjugiert symmetrische Sesquilinearform auf dem K-VR V , was im Fall K = R eine symmetrische Bilinearform ist. Wie mehrmals bemerkt, ist [x, x] reell für alle x ∈ V . Ist [x, x] > 0 für x 6= 0, dann ist [·, ·] positiv denit und somit ein SP. Gilt lediglich [x, x] ≥ 0 ∀x, dann heiÿt [·, ·] positiv semidenit. Entsprechend heiÿt [·, ·] negativ (semi)denit, wenn − [·, ·] 0 0 0 positiv (semi)denit ist. Liegt keiner dieser Fälle vor, d.h. ∃ x, x ∈ V : [x, x] > 0, [x , x ] < 0, dann nennt man [·, ·] indenit. Wir werden solche Formen im Zusammenhang mit der HauptachSei allgemein sentransformation näher untersuchen. Üb 1 1 R-VR mit SP und x, y ∈ V \{0}. Zeige: h kxk x, kyk yi ∈ [−1, 1]. Damit existiert genau 1 1 3 ein Winkel α ∈ [0, π] derart, dass cos(α) = h kxk x, kyk yi. Zeige: Für V = R ist α der von 3 den Vektoren x und y eingeschlossene (kleine) Winkel. Zeige den Kosinussatz in R , nämlich 2 2 2 a = b + c − 2bc cos(α). Sei V ein 95 Orthogonale Mengen V ein K-VR mit SP. Zwei Vektoren x, y aus V heiÿen orthogonal bzw. orthonormal, wenn hx, yi = 0 bzw. zusätzlich kxk = kyk = 1 gilt. Allgemeiner heiÿt eine Menge M ⊂ V orthogonal bzw. orthonormal, wenn hx, yi = 0 für alle x, y aus M mit x 6= y bzw. wenn ( 0 für x 6= y hx, yi = δxy = 1 für x = y Sei für alle x, y aus M gilt. Ist M orthonormal und eine Basis, so heiÿt M eine Orthonormalbasis (ONB). Statt orthogonal sein sagt man auch aufeinander senkrecht stehen. Für man auch (13.14) hx, yi = 0 schreibt x ⊥ y. Lineare Unabhängigkeit orthogonaler Mengen. Sei M ⊂ V \ {0} orthogonal. Dann ist M linear unabhängig. Beweis. x1 , ..., xn M . Gemäÿ (5.14)(b) ist ihre lineaPn α x mit α 0 = i ∈ K. Dann folgt 0 = hxj , 0i = i=1 i i Pn Pn Pn 2 hxj , i=1 αi xi i = i=1 αi hxj , xi i = i=1 αi δji kxj k = αj kxj k2 . Daraus folgt αj = 0 für jedes j ∈ {1, . . . , n}. Das ist die Behauptung. Seien paarweise verschiedene Vektoren aus re Unabhängigkeit zu zeigen. Sei also (13.15) Basisentwicklungssatz. Sei M ⊂ V eine ONB. Dann gilt für jedes y ∈ V X y= hx, yi x, x∈M wobei nur endlich viele Produkte hx, yi nicht Null sind. M.a.W. die Koordinaten von y bezüglich der Basis M sind hx, yi, x ∈ M , vgl. (5.21). Beweis. Nach (5.21) ist y = P P x∈M (13.16) αx hx0 , xi = x∈M P αx x. Hieraus folgt für jedes x0 ∈ M : hx0 , yi = hx0 , = αx0 . x∈M αx δx0 x P αx xi = y0 = y, so folgt x∈M Parsevalgleichungen. In (15) gelten für y, y 0 aus V die Parsevalgleichungen hy 0 , yi = X hy 0 , xi hx, yi, x∈M 2 kyk = X |hx, yi|2 . x∈M Beweis. Nach (15) ist hy 0 , yi = hy 0 , P x∈M hx, yi xi = P x∈M hx, yi hy 0 , xi. Setzt man die zweite Gleichung. (13.17) Satz von Pythagoras. Sei M ⊂ V eine endliche orthogonale Menge und y := P Dann ist kyk2 = 2 x∈M kxk . Beweis. kyk2 = hy, yi = h P x∈M x, P x0 ∈M x0 i = P x∈M 2 x∈M kxk . P Man sagt etwas lax, dass dass die xi x1 , . . . , xn 96 = P x∈M x,x0 ∈M hx, xi δxx0 x. = hxi , xj i = δij für alle i, j . Das bedeutet, {x1 , . . . , xn } eine orthonormale Menge ist. orthonormal sind, wenn paarweise verschieden sind (siehe (14)) und 0 x0 ∈M hx, x i P P (13.18) Beispiel. Die Standardbasis in Kn ist eine ONB bez. des Standard-SP. Die Basis {ey : y ∈ X} in K(X) (siehe Üb (5.20)) ist eine ONB bez. des Standard-SP (siehe (3)(b)). Man prüfe (18) nach. Die Existenz von ONB im Fall endlichdimensionaler (13.19) K-VR folgt aus dem Orthonormalisierungsverfahren von Gram und Schmidt. Sei V ein K-VR mit SP und seien x1 , . . . , xp linear unabhängig. Dann existieren orthonormale v1 , . . . , vp derart, dass Span{v1 , . . . , vj } = Span{x1 , . . . , xj } für jedes j ∈ {1, . . . , p}. Beweis. Setze v10 := x1 . Weil x1 linear unabhängig ist, ist x1 6= 0 und kv10 k = kx1 k > 0. Damit lässt sich mit v10 auf 1 normieren. Setze v1 := kv10 k−1 v1 . Es ist kv1 k = 1. Seien nun orthonormale v1 , . . . , vj j ≥ 1 und j ≤ p − 1 bereits konstruiert, so dass Span{v1 , . . . , vj } = Span{x1 , . . . , xj }. Setze 0 vj+1 := xj+1 − j X hvl , xj+1 i vl . l=1 Dann ist 0 hvk , vj+1 i = hvk , xj+1 i − {1, . . . , j}. Weiter ist 0 vj+1 6= 0, Voraussetzung. Schlieÿlich ist zu normieren: (13.20) (13.21) hvl , xj+1 ihvk , vl i = hvk , xj+1 i − hvl , xj+1 i δkl = 0 für xj+1 ∈ Span{v1 , . . . , vj } = Span{x1 , . . . , xj } entgegen der j P 0 0 0 = vj+1 + hvl , xj+1 i vl ∈ Span{v1 , . . . , vj , vj+1 }. Es bleibt vj+1 xj+1 l=1 Sind j = 1, . . . , p, w1 , . . . , wp Span{w1 , . . . , wj } = |γj | = 1 und wj = γj vj für orthonormal derart, dass dann existieren γj ∈ K mit Man weise (20) nach. Existenz einer ONB. Jeder endlichdimensionale K-VR mit SP besitzt eine ONB. Beweis. Man wende (19) auf eine Basis des VR an. Üb Sei V ein K-VR mit SP, M ⊂ V In R3 eine abzählbare Erzeugendenmenge. Als Anwendung des Orthonormierungsverfahrens zeige man: (13.22) k ∈ da sonst Zusatz zur Eindeutigkeit. für j P l=1 l=1 0 0 vj+1 := kvj+1 k−1 vj+1 . Span{x1 , . . . , xj } j = 1, . . . , p. Üb j P V besitzt eine ONB. Beispiel. mit Standard-SP seien x1 = (1, 1, 1) und x2 = (0, 2, 4) gegeben. Oenbar sind x1 , x2 linear unabhängig. Wende darauf das Orthonormalisierungsverfahren (19) an: v1 := kx1 k−1 (1, 1, 1) = v20 := x2 − hv1 , x2 iv1 = v2 := √1 (1, 1, 1), 3 (0, 2, 4) − √13 (2 + 4) √13 (1, 1, 1) = (0, 2, 4) − 2(1, 1, 1) = (−2, 0, 2) ⇒ √1 (−1, 0, 1). 2 Damit sind Man erhält v1 , v2 orthonormal. Ergänze jetzt aus v1 , v2 , x3 eine ONB mit (19): v30 := x3 − hv1 , x3 iv1 − hv2 , x3 iv2 = (1, 0, 0) − v3 = diese zu einer Basis von √1 √1 (1, 1, 1) − 3 3 √1 (1, −2, 1). 6 97 − √12 R3 durch √1 (−1, 0, 1) 2 x3 = (1, 0, 0). 1 = ( 61 , −2 6 , 6) ⇒ Orthogonale Projektion Sei M ⊂V eine Menge. Dann heiÿt M ⊥ := {y ∈ V : hx, yi = 0 ∀x ∈ M } das orthogonale Komplement von M . Für M = ∅ setzt man ∅⊥ := V . Oenbar ist stets 0 ∈ M ⊥ . (13.23) Eigenschaften des orthogonalen Komplements. Seien V ein K-VR mit SP und M, N Teilmengen von V . Dann gelten Beweis. (a) M⊥ ist ein UVR (b) M ∩ M ⊥ ⊂ {0} (c) N ⊂ M ⇒ M⊥ ⊂ N⊥ (d) M ⊥ = (Span M )⊥ (e) Span M ⊂ (M ⊥ )⊥ (f ) (M ∪ N )⊥ = M ⊥ ∩ N ⊥ ∀ x ∈ M, y, y 0 ∈ M ⊥ , λ ∈ K : hx, y + λ y 0 i = hx, yi + λ hx, y 0 i = 0 + 0 = 0 ⇒ y + λ y 0 ∈ M ⊥ . (b) x ∈ M ∩ M ⊥ ⇒ hx, xi = 0 ⇒ x = 0. (c) ∀ x ∈ N, y ∈ M ⊥ : ⊥ hx, yi P = 0 ⇒ y ∈ N ⊥P . (d) "⊃"gilt nach (c). ∀ y ∈ M , ∀xi ∈ M, λi ∈ K, i = 1, . . . , n, n ∈ P n n ⊥ N : h i=1 λi xi , yi = i=1 λi hxi , yi = i 0 = 0 ⇒ y ∈ (Span M ) . (e) Nach (a) genügt ⊥ ⊥ ⊥ zu zeigen M ⊂ (M ) . Dies folgt direkt aus der Denition von M . (f ) "⊂" gilt nach (c). ⊥ ⊥ ∀ z ∈ M ∩ N , x ∈ M, y ∈ N : hz, xi = 0, hz, yi = 0 ⇒ z ∈ (M ∪ N )⊥ . Üb (a) Zeige: (13.24) M ⊂ P(V ) : ( S ⊥ M ∈M M ) = T M ∈M M ⊥. Orthogonale Summe von UVR. Seien W1 , . . . , Wm UVR eines KVR V mit SP, die paarweise orthogonal sind, d.h. hx, x0 i = 0 falls x ∈ Wl , x0 ∈ Wk Dann ist die Summe W := W1 + · · · + Wm direkt gemäÿ mit l 6= k. (11.23) und man schreibt dafür ⊥ ... ⊥ Wm . W = W1 Beweis. Wende (14) an. (13.25) Orthogonale Projektion. Sei W ein UVR von V mit dim W < ∞. Dann gibt es zu jedem x ∈ V genau ein PW (x) ∈ W derart, dass x − PW (x) ∈ W ⊥ . Es gilt also ⊥ W ⊥. V =W PW (x) die orthogonale Projektion von x auf W . Die dadurch denierte Abbildung : V → V ist linear und heiÿt die orthogonale Projektion von V auf W . Oenbar gilt ◦ PW = PW . Man nennt PW PW Beweis. Nach (23)(b) ist W ∩ W ⊥ = {0}. Zeige jetzt W + W ⊥ = V . Sei w1 , . . . , wm W. Für (13.26) x∈V eine ONB von deniere PW (x) := m X hwk , xi wk . k=1 W (x). Dafür gilt hwl , yi = hwl , xi − hwl , PW (x)i = PmPW (x) ∈ W . Setze y := x − PP m hw , xihw , w i = hw , xi − k l k l k=1 k=1 hwk , xi δkl = hwl , xi − hwl , xi = 0 für l = 1, . . . , m. ⊥ Hieraus folgt hw, yi = 0 für alle w ∈ W nach (23)(d). Also ist y ∈ W . Die Linearität von PW ersieht man aus (26). Oenbar ist hwl , xi − 98 Üb Zeige für die orthogonale Projektion PW : kPW (x)k2 = hx, PW (x)i = hPW (x), xi. dim W ⊥ < ∞, d.h. dim V < ∞, dann ist oenbar PW ⊥ = idV −PW . allgemein im Fall dim W < ∞ PW ⊥ := idV −PW . Ist auch Bild(PW ) = W = Kern(PW ⊥ ), Kern(PW ) = W ⊥ = Bild(PW ⊥ ), PW ⊥ ◦ PW ⊥ = PW ⊥ , ⊥ = dim V (auch im Fall dim V = ∞). leicht überprüft. Auÿerdem gilt dim W + dim W Dann ist man (13.27) Daher setzen wir was Zweifach orthogonales Komplement. Ist W ein endlichdimensionaler UVR von V , dann gilt (W ⊥ )⊥ = W . Beweis. W ⊂ (W ⊥ )⊥ gilt immer, siehe (23)(e). Auÿerdem ist (W ⊥ )⊥ . Dann ist z = w + w0 mit w ∈ W und w0 hw0 , w0 i = 0 + kw0 k2 , weshalb w0 = 0 und somit z = (13.28) ⊥ W ⊥ = V nach (25). Sei z ∈ W 0 = hw0 , zi = hw0 , wi + W ⊥ . Hieraus folgt ∈ w ∈ W. Bestapproximation. Sei W ein UVR von V mit dim W < ∞. Dann gilt kx − PW (x)k ≤ kx − wk ∀x ∈ V, w ∈ W. D.h. von allen w ∈ W hat PW (x) den kürzesten Abstand zu x. Beweis. x − w = (x − PW (x)) + (PW (x) − w) = PW ⊥ (x) + w0 kx − wk2 (x)k2 = kPW ⊥ kx − PW (x)k2 , wie Üb Sei V ein mit w0 := (PW (x) − w) ∈ W ⇒ kx − wk2 ≥ kPW ⊥ (x)k2 = + kw0 k2 nach dem Satz von Pythagoras. Also ist behauptet. KVR und M ⊂ V M eine ONB ist. eine Basis von V. Man zeige: Es gibt es genau ein SP auf V derart, dass P Lösung. Nach (5.21) läÿt sich jedes x ∈ V in eindeutiger Weise als x = y∈M αy (x)y schreiben, wobei αy (x) ∈ K nur für endlich viele y ∈ M ungleich Null sind. Wegen der Eindeutigkeit der Koordinaten αy (x), y ∈ M von x, folgen leicht durch Koordinatenvergleich die Linearität αy (x + λx0 ) = αy (x) + λαy (x0 ) und αy (y 0 ) = δyy0 für y, y 0 ∈ M . Damit ist V × V → K, P (x, x0 ) 7→ hx, x0 i := y∈M αy (x)αy (x0 ) das gesuchte SP. 99 14 Endomorphismen in Vektorräumen mit Skalarprodukt Es werden Endomorphismen untersucht, die besondere Eigenschaften bezüglich des Skalarprodukts besitzen. Sie treten in Anwendungen in natürlicher Weise auf. Selbstadjungierte (spezieller: symmetrische) Endomorphismen beschreiben Eigenschaften eines Systems. Symmetrietransformationen hingegen werden durch unitäre (spezieller: orthogonale) Endomorphismen dargestellt. Entscheidend für die nächsten Untersuchungen ist das folgende Konzept. Der adjungierte Homomorphismus (14.1) Satz und Denition. Seien V und W endlichdimensionale KVR mit SP. Dann gibt es zu f ∈ Hom(V, W ) genau ein f ∗ ∈ Hom(W, V ) derart, dass hw, f (v)i = hf ∗ (w), vi ∀v ∈ V, w ∈ W. Man beachte, dass links das SP in heiÿt der zu W und rechts da SP in f adjungierte Homomorphismus. V steht. Der Homomorphismus f∗ Beweis. Zum Nachweis der Eindeutigkeit seien w ∈ W und dazu z1 , z2 ∈ V derart, dass hw, f (v)i = hz1 , vi = hz2 , vi für alle v ∈ V . Daraus folgt hz1 − z2 , vi = 0. Wählt man v = z1 − z2 , dann folgt kz1 − z2 k2 = 0, weshalb z1 = z2 . Zur Existenz wähle ONB v1 , . . . , vn von V und w1 , . . . , wm von W und bestimme dazu die Ab∗ ∗ bildungsmatrix A von f . Sei f : W → V der Homomorphismus, wofür A die Abbildungsmatrix bezüglich obiger ONB ist, d.h. ∗ f (wk ) = n X aTlk vl = l=1 n X akl vl für k = 1, . . . , m. l=1 Hierfür rechnet man nach: hwk , f (vl )i = hwk , m P ajl wj i = j=1 und hf ∗ (wk ), vl i = h n P akj vj , vl i = j=1 hf ∗ (wk ), vl i daraus für j=1 hw, f (v)i = m P n P Bemerkungen. ζ k ηl hwk , f (vl )i = ajl hwk , wj i = j=1 akj hvj , vl i = n P m P ajl δkj = akl j=1 akj δjl = akl . Also gilt hwk , f (vl )i = j=1 k = 1, . . . , m, l = 1, . . . , n. k=1 l=1 (14.2) n P m P Allgemein für m P n P w = m P ζk wk und k=1 ζ k ηl hf ∗ (wk ), vl i = hf ∗ (w), vi. v = n P ηl vl folgt l=1 k=1 l=1 (a) Der Beweis von (1) zeigt: hw, f (v)i = hz, vi ∀v ∈ V , dann ist z = ∗ tät von f in (1) automatisch folgt. Ist w ∈ W und dazu z ∈ V derart, dass f ∗ (w). Das bedeutet insbesondere, dass die Lineari- (b) Der Beweis von (1) besagt auch: Ist A die Abbildungsmatrix von f bezüglich irgendwelcher ONB, dann ist A∗ die Abbildungsmatrix von f ∗ bezüglich der gleichen Basen. Für alle ξ ∈ Km×1 , η ∈ Kn×1 , A ∈ Km×n gilt bezüglich der Standardskalarprodukte hξ, A ηi = hA∗ ξ, ηi. Das bedeutet (LA )∗ = LA∗ (vgl. (b) ). (c) Man erinnere sich an (13.8) letzter Punkt: 100 (14.3) Eigenschaften der Adjunktion. Seien V und W endlichdimensionale KVR mit SP. Dann gelten für f, g ∈ Hom(V, W ) (a) (f ∗ )∗ = f (b) (f + λg)∗ = f ∗ + λg ∗ , λ∈K und für f ∈ End(V ), M UVR von V (c) det f ∗ = det f (d) (idV )∗ = idV (e) λ Eigenwert von (f ) M f − (bzw . f ∗ −)invariant ⇒ M ⊥ f ∗ −(bzw . f −)invariant. f ⇔ λ Eigenwert von f∗ Beweis. (a) ∀x, y ∈ V : hy, f ∗ (x)i = hf ∗ (x), yi = hx, f (y)i = hf (y), xi. Daher ist (f ∗ )∗ = f (c) Sei A eine Abbildungsmatrix von f bezüglich einer ONB. Dann ist A∗ nach (1). die Abbildungsmatrix T f ∗ bezüglich der gleichen Basis, s. (2) (b). Nun ist det f ∗ = det A∗ (nach (11.22)) = det A = det A (nach (10.10)) = det A = det f (nach (10.09)). (f ) ∀x ∈ M, y ∈ M ⊥ gilt: 0 = hy, f (x)i ∗ ∗ ⊥ ∗∗ = f folgt hieraus auch der zweite Teil der (weil f (x) ∈ M ) = hf (y), xi ⇒ f (y) ∈ M . Weil f Behauptung. (b), (d) und (e) bleiben als Übung. von Üb Beweise (b), (d) und (e) aus (3). Normale Endomorphismen (14.4) Denition. ∗ wenn f (14.5) V ein KVR mit SP endlicher Dimension. Dann heiÿt f ∈ End(V ) normal, ◦ f = f ◦ f ∗ . Entsprechend heiÿt A ∈ Kn×n normal, wenn A∗ A = A A∗ gilt. Sei Abbildungsmatrix eines normalen Endomorphismus. Die Abbildungsmatrix eines Endomorphismus bezüglich einer ONB ist genau dann normal, wenn der Endomorphimus normal ist. Beweis. Allgemein gelten LA = ϕ◦f ◦ϕ−1 nach (7.9), (7.10) und LB ◦LA = LBA nach (7.18). Daher LA∗ A = LA∗ ◦ LA = ϕ ◦ f ∗ ◦ ϕ−1 ◦ ϕ ◦ f ◦ ϕ−1 = ϕ ◦ f ∗ ◦ f ◦ ϕ−1 = ϕ ◦ f ◦ f ∗ ◦ ϕ−1 = . . . = LAA∗ . ∗ ∗ Hieraus folgt A A = A A . Die Umkehrung beweist man analog. ist (14.6) Eigenschaften eines normalen Endomorphismus. Sei f ∈ End(V ) normal. Dann gelten (a) Kern(f ) = Kern(f ∗ ) (b) ∀x ∈ V, λ ∈ K : (c) x, y ∈ V Eigenvektoren zu verschiedenen Eigenwerten ⇒ x ⊥ y. f (x) = λ x ⇔ f ∗ (x) = λ x. Beweis. (a) Sei x ∈ Kern(f ). Dann gilt: f (x) = 0 ⇒ 0 = kf (x)k2 = hf (x), f (x)i = hf ∗ (f (x)), xi = hf (f ∗ (x)), xi = hf ∗ (x), f ∗ (x)i = kf ∗ (x)k2 ⇒ x ∈ Kern(f ∗ ). Ebenso folgt Kern(f ∗ ) ⊂ Kern(f ). ∗ ∗ (b) ⇒: Oenbar ist (f − λ idV )(x) = 0, d.h. x ∈ Kern(f − idV ). Mit (f − λ idV ) = f − λ idV ∗ nach (3)(b),(d) folgt. dass f − λ idV normal ist. Somit folgt x ∈ Kern(f − λ idV ) nach (a). Also ist ∗ f (x) = λx. ⇐ folgt analog. ∗ (c) Sei f (x) = λ x, f (y) = µ y mit λ 6= µ. Dann gilt: λ hx, yi = hλ x, yi = hf (x), yi (wegen (b)) = hx, f (y)i = hx, µ yi = µ hx, yi, woraus die Behauptung folgt. 101 Üb K-VR mit SP endlicher Dimension und f ∈ End(V ) normal. Weiter sei W ein V , der von Eigenvektoren von f erzeugt wird. Man zeige: f (W ) ⊂ W, f (W ⊥ ) ⊂ W ⊥ , f ∗ (W ) ⊂ W, f ∗ (W ⊥ ) ⊂ W ⊥ . Sei V ein UVR von Üb Sei V ein CVR mit SP endlicher Dimension. Seien paarweise verschiedenen Eigenwerte von f. f ∈ End(V ) normal und λ 1 , . . . λs die Man zeige: ⊥ ... ⊥ Ef (λs ). V = Ef (λ1 ) (14.7) Hauptsatz. Sei V ein endlichdimensionaler C-VR mit SP. Ist f ∈ End(V ) normal, dann gibt es eine ONB von Eigenvektoren von f . Es gilt auch die Umkehrung. Beweis. dim V =: n ∈ N. χf nach (12.10) in Linearfaktoren zerfällt, hat f einen v1 . O.E. sei kv1 k = 1. Seien nun bereits orthonormale Eigenvektoren v1 , . . . , vj mit j ∈ {1, . . . , n − 1} für f gefunden. Setze W := Span{v1 , . . . , vj }. Aus ∗ (6)(b) folgt f (W ) ⊂ W und f (W ) ⊂ W . Hieraus folgt bereits alles Übrige. In der Tat ist zunächst ⊥ ⊥ ∗ ⊥ ⊥ nach (3)(f ). Damit ist g : W ⊥ → W ⊥ , g(x) := f (x), ein auch f (W ) ⊂ W , f (W ) ⊂ W ⊥ mit g ∗ (x) = f ∗ (x), denn für x, y ∈ W ⊥ gilt hx, g(y)i = hx, f (y)i = Endomorphismus von W ∗ ∗ ⊥ hf (x), yi mit f (x) ∈ W . Schlieÿlich ist g normal: g ∗ (g(x)) = g ∗ (f (x)) = f ∗ (f (x)) = f (f ∗ (x)) = f (g ∗ (x)) = g(g ∗ (x)). Weil dim W ⊥ = n − j ≥ 1, ist W ⊥ 6= {0}. Damit gibt es, wie eingangs für f argumentiert, einen Eigenvektor vj+1 ∈ W ⊥ von g mit kvj+1 k = 1. Dieser ist auch Eigenvektor von f mit vj+1 ⊥ W . Zur Umkehrung sei v1 , . . . , vn eine ONB von V und seien λ1 , . . . , λn aus C mit f (vl ) = λl vl . Dann folgt hvk , f (vl )i = hvk , λl vl i = δkl λl = δkl λk = λk hvk , vl i = hλk vk , vl i. Daher gilt allgemein Pn Pn Pn für x = l=1 αl hλk vk , vl i = hλk vk , xi. l=1 αl hvk , f (vl )i = l=1 αl vl ∈ V , dass hvk , f (x)i = ∗ ∗ Nach (2) (a) impliziert dies f (vk ) = λk vk für k = 1, . . . , n. Damit rechnet man nach: f ◦ f (vl ) = ∗ ∗ ∗ ∗ ∗ f (λl vl ) = λl f (vl ) = λl λl vl = . . . = f ◦ f (vl ) für alle l. Hieraus folgt f ◦ f = f ◦ f . Sei Eigenwert λ1 Weil und dazu einen Eigenvektor Insbesondere ist jeder normale Endomorphimus eines endlichdimensionalen C-VR diagonalisierbar. Unitäre Automorphismen (14.8) ONBWechsel, unitäre Matrix. Sei V ein KVR mit SP und dim V =: n ∈ N. Seien v1 , . . . , vn und v10 , . . . , vn0 zwei ONB von V . Dann ist die invertierbare Matrix S , die gemäÿ (∗) vj0 = n X slj vl , j = 1, . . . , n l=1 den Basiswechsel beschreibt (siehe (7.25)), unitär, d.h. sie erfüllt S −1 = S ∗ . Ist umgekehrt v1 , . . . , vn eine ONB von V und S ∈ Kn×n unitär, dann deniert (∗) eine ONB v10 , . . . , vn0 . Beweis. Ist v1 , . . . , vn hvk0 , vj0 i eine ONB von V, so folgt zunächst aus (∗): n n n X n n X n n n X X X X X X =h sik vi , sik slj hvi , vl i = sik slj δil = sik sij = sTki sij . slj vl i = i=1 Wenn nun S −1 = S ∗ vj0 , . . . , vn0 i=1 l=1 l=1 i=1 l=1 S unitär, i=1 δkj = hvk0 , vj0 i und daher E n = S ∗ S , was äquvalent zu ∗ 0 0 dann ist S S = E n und somit hvk , vj i = δkj . eine ONB ist, dann ist ist. Ist umgekehrt i=1 102 S −1 = S ∗ Wie bemerkt, ist ist ∗ S =S T S∗S = En S ∈ GL(n, R) äquivalent zu und man nennt spezieller und damit auch zu mit S −1 S S∗ = En. = S orthogonal. T Im Fall K=R U(n) := {S ∈ GL(n, C) : S −1 = S ∗ }, O(n) := {S ∈ GL(n, R) : S −1 = S T } sind Gruppen bez. der Matrixmultplikation, d.h. also Untergruppen der allgemeinen linearen Gruppe C bzw. R. Daher heiÿt U(n) O(n) = U(n) ∩ Rn×n . über ist bzw. O(n) die Üb Man weise die Gruppeneigenschaften von Üb Sei S ∈ Kn×n unitär. Man zeige: unitäre bzw. orthogonale Matrixgruppe. U(n) ⊂ GL(n, C) O(n) ⊂ GL(n, R) und Es nach. | det S| = 1. Es folgt eine Kennzeichnung unitärer Matrizen. (14.9) Unitaritätskriterium 1. Sei S ∈ Kn×n . Dann sind äquvalent (a) S ist unitär. (b) Die Spaltenvektoren von S bilden eine ONB in Kn×1 bezüglich des StandardSP. (c) Die Zeilenvektoren von S bilden eine ONB in K1×n bezüglich des StandardSP. Beweis. Sei S = (s1 . . . sn ), wobei wie üblich sk ∈ Kn×1 den k -ten Spaltenvektor von S bezeich- net. Damit ist ∗ s1 .. ∗ S S = . s1 . . . sn . s∗n (k, l)Element ⇔ (c). Das (a) von S∗S ist s∗k sl = hsk , sl i. Hieraus folgt sofort (a) ⇔ Man weise (i) Üb Man gebe Beispiele für unitäre bzw. orthogonale SPerhaltend. wenn f (b). Ähnlich einfach folgt Üb (14.10) ⇔ (iii) von (9) nach. Seien V und W KVR (n × n)Matrizen mit SP. Dann heiÿt für n = 1, 2, 3 f :V →W an. ein Isomorphismus, bijektiv, linear und SPerhaltend ist. Letzteres bedeutet hf (x), f (y)i = hx, yi ∀x, y ∈ V. Ist Üb V = W, f auch unitär und, falls K = R, spezieller orthogonal. f ein Isomorphismus von KVR mit hy, f (x)i = hf −1 (y), xi ∀x ∈ V, y ∈ W. Man zeige: Ist und es gilt (14.11) so heiÿt SP, so ist auch f −1 ein Isomorphismus Isomorphismus zwischen endlichdimensinalen VR. Seien V, W K-VR mit SP und f ∈ Hom(V, W ). Ist dim V = dim W < ∞, dann gilt: f SP-erhaltend ⇔ f bijektiv und f −1 = f ∗ . 103 Beweis. ⇒: ∀x, y ∈ V hx, yi = hf (x), f (y)i = hf ∗ (f (x)), yi. Mit (13.4) folgt f ∗ (f (x)) = x ∀x ∈ V und somit f ∗ ◦ f = idV . Aus (2.24), (6.17) folgt, dass f bijektiv ist und −1 = f ∗ . ⇐: hf (x), f (y)i = hf ∗ (f (x)), yi = hf −1 (f (x)), yi = hx, yi ∀x, y ∈ V . somit f gilt nach (1): Unitäre Endomorphismen auf endlichdimensionalen VR sind oensichtlich normal. Ensprechend sind unitäre Matrizen normal. Im Fall K=R sagt man statt unitär spezieller orthogonal. Wie in (5) überzeugt man sich, dass die Abbildungsmatrix eines Endomorphismus bezüglich einer ONB genau dann unitär ist, wenn der Endomorphimus unitär ist. Üb V, W K-VR mit SP und f ∈ Hom(V, W ). Dann heiÿt f isometrisch, wenn kf (x)k = kxk ∀x ∈ V . Man zeige: Ist f isometrisch, dann ist f injektiv. Weiter zeige man: f ist SP-erhaltend genau dann, wenn f isometrisch ist. Tipp: Man wende auf hf (x), f (y)i die Polaridentität an. Dabei achte man auf die Fälle K = C und K = R. Seien Üb Sei V K-VR Üb Sei V ein mit SP, K-VR natenabbildung. Üb (14.12) V K-VR Man zeige: f Sei dim V < ∞ und f ∈ End(V ). Man zeige: f unitär ⇔f isometrisch. v1 , . . . , vn eine ONB in V und ϕ : V → Kn×1 die zugehörige Koordin×1 mit dem Standard-SP. Man zeige: ϕ ist ein Isomorphismus. Versehe K mit SP, dim V < ∞ mit SP, f ∈ End(V ). Weiter sei v1 , . . . , vn eine ONB wenn f (v1 ), . . . , f (vn ) eine ONB von V ist. und ist unitär genau dann, V. von Unitaritätskriterium 2. Seien V ein C-VR mit SP endlicher Dimension und f ∈ End(V ). Dann sind äquivalent: (a) f ist unitär. (b) f ist normal und alle Eigenwerte sind vom Betrag 1. (c) f besitzt eine ONB von Eigenvektoren zu Eigenwerten vom Betrag 1. Beweis. ⇒ (b) sei λ ∈ C und x ∈ V , x 6= 0, mit f (x) = λx. Dann gilt: kxk2 = hx, xi = hf (x), f (x)i = hλ x, λ xi = λ λ̄ hx, xi = |λ|2 kxk2 ⇒ |λ| = 1. Zu (b) ⇒ (a) betrachte nach (7) eine ONB v1 , . . . , vn von Eigenvektoren zu den Eigenwerten λ1 , . . . λn vom Betrag E DP Pn Pn Pn n β λ v = β v gilt dann hf (x), f (y)i = α λ v , α v , y = 1. Für x = j j j l l l l l l l j=1 l=1 l=1 l=1 Pn Pn Pn Pn l=1 j=1 ᾱl λ̄l βj λj hvl , vj i = l=1 j=1 ᾱl λ̄l βj λj δlj . Letzteres ist gleich hx, yi, weil λ̄l λl = 1. Also ist f SP-erhaltend. Die Äquivalenz von (b) und (c) folgt aus (7). Es bleibt lediglich festzustellen, dass f in (c) wegen (6)(c) keinen Eigenwert vom Betrag ungleich 1 haben kann. V ein oder −1. Ist (14.13) Zu (a) RVR mit SP und f ∈ End(V ) orthogonal, dann ist jeder Eigenwert von f entweder +1 Das zeigt man wie in (a) ⇒ (b) von (12). Unitäre Diagonalisierung normaler Matrizen. Sei A ∈ Cn×n normal. Dann existiert eine unitäre Matrix S derart, dass S −1 A S = diag(λ1 , . . . , λn ), wobei λ1 , . . . , λn die Eigenwerte von A sind. Beweis. Da LA normal ist, existiert nach dem Hauptsatz (7) eine ONB von Eigenvektoren. Der Basiswechsel von der Standardbasis zu dieser Basis wird nach (8) durch eine unitäre Matrix vermittelt. Die Abbildungsmatrix S −1 A S = diag(λ1 , . . . , λn ) A (von LA ) S geht dabei gemäÿ (11.11) in die Diagonalmatrix über. Die Umkehrung in (13) gilt auch. (14.14) Unitäräquivalent zu einer Diagonalmatrix. Ist A ∈ Cn×n , S ∈ U(n) und ist S −1 A S = diag(λ1 , . . . , λn ) mit gewissen λ1 , . . . , λn aus C, dann ist A normal und λ1 , , . . . , λn sind die Eigenwerte von A. Die Spaltenvektoren s1 , . . . , sn von S sind dazu eine ONB aus Eigenvektoren. 104 Beweis. Mit D := diag(λ1 , . . . , λn ) ist A = S D S −1 und A∗ = (S −1 )∗ D∗ S ∗ = S D S −1 , weil S −1 = S∗ und D∗ = D. Damit folgt A∗ A = S D S −1 S D S −1 = S D D S −1 = S D D S −1 = · · · = A A∗ . Üb Sei V ein CVR f ∈ End(V ) mit SP endlicher Dimension und f invarinater UVR. Man zeige: W ⊥ ist Der Rest der Behauptung folgt aus (11.11) und (9). normal. Weiter sei W ein f invariant. Pm Pm j j n×n sei p(A) := Anleitung. Für p ∈ K[X], p = j=1 αj X und A ∈ K j=1 αj A . n×n eine Diagonalmatrix. Man zeige zunächst, dass es ein Interpolationspolynom Sei D ∈ C p ∈ C[X] (vom Grad ≤ n) gibt derart, dass p(D) = D∗ . Man verallgemeinere dieses Ergebnis von Diagonalmatrizen auf normale Matrizen mit Hilfe von (13). Schlieÿlich wende man (3)(f ) an. Selbstadjungierte Endomorphismen KVR mit SP und dim V < ∞. Dann heiÿt f ∈ End(V ) selbstadjungiert, wenn f = f ∗ , d.h. wenn hx, f (y)i = hf (x), yi für alle x, y aus V . Insbesondere sind selbstadjungierte Endomorphismen Sei V ein normal. Oenbar ist die Abbildungsmatrix eines Endomorphismus bezüglich einer ONB genau dann selbstadjungiert, wenn der Endomorphismus selbstadjungiert ist (vgl. (5)). Ein Beispiel im Fall PW hPW ⊥ (y), PW (x)i = 0 gonale Projektor (14.15) dim V < ∞ für einen selbstadjungierten Endomorphismus ist der ortho- x, y aus V gilt: hy, PW (x)i = hPW (y), PW (x)i hPW (y), xi = hPW (y), PW (x)i weil hPW (y), PW ⊥ (x)i = 0. aus (13.25), denn für und ebenso weil Kriterium für Selbstadjungiertheit. Sei V ein CVR mit SP endlicher Dimension und f ∈ End(V ). Dann sind äquivalent: (a) f ist selbstadjungiert. (b) f ist normal und alle Eigenwerte sind reell. (c) f besitzt eine ONB von Eigenvektoren zu reellen Eigenwerten. Beweis. Zu (a) ⇒ (b) sei λ ∈ C und x ∈ V , x 6= 0 mit f (x) = λ x. Dann gilt: λ hx, xi = hx, λxi = hx, f (x)i = hf ∗ (x), xi = hf (x), xi = hλ x, xi = λ̄ hx, xi ⇒ λ = λ̄. Zu (b) ⇒ (a) betrachte nach (7) eine ONB v1 , . . . , vn von Eigenvektoren zu reellen Eigenwerten λ1 , . . . , λn . Mit Pn Pn Pn Pn der gewohnten Notation folgt hx, f (y)i = h j=1 ᾱl βj λj δlj = l=1 αl vl , j=1 βj λj vj i = l=1 Pn Pn ∗ (x) = f (x) für alle x ∈ V . ᾱ β hλ v , v i = . . . = hf (x), yi , weil λ = λ̄ . Also ist f l l l=1 j=1 l j l l j Die Äquivalenz von (b) und (c) folgt aus (7). Es bleibt lediglich festzustellen, dass f in (c) wegen (6)(c) keinen nichtreellen Eigenwert haben kann. Üb V ein KVR mit SP endlicher Dimension W ⊂ V ein UVR. Zeige: Ist W f invariant, Sei und f ∈ End(V ) selbstadjungiert. Weiter sei W ⊥ f invariant. (Dies ist ein dann ist auch leichter zu beweisender Spezialfall der vorangegangenen Übung.) Üb Man gebe Beispiele für normale Endomorphismen an, die weder unitär noch selbstadjungiert sind. In Hinblick auf (11.13) und (7) gebe man ein Beispiel einer nicht normalen reellen Matrix an, die zwei verschiedene reelle Eigenwerte besitzt. 105 2 × 2 Diagonalisierbarkeit über R Der Hauptsatz (7) gilt im Fall, dass V ein reeller VR ist, im allgemeinen nicht. Genaue Auskunft gibt das folgende Ergebnis. (14.16) ONB von Eigenvektoren im Fall K = R. Seien V ein endlichdimensionaler RVR mit SP und f ∈ End (V ). Dann sind äquivalent: (a) (b) (c) Beweis. f ist normal und χf ist das Produkt reeller Linearfaktoren. f ist selbstadjungiert, hier auch symmetrisch genannt. Es gibt eine ONB von Eigenvektoren von f . Sieht man den Beweis des Hauptsatzes (7) durch, erkennt man sofort die Gültigkeit von (a) ⇔ (c). Sei A die Abbildungsmatrix von f bezüglich einer ONB in V . Wir fassen die reelle Man×n auf. Auÿerdem beachte man (2)(b),(c), sowie (5) und die entsprechende trix A als Element von C Bemerkung vor (15). Es gelte nun (a). Dann ist LA normal mit nur reellen Eigenwerten, weshalb LA nach (15) selbstadjungiert ist. Damit ist A symmetrisch und folglich f symmetrisch. Also gilt (b). Schlieÿlich sei f symmetrisch. Dann ist A symmetrisch und somit LA symmetrisch. Nach (15) folgt daraus, dass alle Eigenwerte von LA und somit von A und also von f reell sind. Damit gilt (b). Wegen (12.8) ist (16)(a) äquivalent dazu, dass auch äquivalent dazu, dass f f normal und trigonalisierbar ist. Daher ist (16)(c) normal ist und eine Basis von Eigenvektoren besitzt. Als Korollar zu (16) erhält man das folgende wichtige Ergebnis. (14.17) Orthogonale Diagonalisierung einer symmetrischen Matrix. Sei A ∈ Rn×n . Dann ist A genau dann symmetrisch, wenn S ∈ O(n) existiert derart, dass S −1 AS diagonal ist. Beweis. Sei A symmetrisch. Dann ist LA symmetrisch. Nach (16) besitzt LA und somit A eine ONB von Eigenvektoren, die natürlich reell sind. Mit (11.11) und (14.9) folgt die nicht elementare Richtung der Äquivalenz. Zur umgekehrten Richtung benutze man S −1 = S T und (9.5). Das charakteristische Polynom orthogonaler Matrizen zerfällt i. allg. nicht in reelle Linearfaktoren. Fundamental ist das Beispiel (14.18) Dϕ für ϕ∈ / πZ aus (11.25), wie wir gleich sehen werden. Lemma. Seien V ein endlichdimensionaler RVR und f ∈ End (V ). Dann gibt es einen f invarianten UVR W von V mit dim W ∈ {1, 2}. Beweis. A ∈ Rn×n eine Abbildungsmatrix für f . Es genügt die Behauptung für LA statt f zu n×n auf. Dann existiert ein Eigenwert λ ∈ C von A. Sei z ∈ Cn×1 \ {0} mit zeigen. Fasse A ∈ C 1 (z − z) ∈ A z = λ z . Hieraus folgt A z = A z = λ z = λ z . Setze x := 21 (z + z) ∈ Rn×1 und y := 2i n×1 n×1 die Behauptung erfüllt. R . Man rechnet leicht nach, dass W := Span {x, y} ⊂ R Üb Sei Man rechne nach, dass W in Beweis von (18) erfüllt: W 6= {0}, LA (W ) ⊂ W. Orthogonale Endomorphismen lassen sich i. allg. nicht diagonalisieren (s. o.), aber es gilt immerhin (14.19) Normalform einer orthogonalen Matrix. Sei V ein RVR mit SP und dim V =: n ∈ N. Ist f ∈ End (V ) orthogonal, dann gibt es eine ONB von V , wofür die Abbildungsmatrix T von f die Blockdiagonalgestalt E n1 −E n2 D1 T = .. . Dp 106 hat, wobei Dj := Dϕj , ϕj ∈ / πZ (s. (11.25)) für j = 1, . . . , p. Beweis. Der Beweis erfolgt durch Induktion nach n. Für n = 1 ist T = ±E 1 , weil f (x0 ) = λ x0 V = R x0 mit |λ| = 1. Nach (18) existiert UVR W mit dim W ∈ {1, 2} und f (W ) ⊂ W . Weil f isometrisch ist, ist f injektiv und damit bijektiv. Daher gilt sogar f (W ) = W . Daraus −1 (W ) = W und somit f ∗ (W ) = W . Nach (3)(f ) folgt f (W ⊥ ) ⊂ W ⊥ und schlieÿlich folgt f ⊥ f (W ) = W ⊥ . Nun läÿt sich die Induktionsvoraussetzung anwenden. Danach gibt es ONB von W und von W ⊥ derart, dass die Abbildungsmatrix dazu von f von der Form T1 T = T2 für T 2 die behauptete Gestalt hat und T 1 die Abbildungsmatrix dim W = 1 ist T 1 = ±E1 . Der Rest des Beweises folgt nun aus (20). ist, wobei (14.20) von f auf W ist. Im Fall Die Matrixgruppe O(2). Für T ∈ O(2) gilt: Es gibt ϕ ∈ R derart, dass entweder T = Dϕ oder T = D− ϕ , wobei cos ϕ sin ϕ cos ϕ − sin ϕ − Dϕ := . , Dϕ := sin ϕ − cos ϕ sin ϕ cos ϕ −1 − Zu D− ϕ existiert S ∈ O(2) mit S D ϕ S = diag(1, −1). α β T 2 . Da 1 = det E 2 = det (T T ) = ( det T ) ist det T = ±1. Wegen Beweis. Sei T = γ δ α β δ −γ α β −1 T 1 T = (T ) ist =∆ , s. (10.21). Das führt auf die beiden Fälle T = γ δ −β α −β α α β 2 2 und T = mit α + β = 1, die in der angegebenen Weise parametrisiert werden. β −α − 2 2 Das charakteristische Polynom von D ϕ lautet (cos ϕ − X)(− cos ϕ − X) − sin ϕ = X − 1 = ⊥ E(−1). (1 − X)(−1 − X). Folglich ist R2×1 = E(1) Üb Man deute Üb Sei Dϕ und D− ϕ geometrisch. Wie hängen Dϕ und D− ϕ zusammen? T ∈ O(n). Man zeige: Es gibt S ∈ O(n) derart, dass S −1 T S = diag(E n1 , −E n2 , D1 , . . . , Dp ), vgl. (19). Hauptachsentransformation V ein KVR mit dim V =: n ∈ N. Darauf sei eine Sesquilinearform [, ] : V × V → K erklärt, d.h. [, ] ist linear im zweiten und konjugiert linear im ersten Argument. Wähle eine indizierte Basis v1 , . . . , vn in V . Für x, y aus V seien ξ , η die zugehörigen Koordinatenvektoren aus Kn×1 . Dann Sei folgt " [x, y] = n X l=1 ξl vl , n X # ηk vk = k=1 n X n X ξ l ηk [vl , vk ] = ξ ∗ A η mit A := ([vl , vk ])l,k=1,...,n . l=1 k=1 Es gilt also (14.21) [x, y] = ξ ∗ A η = hξ, A ηi. A = ([vl , vk ])k,l die darstellende Matrix der Sesquilinearform [, ] bez. der indiBasis v1 , . . . , vn (vgl. (13.10)). Wie transformiert sich die darstellende Matrix A bei einem Man nennt zierten 107 Wechsel zu einer neuen Basis Pn Pn v10 , . . . , vn0 ? S Mit aus (7.25) folgt P P [vl0 , vk0 ] = [ ni=1 sil vi , nj=1 sjk vj ] = j=1 sil sjk [vi , vj ], was i=1 A0 = S ∗ A S (14.22) bedeutet. Man beachte, dass sich A als darstellende Matrix einer Sesquilinearform nicht mittels Ähnlichkeit (7.34) transformiert. Üb Kn×n betrachte man die folgende Relation: A ∼ B , wenn S ∈ GL(n, K) ∗ dass B = S A S . Man zeige: ∼ ist eine Äquivalenzrelation. Auf Nach (13.11) ist [, ] konjugiert symmetrisch genau dann, wenn dann ist (13) anwendbar. Da (14.23) S ∗ = S −1 für S ∈ U (n), Hauptachsentransformation. Sei V ein A existiert derart, selbstadjungiert ist. Gilt letzteres, folgt aus (22) mit (8) die KVR mit SP und dim V =: n ∈ N und sei [, ] eine V . Dann existieren eine ONB v1 , . . . , vn von V konjugiert symmetrische Sesquilinearform auf und λ1 , . . . , λ n [x, y] = aus n X R derart, dass λl ξ l ηl l=1 x, y ∈ V λ1 , . . . , λn die Eigenwerte einer (jeden) selbstadjungierten darstellenden Matrix von [, ] sind. Es ist [, ] genau für und ξ, η die zugehörigen Koordinatenvektoren. Es folgt, dass dann positiv denit (d.h. ein SP) bzw. positiv semidenit, wenn alle Eigenwerte positiv bzw. nichtnegativ sind. Es ist [, ] genau dann indenit, wenn es einen positiven und einen negativen Eigenwert gibt. Üb Es gelten die Voraussetzungen von (23). Man zeige: Es gibt eine orthogonale Basis von V und p, r ∈ {0, . . . , n} [x, y] = p X ξ l ηl − l=1 für alle x, y ∈ V Man beachte, dass A es ist. mit r X p≤r derart, dass ξ l ηl l=p+1 mit Koordinatenvektoren S∗A S mit A ∈ Kn×n und S ∈ GL(n, K) mit ξ, η aus Kn×1 . S ∈ GL(n, K) Der Trägheitssatz von Sylvester existiert genau dann ṽ1 , . . . , ṽn genau dann selbstadjungiert ist, wenn A, A0 ∈ Kn×n selbstadjungiert. Es 0 0 Rang (A ) = Rang (A) sowie A und A besagt: Seien A0 = S ∗ A S , gleich viele positive Eigenwerte besitzen. 108 wenn