LINEARE ALGEBRA II Ernst Bönecke Universität Hamburg Juli 2016 VORWORT Auch der zweite Teil beginnt mit Themen, die schon aus der Schule bekannt sein dürften: Skalarprodukt und Vektorprodukt im R3 . Es wird aber schnell allgemeiner: Eigenwerte, orthogonale und unitäre Gruppen sind eher kein Schulstoff. Das Tensorprodukt wird von vielen Studierenden oft als abstrakt empfunden. Dem Text liegt in den Paragraphen 6, 7, 8 und 9 das Buch [Fi] von G.Fischer zugrunde. §6 ist ergänzt durch einen Abschnitt über sphärische Geometrie, nach dem Buch [Ko] von M.Koecher. Der Paragraph 10 über klassische Gruppen ist eine Zusammenstellung aus den Büchern [HN] von J.Hilgert/K.-H.Neeb, [Hei] von W.Hein und einem Vorlesungstext [Ja] von J.C.Jantzen. Vorausgesetzt werden die Paragraphen 1 bis 5 aus der Linearen Algebra I. Erst in §10 werden Kenntnisse aus Topologie und Analysis vorausgesetzt, wie man sie etwa bei O.Forster, Analysis 2 und 3 ( [Fo2] , [Fo3] ), findet. Die benutzten Begriffe stehen zwar in §10, aber ohne weitere Beispiele und Übungsaufgaben kann man diese Kapitel aus der Analysis nicht lernen. Ich denke, dass dieser Text für Studierende im 2.Semester gut lesbar ist, und viele Ergänzungen bringt, für die in einer Vorlesung meist keine Zeit ist. Hamburg, im Juli 2016 1 Inhaltsverzeichnis §6 Vektorräume mit Skalarprodukt 6.1 6.2 6.3 6.4 6.5 6.6 Definition und elementare Eigenschaften Orthonormalbasen Matrizen Hermitescher Formen Das Vektorprodukt im R3 Sphärische Geometrie Aufgaben 4 14 18 21 25 29 §7 Eigenwerte 33 7.1 7.2 7.3 7.4 7.5 7.6 7.7 Beispiele und Definitionen Das charakteristische Polynom Diagonalisierung Potenzen eines Endomorphismus Das Minimalpolynom einer Matrix Die Jordansche Normalform Aufgaben 33 36 42 50 56 59 78 §8 Das Tensorprodukt 82 8.1 8.2 8.3 8.4 Definition und Eigenschaften Symmetrische und alternierende Tensoren Tensoralgebra und äußere Algebra Aufgaben 82 88 93 98 §9 Endomorphismen von Vektorräumen mit Skalarprodukt 102 9.1 9.2 9.3 9.4 9.5 4 Orthogonale und unitäre Endomorphismen 102 Selbstadjungierte Endomorphismen 115 Hauptachsentransformation 122 Trägheitsgesetz von Sylvester 132 Aufgaben 142 2 §10 Klassische Gruppen 145 10.1 10.2 10.3 10.4 10.5 10.6 10.7 10.8 Einiges zur Topologie im Rn Die allgemeine lineare Gruppe Untergruppen von GL(n, R) Die Struktur von GL(n, R) Die Struktur von GL(n, C) Die Quaternionengruppen Klassische Gruppen als Mannigfaltigkeiten Aufgaben 145 151 153 155 162 164 171 185 Literaturverzeichnis 189 Verzeichnis der Definitionen 190 3 §6 Vektorräume mit Skalarprodukt 6.1 Definition und elementare Eigenschaften (6.1.1) Zur Motivation : Schon in Definition 1.4.3 hatten wir für beliebiges n ∈ N das kanonische Skalarprodukt im Rn definiert durch hx, yi := x1 y1 + . . . + xn yn für x = t (x1 , . . . , xn ) , y = t (y1 , . . . , yn ) ∈ Rn . Zwei Vektoren x, y ∈ Rn wird also ein “Skalar” hx, yi ∈ R zugeordnet. Mit Hilfe dieses kanonischen Skalarprodukts hatten wir die Norm eines Vektors x ∈ Rn definiert als p hx, xi , (∗) k x k := und für x, y ∈ Rn hatten wir Orthogonalität definiert durch x⊥y :⇐⇒ hx, yi = 0 . Mit diesem Beispiel beschäftigen wir uns noch in 6.1.10. Wir wollen aber allgemein “Skalarprodukte” auf möglicherweise unendlichdimensionalen Vektorräumen definieren. Man braucht so etwas a) in der Funktionalanalysis (Theorie der Funktionen mit Werten in R) und damit in der numerischen Mathematik, b) in der Physik, z.B. bei der mathematischen Formulierung der Quantentheorie. Es geschieht deshalb keineswegs (nur) aus Freude an allgemeinen, abstrakten Strukturen, was wir im Folgenden machen. Noch etwas: Sehen wir uns die obige Formel (∗) an, so sehen wir: Wenn wir die Norm eines Vektors x definieren wollen, müssen wir aus hx, xi die Quadratwurzel ziehen können. Wir betrachten daher nicht Vektorräume über beliebigen Körpern: Vereinbarung 6.1.2 : In §6 werden wir unter K stets den Körper R der reellen oder den Körper C der komplexen Zahlen verstehen. Für z ∈ K sei z das Konjugiert-Komplexe von z , also z = a − bi für z = a + bi ∈ C mit a, b ∈ R , z = z für z ∈ R . 4 bzw. Für z ∈ K ist |z| der (reelle oder komplexe) Betrag von z . Für z ∈ K soll z > 0 stets bedeuten: z ∈ R ∧ z > 0 . Entsprechend: z ≥ 0 :⇐⇒ (z ∈ R ∧ z ≥ 0). Definition 6.1.3 : Sei V ein K−Vektorraum (also ein Vektorraum über R oder C ). Eine Abbildung s : V × V −→ K heißt eine Sesquilinearfom (1 12 - fach linear) wenn für alle u, v, w ∈ V und alle λ ∈ K gilt (H1) s(u + v, w) = s(u, w) + s(v, w) , s(λu, w) = λs(u, w) , d.h. s ist “linear als Funktion des 1.Arguments”, und (H1) s(u, v + w) = s(u, v) + s(u, w) , s(u, λw) = λs(u, w) , d.h. s ist als Funktion des 2.Arguments “nicht so ganz” linear. s heißt eine Hermitesche Form auf V , wenn zusätzlich für alle u, v ∈ V gilt (H2) s(u, v) = s(v, u) , d.h. wenn man die beiden Argumente vertauscht, erhält man das Konjugiert-Komplexe. Bemerkung 6.1.4 : Sei s eine Hermitesche Form, dann folgt (H1) bereits aus (H1) und (H2) : Seien u, v, w ∈ V und λ ∈ K, dann gilt (H2) (H1) s(u, v + w) = s(v + w, u) = s(v, u) + s(w, u) = (H2) s(v, u) + s(w, u) = s(u, v) + s(u, w) , (H2) (H1) s(u, λv) = s(λv, u) = λ s(v, u) = (H2) λ s(v, u) = λ s(u, v) . 2 Folgerung 6.1.5 : Ist s eine Hermitesche Form auf einem R-Vektorraum V , so lautet (H2) : ∀ u, v ∈ V : s(u, v) = s(v, u) , 5 und daraus und aus (H1) folgt ∀ u, v ∈ V ∀ λ ∈ R : s(u, λv) = λ s(u, v) . Man nennt s in diesem Fall deshalb eine symmetrische Bilinearform auf V . Bemerkung 6.1.6 : Man möchte, wie im Spezialfall des Rn mit dem kanonischen Skalarprodukt, die Länge eines Vektors definieren durch p kvk := s(v, v) . Wurzeln kann man aber nur aus nichtnegativen , reellen Zahlen ziehen. Haben wir nun eine Hermitesche Form s auf einem C−Vektorraum V , so gilt nach (H2) für v ∈ V immerhin s(v, v) also s(v, v) ∈ R , s(v, v) , = aber das reicht uns nicht: Definition 6.1.7 : Sei V ein K−Vektorraum und s eine Hermitesche Form auf V . Gilt 1 (H 3 ) ∀ v ∈ V : s(v, v) ≥ 0 , so heißt s positiv semidefinit . Gilt 2 (H4) ∀ v ∈ V \ {0} : s(v, v) > 0 , so heißt s positiv definit . Bemerkung 6.1.8 : Jede positiv definite hermitesche Form ist positiv semidefinit, denn für 0 ∈ V und 0 ∈ K gilt s(0, 0) 0·0 , 0 = = s(0 · 0, 0) also nach (H1) : = 0 · s(0, 0) = 0 . Definition 6.1.9 : Sei V ein K−Vektorraum. Eine positiv definite Hermitesche Form s auf V heißt ein Skalarprodukt auf V , und (V, s) heißt, a) falls K = R ist , ein euklidischer , b) falls K = C ist , ein unitärer Vektorraum. Definition 6.1.10 : Sei n ∈ N , dann definieren wir für x = t (x1 , . . . , xn ) , y = t (y1 , . . . , yn ) ∈ Kn : hx, yi := n X j=1 6 xj · y j und nennen h , i das kanonische oder Standard-Skalarprodukt im Kn . Man sieht, dass für h , i die Regeln (H1) , (H2) erfüllt sind, und wegen hx, xi = n X xj · xj = j=1 n X |xj |2 j=1 auch (H4). - Es wird damit deutlich, warum man in der Definition von hx, yi über die yj setzen muss ! ein Beispiel 6.1.11 : Seien a, b ∈ R , a < b und I[a, b] der C−Vektorraum der integrierbaren Funktionen f auf dem Intervall [a, b] := { x ∈ R | a ≤ x ≤ b } , also f : [a, b] −→ C . Dann setzen wir s : I[a, b] × I[a, b] −→ C , Zb s(f, g) f (t) · g(t) dt . := a s ist eine positiv semidefinite hermitesche Form, denn Zb s(f, f ) = |f (t)|2 dt ≥ 0 . a s ist aber nicht positiv definit, denn nehmen wir z.B. 1 für x = a f : [a, b] −→ C , f (x) = 0 für x 6= a , so ist f ∈ I[a, b] , denn f ist eine Treppenfunktion, f 6= 0 , aber Zb |f (t)|2 dt = 0 , also s(f, f ) = 0 . a Was Sie unter einer integrierbaren Funktion zu verstehen haben, lernen Sie in der Analysis. Sie können darunter etwa “Regelfunktionen” verstehen, wie in [K1] , aber Sie können auch andere Integralbegriffe zugrunde legen. Beispiel 6.1.12 : Der Vektorraum C[a, b] aller stetigen, komplexwertigen Funktionen ist ein Untervektorraum von I[a, b] . Damit ist auch s : C[a, b] × C[a, b] −→ C , 7 Zb s(f, g) = f (t) g(t) dt a definiert, und s ist ein Skalarprodukt, denn sei f ∈ C[a, b] , f 6= 0 , dann gibt es ein t0 ∈ [a, b] mit f (t0 ) 6= 0 , also h := |f (t0 )|2 > 0 . Auch t 7−→ |f (t)|2 ist stetig, mit Werten in R , und in der Analysis lernt man, dass es daher ein Intervall [c, d] mit t0 ∈ [c, d] ⊂ [a, b] gibt und h |f (t)|2 ≥ für t ∈ [c, d], c < d, also 2 Rd h h dt = · (d − c) > 0 . s(f, f ) ≥ 2 c 2 |f (t)|2 h h 2 a c t0 d b Definition 6.1.13 : Sei V ein K−Vektorraum mit einer positiv semidefiniten hermiteschen Form s . Für v ∈ V nennen wir p || v || := s(v, v) die Norm von v . Cauchy-Schwarzsche Ungleichung 6.1.14 : Sei V ein K−Vektorraum 8 t mit positiv semidefiniter Hermitescher Form s . Dann gilt für alle v, w ∈ V : | s(v, w) | ≤ || v || · || w || . Ist die Familie (v, w) linear abhängig, so gilt sogar das Gleichheitszeichen. Beweis : 1) Für alle λ ∈ K gilt, da s positiv semidefinit ist: 0 ≤ s(v − λw, v − λw) = s(v, v) − λ s(w, v) − λ s(v, w) + λλs(w, w) , (∗) 0 ≤ s(v, v) − λ s(v, w) − λ s(v, w) + λ λ s(w, w) . a) Gilt s(v, v) = s(w, w) = 0 , so setzen wir λ := s(v, w) in (∗) ein : 0 ≤ −s(v, w) s(v, w) − s(v, w) s(v, w) = −2 |s(v, w)|2 , und wegen | s(v, w) |2 ≥ 0 folgt | s(v, w) | = 0 . Da auch ||v|| = ||w|| = 0 ist, gilt in diesem Fall die Ungleichung. b) Sind s(v, v) und s(w, w) nicht beide Null, so ist eins von beiden positiv. Sei etwa s(w, w) > 0 , dann setzen wir λ := s(v, w) s(w, w) in (∗) ein, und multiplizieren mit s(w, w) : 0 ≤ s(v, v)s(w, w) − s(v, w)s(v, w)−s(v, w)s(v, w) + s(v, w)s(v, w) , | s(v, w)|2 ≤ also s(v, v) s(w, w) , und wir wissen: Wenn R+ = {√x ∈ R | x ≥ 0 } ist, ist die Wurzelfunktion √ : R+ −→ R+ , x 7−→ x monoton wachsend : | s(v, w) | ≤ ||v|| ||w|| . 2) Ist (v, w) linear abhängig, so gilt ∃ λ ∈ K : v = λw ∨ ∃ λ ∈ K : w = λv . Sei etwa v = λw mit λ ∈ K , also ||v||2 = s(v, v) |s(v, w)| = = |s(v, w)| λλs(w, w) |λ s(w, w)| = = = (|λ| kwk) · kwk |λ|2 s(w, w) |λ| ||w||2 , = = |λ|2 ||w||2 also kvk kwk . 2 9 , Zusatz 6.1.15 : Sei V ein K−Vektorraum mit Skalarprodukt s , und seien v, w ∈ V mit |s(v, w)| = kvk · kwk , so ist die Familie (v, w) linear abhängig. Beweis : Sei λ := s(w, w) und µ := −s(v, w) , dann ist λ ∈ R , und s(λv + µw, λv + µw) = λλs(v, v) + µµs(w, w) + λµs(v, w) + λµs(w, v) = kwk4 kvk2 + |s(v, w)|2 kwk2 − kwk2 |s(v, w)|2 − kwk2 |s(v, w)|2 = kwk2 ( kwk2 kvk2 + kvk2 kwk2 − kvk2 kwk2 − kvk2 kwk2 ) = 0 , also λv + µw = 0 , da s positiv definit ist. Also ist a) falls w = 0 ist: (v, w) linear abhängig, und b) falls w 6= 0 ist: λ = kwk2 6= 0 , also (v, w) linear abhängig. 2 Satz 6.1.16 : Sei V ein K−Vektorraum mit positiv semidefiniter Hermitescher Form s , und p kvk := s(v, v) für v ∈ V . Dann gilt für alle v, w ∈ V und alle λ ∈ K : (N1’) kvk ≥ 0 (N2) || λ v || = |λ| kvk (N3) || v + w || ≤ kvk + kwk (Dreiecksungleichung) . Ist s sogar positiv definit, so gilt statt (N1’) ⇐⇒ v = 0 ) . p Beweis : (N1’) folgt daraus, dassq s(v, v) ≥ 0 ist. p p p (N2) || λ v || = s(λv, λv) = λ λ s(v, v) = |λ|2 s(v, v) = |λ| kvk . (N3) || v + w ||2 = s(v + w, v + w) = s(v, v) + s(v, w) + s(w, v) + s(w, w) (N1) kvk ≥ 0 ∧ ( kvk = 0 = kvk2 + kwk2 + s(v, w) + s(v, w) = kvk2 + kwk2 + 2 Re s(v, w) , und da für z ∈ C gilt : Re z ≤ |z| : ||v + w||2 ≤ kvk2 + kwk2 + 2 | s(v, w) | , und nach Cauchy-Schwarz: ≤ kvk2 + kwk2 + 2kvk kwk = (kvk + kwk)2 , also ||v + w|| ≤ kvk + kwk . 10 (N1) Ist s positiv definit, so gilt für v 6= 0 : s(v, v) > 0 , also kvk > 0 . 2 Definition 6.1.17 : Ein K−Vektorraum V mit einer Abbildung k k : V −→ R , die die Eigenschaften (N1) ∀ v ∈ V : (kvk ≥ 0 ∧ (kvk = 0 ⇐⇒ v = 0)), (N2) ∀ v ∈ V ∀ λ ∈ K : kλvk = |λ| kvk , (N3) ∀ v, w ∈ V : kv + wk ≤ kvk + kwk hat, heißt ein normierter K−Vektorraum . 2 Mit Satz 6.1.16 bekommen wir daher: Folgerung 6.1.18 : Jeder K−Vektorraum V mit Skalarprodukt s wird ein normierter K−Vektorraum, wenn man p kvk := s(v, v) für v ∈ V setzt. 2 Folgerung 6.1.19 : Sei V ein K−Vektorraum mit positiv semidefiniter p Hermitescher Form s und kvk = s(v, v) für v ∈ V . Dann gilt für alle v, w ∈ V : a) || v + w ||2 = kvk2 + kwk2 + s(v, w) + s(w, v) (Satz des Pythagoras) , und b) || v + w ||2 + || v − w ||2 = 2 (kvk2 + kwk2 ) (Parallelogrammgleichung). Beweis als Übungsaufgabe (6.1). 2 Bemerkung 6.1.20 : Nach Folgerung 6.1.18 wird jeder K−Vektorraum V mit Skalarprodukt s ein normierter K−Vektorraum, wenn man die Norm durch p (∗) kvk := s(v, v) für v ∈ V 11 definiert. Man kann nun umgekehrt fragen: Sei V ein normierter K− Vektorraum, gibt es dann auf V ein Skalarprodukt s , so dass (∗) gilt ? Nach Folgerung 6.1.19 ist dann klar: Ist || || eine Norm auf V , die die Parallelogrammgleichung nicht erfüllt, so gibt es so ein s nicht. Ein Beispiel für einen normierten K−Vektorraum, in dem die Parallelogrammgleichung nicht gilt, erhalten Sie als Übungsaufgabe (6.2). Wenn für k k die Parallelogrammgleichung gilt, dann gibt es so ein s, der Beweis benutzt Argumente aus der Analysis, siehe [ SG ] . 2 Man braucht die Cauchy-Schwarzsche Ungleichung, um Winkel zwischen Vektoren zu definieren: Definition 6.1.22 : Sei V ein euklidischer Vektorraum, also ein R−Vektorraum mit Skalarprodukt s . Seien v, w ∈ V \ {0} , dann gilt nach CauchySchwarz: s(v, w) kvk · kwk ≤ 1 , und wegen s(v, w) ∈ R sogar s(v, w) kvk · kwk ϕ ∈ := [−1, 1] . Also ist arccos s(v, w) kvk · kwk definiert, und es gilt ϕ ∈ [0, π] . ϕ heißt der Winkel zwischen den Vektoren v und w. Wir wollen in diesem Abschnitt keine analytische Geometrie treiben und uns deshalb nicht allgemein mit Winkeln beschäftigen. Wir sehen aber : ϕ = π 2 ⇐⇒ s(v, w) = 0 , die Vektoren v und w stehen genau dann aufeinander senkrecht, wenn ihr Skalarprodukt 0 ist. s(v, w) = 0 gibt natürlich auch für einen C−Vektorraum Sinn: Definition 6.1.23 : Sei V ein K−Vektorraum mit Hermitescher Form s . Zwei Vektoren u, v ∈ V heißen zueinander senkrecht oder orthogonal, in Zeichen: u⊥v , wenn s(u, v) = 0 ist. 12 2 Wir betrachten dazu noch einmal unser Beispiel 6.1.11: Im C−Vektorraum I[a, b] der integrierbaren Funktionen f : [a, b] −→ C , a, b ∈ R , a<b , mit Zb s(f, g) f (t) · g(t) dt sei = a fa : [a, b] −→ C , fa (t) := 1 0 für t = a für t = 6 a , dann gilt für alle g ∈ I[a, b] : fa (t) · g(t) fa ⊥ g = g(a) 0 s(fa , g) = für t = a für t = 6 a 0 , , also also für alle g ∈ I[a, b] , aber fa 6= 0 2 Definition 6.1.24 : Eine Hermitesche Form s auf einem K− Vektorraum V heißt nichtausgeartet, wenn es außer 0 keinen Vektor aus V gibt, der auf allen w ∈ V senkrecht steht, wenn also gilt (H3) ∀ v ∈ V : (∀ w ∈ V : s(v, w) = 0 =⇒ v = 0 ) . Folgerung 6.1.25 : Sei V ein K−Vektorraum mit Hermitescher Form s . Dann gilt: s positiv definit ⇐⇒ s nichtausgeartet und positiv semidefinit. Beweis : “ =⇒ ” : Sei s positiv definit und v ∈ V ein Vektor mit ∀ w ∈ V : s(v, w) = 0 , dann gilt insbesondere s(v, v) = 0 , also v = 0 . Also ist s nichtausgeartet, und positiv semidefinit nach Folgerung 6.1.8. “ ⇐= ” : Ist s positiv semidefinit, so gilt für alle v ∈ V : s(v, v) ≥ 0 , und falls v = 0 ist : s(v, v) = 0 . 13 Ist nun v ∈ V mit s(v, v) = 0 , so gilt nach Cauchy-Schwarz für alle w ∈ V : | s(v, w) |2 ≤ kvk2 kwk2 = s(v, v) s(w, w) = 0 , | s(v, w) | s(v, w) = = 0 , und damit für alle w ∈ V 0 , also . Ist nun s nichtausgeartet, so folgt daraus v = 0 . 2 Hermitesche Formen, die nicht positiv semidefinit, aber immerhin noch nichtausgeartet sind, kommen in der Physik (und zwar in der Relativitätstheorie) vor: Beispiel 6.1.26 : Für a = t (a1 , a2 , a3 , a4 ) , b = t (b1 , b2 , b3 , b4 ) ∈ R4 setzt man 3 X s(a, b) := aj b j − a4 b 4 , j=1 dann ist s eine nichtausgeartete symmetrische Bilinearform auf dem R4 , die nicht positiv semidefinit ist. Beweis : Dass (H1) und (H2) für s gelten, kann man leicht nachrechnen. Für a = (0, 0, 0, 1) gilt s(a, a) also gelten (H 3 = −1 < 0 , 1 ) und (H4) nicht. Es gilt aber (H3) , denn sei a ∈ R4 und 2 ∀ b ∈ R4 : s(a, b) = 0 , dann gilt insbesondere für die kanonischen Basisvektoren ej , j ∈ 4, des R4 : s(a, ej ) = 0 und damit a1 = a2 = a3 = −a4 = 0 , also a = 0 . 2 In der Relativitätstheorie interpretiert man hier die ersten drei Komponenten von a als Ort und a4 als Zeit. 6.2 Orthonormalbasen Definition 6.2.1 : Sei V ein K−Vektorraum mit Skalarprodukt und (vj )j∈J 14 eine Familie von Vektoren aus V , J eine (nicht notwendig endliche) Menge. Dann heißt die Familie (vj )j∈J a) ein Orthogonalsystem, wenn vj ⊥vk für alle j, k ∈ J mit j 6= k ist, b) ein Orthonormalsystem, wenn sie ein Orthogonalsystem ist und zusätzlich ||vj || = 1 für alle j ∈ J gilt, c) eine Orthogonalbasis , wenn sie ein Orthogonalsystem und eine Basis von V ist, d) eine Orthonormalbasis, wenn sie ein Orthonormalsystem und eine Basis von V ist. Beispiel 6.2.2 : Im K−Vektorraum Kn mit dem kanonischen Skalarprodukt h , i ist die kanonische Basis (ej )j∈n eine Orthonormalbasis, denn es gilt für j, l ∈ n : ej = (δkj )k∈n , also hej , el i = n X δkj δkl = δlj = k=1 1 0 für j = l für j = 6 l . Beispiel 6.2.3 : Im K−Vektorraum K[X] aller Polynome mit Koeffizienten aus K wird durch Z1 s(f, g) := f (t) · g(t)dt −1 ein Skalarprodukt definiert. Die Legendre-Polynome Pn (X) := 1 Dn (X 2 − 1)n n! für n ∈ N0 2n , wobei D die formale Ableitung eines Polynoms ist, also ! n n−1 X X j D αj X = (j + 1)αj+1 X j für αj ∈ K , j=0 j=0 sind Polynome vom Grad n, für jedes n ∈ N0 , und damit sieht man, dass sie eine Basis von K[X] bilden. (Pn (X))n∈N0 ist sogar eine Orthogonalbasis, denn mit Methoden aus der Analysis (partieller Integration) kann man zeigen: Z1 s(Pn , Pm ) = Pn (t) Pm (t) dt −1 15 = 0 für n 6= m , allerdings keine Orthonormalbasis, denn s(Pn , Pn ) = 2 2n + 1 . Nimmt man statt (Pn (X))n∈N0 aber die Familie (Qn (X))n∈N0 , die durch r 2n + 1 Qn (X) := · Pn (X) 2 definiert ist, so ist (Qn (X))n∈N0 sogar eine Orthonormalbasis von K[X]. Bemerkung 6.2.4 : Orthonormalbasen sind sehr praktisch: Ist V ein K−Vektorraum mit Skalarprodukt s und Orthonormalbasis (vj )j∈n , n ∈ N , so hat jedes v ∈ V eine eindeutig bestimmte Darsllung v = n X mit λj ∈ K , λj vj j=1 und man kann die λj leicht berechnen: Es ist für k ∈ n: s(v, vk ) = s( n X j=1 λj vj , vk ) = n X n X λj s(vj , vk ) = j=1 λj δjk = λk , j=1 also λk = s(v, vk ). 2 Wie kann man sich nun zu einem gegebenem K−Vektorraum V mit Skalarprodukt s eine Orthonormalbasis verschaffen ? Der folgende Satz macht nicht nur eine Existenz-Aussage, sondern gibt auch ein Verfahren an, wie man so eine Basis schrittweise konstruieren kann. Man sollte daher den Beweis verstehen: (6.2.5) Orthonormalisierungssatz von J.Gram und Erhard Schmidt : Sei V ein K−Vektorraum mit Skalarprodukt s und dim V = n ∈ N . Dann lässt sich jedes Orthonormalsystem (w1 , . . . , wm ) in V mit 0 ≤ m ≤ n ergänzen zu einer Orthonormalbasis (w1 , . . . , wm , . . . , wn ) von 16 V . Beweis durch Induktion nach k := n − m : Induktionsanfang : Sei k = 0 , dann ist n = m , und das Orthonormalsystem (wj )j∈n ist bereits eine Basis, denn es besteht aus n Vektoren, und diese sind linear unabhängig: Aus n X αj wj = 0 mit αj ∈ K folgt für k ∈ n : j=1 n X 0 = s ! αj wj , wk = j=1 n X αj s(wj , wk ) = j=1 n X αj δjk = αk . j=1 Hier ist der Satz also richtig; wir brauchen nichts zu ergänzen. Induktionsschluss : Sei k ∈ N0 , und für n − m = k sei der Satz richtig. Sei nun n − m = k + 1 ∈ N , dann ist m = n − (k + 1) < n = dim V , für W := span(wj )j∈m gilt dim W ≤ m < n , es gibt also einen Vektor v∈V mit v ∈ / span(wj )j∈m ṽ := m P . Wir setzen s(v, wj ) · wj j=1 ( ṽ ist die “Projektion von v nach W ”). x3 v w (In der Zeichnung x2 ist W die (x1 , x2 )− Ebene und V = R3 .) ṽ x1 Der Vektor ṽ liegt in W , und w := v − ṽ 17 steht auf allen Vektoren aus W senkrecht, denn für k ∈ m gilt ! m X s(w, wk ) = s(v, wk ) − s s(v, wj )wj , wk j=1 = s(v, wk ) − m X s(v, wj ) s(wj , wk ) j=1 s(v, wk ) − = m X s(v, wj ) · δjk j=1 = s(v, wk ) − s(v, wk ) = 0 . Wegen ṽ ∈ W , v ∈ / W ist w 6= 0 . Wir können w daher “normieren”: Wir setzen wm+1 := 1 w kwk , dann haben wir ein Orthonormalsystem (w1 , . . . , wm , wm+1 ) in V ; es ist n − (m + 1) = k , und wenn der Satz für k richtig ist, kann man dieses Orthonormalsystem ergänzen zu einer Orthonormalbasis (w1 , . . . , wm , wm+1 , . . . , wn ) von V . 2 Bemerkung : Die für die praktische Rechnung bei der Konstruktion einer Orthonormalbasis wichtigen Schritte haben wir eingerahmt ! Folgerung 6.2.6 : Jeder endlichdimensionale K−Vektorraum V mit Skalarprodukt besitzt eine Orthonormalbasis. Beweis : Die leere Familie (wj )j∈0 ist ein Orthonormalsystem in V , man kann also den Orthonormalisierungssatz mit m := 0 verwenden. 2 6.3 Matrizen Hermitescher Formen Definition 6.3.1 : Sei V ein n−dimensionaler K−Vektorraum, n ∈ N , 18 B = (v1 , . . . , vn ) eine Basis von V , und s eine Hermitesche Form auf V , dann nennen wir MB (s) := (s(vk , vj ))(k,j)∈n×n ∈ M (n × n, K) die darstellende Matrix von s bezüglich der Basis B . 2 Bemerkung 6.3.2 : Durch MB (s) ist s eindeutig festgelegt, denn seien v, w ∈ V , dann hat man zu B = (v1 , . . . , vn ) eindeutig bestimmte Vektoren x = t (x1 , . . . , xn ) , y = t (y1 , . . . , yn ) ∈ Kn v = n X x k vk , n X w = s(v, w) = s , also j=1 k=1 n X yj vj mit xk vk , n X ! yj vj = n n X X j=1 k=1 k=1 xk s(vk , vj )yj . j=1 Setzen wir A := MB (s) , so wird s(v, w) = t x · A · y , wenn wir unter y den Vektor y := t (y1 , . . . , yn ) verstehen. Hier ist A nicht irgendeine Matrix aus M (n × n, K) : Da s Hermitesch ist, gilt s(vk , vj ) = s(vj , vk ) , für A = (akj ) = MB (s) also akj = ajk : Definition 6.3.3 : Eine Matrix A = (akj ) ∈ M (n×n, K) heißt Hermitesch, wenn akj = ajk für alle j, k ∈ n , also A = tA ist. Ist K = R , so bedeutet das A = t 19 A , eine Matrix mit dieser Eigenschaft heißt symmetrisch . Folgerung 6.3.4 : Wir haben also bewiesen: Ist V ein K−Vektorraum mit Basis B = (v1 , . . . , vn ) , und s eine Hermitesche Form auf V , so ist die darstellende Matrix A := (s(vk , vj )) Hermitesch. Man sieht sofort, dass umgekehrt jede Hermitesche Matrix A = (akj ) durch ! n n n X X X s xk vk , y j vj := xk akj yj k=1 j=1 k,j=1 eine hermitesche Form auf V definiert. 2 Es wäre nun schön, wenn man der darstellenden Matrix MB (s) ansehen könnte, ob s nichtausgeartet oder sogar positiv definit ist. Satz 6.3.5 : Eine Hermitesche Form s auf einem endlichdimensionalen K−Vektorraum V ist genau dann nichtausgeartet, wenn für die darstellende Matrix MB (s) bezüglich einer festen Basis B von V gilt det MB (s) 6= 0 . Beweis : Sei (v1 , . . . , vn ) eine Basis von V . Dann gilt: s ist ausgeartet ⇐⇒ ∃ v ∈ V \ {0} ∀ w ∈ V : s(v, w) = 0 ⇐⇒ ∃ v ∈ V \ {0} ∀ j ∈ n : s(v, vj ) = 0. n P und da v = αk vk mit (α1 , . . . , αn ) 6= 0 ist, gilt: k=1 s ist ausgeartet ⇐⇒ ∃ (α1 , . . . , αn ) 6= 0 ∀ j ∈ n : n P αk s(vk , vj ) = 0 k=1 ⇐⇒ ⇐⇒ Die Zeilenvektoren von (s(vk , vj )) sind linear abhängig det(s(vk , vj )) = 0. 2 Zumindest bei R-Vektorräumen mit symmetrischer Bilinearform s kann man an der Matrix MB (s) auch ablesen, ob s positiv definit ist, das ist das Hauptminoren- oder Hurwitz-Kriterium, das wir aber erst später beweisen können. 20 Wir fragen uns, wie sich die darstellende Matrix MB (s) bei einem Basiswechsel verändert : (6.3.6) Transformationssatz für darstellende Matrizen Hermitescher Formen: Sei V ein n−dimensionaler K−Vektorraum mit Hermitescher Form s , n ∈ N , und seien A = A0 (a1 , . . . , an ) , (a01 , . . . , a0n ) = zwei Basen von V , dann hat man, wie in Bemerkung 4.4.16: n P ∀ j ∈ n : aj = tkj a0k mit der Transformationsmatrix k=1 MAA0 ( idV ) =: T = (tkj ) ∈ GL(n, K) , ∀ j, l ∈ n : s(aj , al ) = s also gilt ! n n X X tkj a0k , trl a0r r=1 k=1 = n n X X k=1 tkj trl s(a0k , a0r ) = r=1 n n X X k=1 tkj ·s(a0k , a0r )·trl , r=1 und nach Definition des Matrizenprodukts heißt das MA (s) = t MA (s) = t T · MA0 (s) · T , genauer: MAA0 ( idV ) · MA0 (s) · MAA0 ( idV ) . (6.3.7) Beachten Sie, dass die Transformationsformel für die Matrix einer Hermiteschen Form anders ist als die Transformationsformel für die Matrix linearer Abbildungen: Hat man einen Endomorphismus F : V −→ V und zwei Basen A, (A)0 von V , sogilt nach 4.4.17 : 0 MAA (F ) = T −1 · MAA0 (F ) · T mit T := MAA0 ( idV ) , dieser kleine Unterschied wird uns noch beschäftigen ! 6.4 Das Vektorprodukt im R3 Schon in 1.6.3 hatten wir das Vektorprodukt im R3 definiert. Dem ist nicht viel hinzuzufügen, da man das Vektorprodukt nicht in anderen Vektorräumen definieren kann. Aber Determinanten kannten wir damals noch nicht, und da 21 gibt es einige Zusammenhänge: (6.4.1) Zur Wiederholung : Seien a =t (a1 , a2 , a3 ) , b =t (b1 , b2 , b3 ) ∈ R3 , dann war der Vektor a2 b 2 a1 b 1 a1 b 1 t det , − det , det ∈ R3 a×b := a3 b 3 a3 b 3 a2 b 2 das Vektorprodukt von a und b . - Wir hatten das damals natürlich ohne Determinanten aufgeschrieben. Die Rechenregeln kennen Sie zum Teil: (6.4.2) Rechenregeln für das Vektorprodukt : Seien a, b, c ∈ R3 , λ ∈ R und h , i das kanonische Skalarprodukt im R3 . Dann gilt a) ha × b, ci = det(a, b, c) , wobei (a, b, c) die Matrix mit den Spaltenvektoren a, b, c ist, b) a × b = −(b × a), c) a × a = 0, d) a × (b + c) = a × b + a × c , e) a × (λb) = λ(a × b) , f) ha, a × bi = hb, a × bi = 0 , g) a × (b × c) = ha, cib − ha, bic Grassmann-Identität, h) a × (b × c) + b × (c × a) + c × (a × b) = 0 Jacobi-Identität, i) a × b = 0 ⇐⇒ die Familie (a, b) ist linear abhängig. Beweis : a) Entwicklung von a1 b 1 c 1 det a2 b2 c2 a3 b 3 c 3 nach der 3.Spalte ergibt die Behauptung. b), c ), f), i) folgen aus a) und daraus, dass det alternierend ist. d), e) folgen aus der Linearität von det als Funktion der 2.Spalte. g) Hier muss man einfach stumpfsinnig ausrechnen: a × (b × c) = a × (b2 c3 − b3 c2 , b3 c1 − b1 c3 , b1 c2 − b2 c1 ) = (a2 (b1 c2 − b2 c1 ) − a3 (b3 c1 − b1 c3 ), −a1 (b1 c2 − b2 c1 ) + a3 (b2 c3 − b3 c2 ), a1 (b3 c1 − b1 c3 ) − a2 (b2 c3 − b3 c2 )) = ((a1 c1 + a2 c2 + a3 c3 )b1 − (a1 b1 + a2 b2 + a3 b3 )c1 , (a1 c1 + a2 c2 + a3 c3 )b2 − (a1 b1 + a2 b2 + a3 b3 )c2 , (a1 c1 + a2 c2 + a3 c3 )b3 − (a1 b1 + a2 b2 + a3 b3 )c3 ) = ha, cib − ha, bic . h) Nach g) gilt a × (b × c) + b × (c × a) + c × (a × b) 22 = ha, cib − ha, bic + hb, aic − hb, cia + hc, bia − hc, aib = 0 . i) folgt wieder aus (6.4.1) und den Regeln für Determinanten. 2 Bemerkung 6.4.3 :Für das Vektorprodukt gilt also das Distributivgesetz (Regeln d),e)) und statt des Kommutativgesetzes die Regel b). Statt des Assoziativgesetzes hat man für drei Faktoren die Jacobi-Identität, Regel h). Ein Einselement in (R3 , ×) wird man vergeblich suchen - wegen Regel c). Nach Definition 4.9.2 ist also (R3 , +, ×, ω) keine (assoziative) R−Algebra. Man nennt einen Vektorraum mit einer Multiplikation ×, für die das Distributivgesetz und die Regeln c) und h) des vorigen Satzes gelten, eine Lie-Algebra. Satz 6.4.4: Für alle a, b, c, d ∈ R3 gilt ha × b, c × di = ha, ci hb, di − hb, ci ha, di . Beweis : Nach der Grassmann-Identität (6.4.2) g) gilt ha, cib − hb, cia c × (b × a) . = Wir bilden auf beiden Seiten das Skalarprodukt mit d : ha, ci hb, di − hb, ci ha, di = hc × (b × a), di (6.4.2) a) = det(c, b × a, d) = − det(c, d, b × a) (6.4.2) a) = − hc × d, b × ai = ha × b, c × di . 2 Satz 6.4.5 : Für alle a, b ∈ R3 gilt ha, bi2 + ka × bk2 = kak2 kbk2 . Das ist eine genauere Aussage als die Cauchy-Schwarzsche Ungleichung, die nur ha, bi2 ≤ kak2 kbk2 liefert ! Beweis : Setzen wir c := a , d := b in (6.4.4) ein, so erhalten wir ha × b, a × bi = ha, ai hb, bi − hb, ai ha, bi , 23 also ka × bk2 + ha, bi2 = kak2 kbk2 . 2 (6.4.6) Geometrische Deutung des Vektorprodukts : Seien a, b ∈ R3 , a, b 6= 0 . Dann gilt (1) ka × bk = kak kbk sin ϕ , wobei ϕ der Winkel zwischen a und b ist, (2) a × b ⊥ a und a × b ⊥ b , (3) det(a, b, a × b) ≥ 0 . . (6.4.5) Beweis : (1) ka × bk2 = kak2 kbk2 − ha, bi2 = kak2 kbk2 (1 − cos2 ϕ) = kak2 kbk2 sin2 ϕ , ϕ ∈ [0, π] , (2) (3) also sin ϕ ∈ [0, 1] , und damit folgt die Behauptung. (6.4.2) ha × b, ai = det(a, b, a) = 0 , entsprechend für b . (6.4.2) det(a, b, a × b) = ha × b, a × bi = ka × bk2 ≥ 0 . 2 Ist (a, b) linear unabhängig, so weiß man damit: a×b steht senkrecht auf der von a und b aufgespannten Ebene im R3 und hat die Norm kak kbk sin ϕ. (3) macht eine Aussage, in welche Richtung der Vektor a × b zeigt. Man braucht dazu den Begriff der Orientierung einer Basis des Rn : Definition 6.4.7 : Sei (b1 , . . . , bn ) eine Basis des Rn . Sie heißt positiv orientiert , wenn für die Matrix mit den Spaltenvektoren b1 , . . . , bn gilt : det(b1 , . . . , bn ) > 0 . Sei T diese Matrix, also tkj die k−te Komponente von bj , so gilt ∀ j ∈ n : bj = n X tkj ek , k=1 T = MKB ( idV ) ist also die in Bemerkung 4.4.16 definierte Transformationsmatrix von der Basis (bj )j∈n zur kanonischen Basis (ek )k∈n . “(bj )j∈n positiv orientiert” bedeutet dann, dass (bj )j∈n “genauso orientiert” ist wie die kanonische Basis. Speziell im R3 kann man beweisen: Satz 6.4.8 : Eine Basis (b1 , b2 , b3 ) des R3 ist genau dann positiv orientiert, 24 wenn sie die “Rechte-Hand-Regel” erfüllt : Zeigt b1 in die Richtung des Daumens, b2 in die des Zeigefingers, so zeigt b3 in die Richtung des Mittelfingers der rechten Hand. 2 Die Regel (6.4.6)(3) sagt dann: Ist (a, b) linear unabhängig, so ist (a, b, a × b) eine positiv orientierte Basis des R3 , erfüllt also die RechteHand-Regel . 6.5 Sphärische Geometrie Sie ist für das weitere Verständnis der Linearen Algebra vielleicht nicht übermäßig wichtig, aber es gehört zur mathematischen Allgemeinbildung, dass man Entfernungen nicht nur anhand einer Wander- oder Autokarte, sondern auch insgesamt auf der Erdoberfläche, die man näherungsweise als Kugeloberfläche ansehen kann, ausrechnen kann. Wir nehmen zunächst mal die Kugel mit dem Radius 1 : Definition 6.5.1 : Ein sphärisches Dreieck ist eine positiv orientierte Basis (a, b, c) des R3 mit kak = kbk = kck = 1 . c γ A B a β b α C Als Seiten des Dreiecks (a, b, c) bezeichnet man die Winkel zwischen diesen Vektoren, im Bogenmaß gemessen, also A := arccos hb, ci , B := arccos ha, ci , 25 C := arccos ha, bi . Als Winkel zwischen diesen Seiten bezeichnet man die Winkel zwischen den durch (a, b) , (b, c) bzw. (a, c) aufgespannten Ebenen, also die Winkel zwischen zwei Vektoren, die auf diesen Ebenen senkrecht stehen: α := arccos ha × c, a × bi ka × ck ka × bk , β := arccos hb × a, b × ci kb × ak kb × ck , γ := arccos hc × b, c × ai kc × bk kc × ak . Wie in der Geometrie in der Ebene sucht man nun Beziehungen zwischen A, B, C, α, β, γ , so dass man von diesen sechs Zahlen die restlichen ausrechnen kann, wenn man drei davon kennt. Unsere Regeln für das Vektorprodukt sind dabei sehr nützlich, z.B. bei Hilfssatz 6.5.2 : Das sphärische Dreieck (a, b, c) sei wie in 6.5.1 definiert. Dann gilt det(a, b, c) = sin α · sin B · sin C . Beweis : Seien zunächst a, b, c, d ∈ R3 beliebig. Dann gilt nach der Grassmann-Identität 6.4.2 g) : (a × b) × (c × d) = < a × b, d > c − < a × b, c > d und nach Regel (6.4.2) a) ist das gleich ... = det(a, b, d) c − det(a, b, c) d . Also gilt für unser sphärisches Dreieck (a, b, c) : (a × b) × (a × c) = det(a, b, c) a wegen det(a, b, a) = 0 , also | det(a, b, c)| = | det(a, b, c)| kak = k det(a, b, c) ak = k(a × b) × (a × c)k (6.4.6)(1) = (6.4.6)(1) = ka × bk ka × ck · sin α sin C · sin B · sin α , und wegen α, B, C ∈ [0, π] , und da (a, b, c) positiv orientiert ist, folgt det(a, b, c) = sin C · sin B · sin α . 26 2 6.5.3 : Sinus - Satz : Im sphärischen Dreieck, mit den Bezeichnungen aus 6.5.1, gilt sin α sin β sin γ = = . sin A sin B sin C Beweis : Nach Hilfssatz 6.5.2 gilt sin α sin A = det(a, b, c) sin A sin B sin C , und das ändert sich nicht, wenn man a, b, c zyklisch vertauscht. 2 Die folgenden beiden Sätze folgen aus den Rechenregeln für das Vektorprodukt : 6.5.4 : 1. Cosinus - Satz : Im sphärischen Dreieck gilt cos A = cos B · cos C + sin B · sin C · cos α 2 6.5.5 : 2. Cosinus - Satz : Im sphärischen Dreieck gilt sin C · cos B = sin B · cos C · cos α + sin A · cos β . Beweis als Aufgabe (6.9). 2 6.5.6 : Entfernung auf der Erde : In erster Näherung kann man annehmen, dass die Erde eine Kugel mit dem Radius R = 6378km 27 N P K ϕ λ Ä M0 S ist. Man gibt Punkte P auf dem Breitenkreis K auf der Erde durch zwei Koordinaten an, nämlich die (nördliche bzw. südliche) Breite ϕ , vom Äquator Ä aus gerechnet, und die (östliche bzw. westliche) Länge λ , gerechnet vom Nullmeridian M0 . Länge und Breite werden im Winkelmaß gemessen, z.B.: Länge Breite Berlin 13,4o ö.L. 52,5o n.B. Madrid 3,8o w.L. 40,4o n.B. Luanda 3,3o ö.L. 8,9o s.B. Zählt man südliche Breite und westliche Länge negativ, so ist −90o ≤ ϕ ≤ 90o und −180o < λ ≤ 180o . Die Entfernung zwischen zwei Punkten b, c auf der Erde erhält man durch Betrachtung des durch b, c und den Nordpol a gebildeten sphärischen Dreiecks, 28 a α B C γ c β b A Ä mit Hilfe des 1. Cosinus - Satzes: Hat b die Koordinaten (λ1 , ϕ1 ) und c die Koordinaten (λ2 , ϕ2 ) , so ist B = 90o − ϕ2 , C = 90o − ϕ1 , also cos A = cos(90o − ϕ2 ) cos(90o − ϕ1 ) + sin(90o − ϕ2 ) sin(90o − ϕ1 ) cos(λ2 − λ1 ) cos A = sin ϕ1 sin ϕ2 + cos ϕ2 cos ϕ1 cos(λ2 − λ1 ) . Daraus kann man A im Bogenmaß ausrechnen und muss das Ergebnis noch mit dem Erdradius multiplizieren; das ist dann die Entfernung zwischen den Punkten b und c auf der Erdoberfläche. (6.6) Aufgaben (6.1) Beweisen Sie die Folgerung 6.1.19 (Satz des Pythagoras und Parallelogrammgleichung). (6.2) Zeigen Sie, dass durch kxk := max { |xj | | j ∈ 3 } für x = t (x1 , x2 , x3 ) ∈ R3 eine Norm auf R3 definiert ist, für die die Parallelogrammgleichung nicht gilt. 29 (6.3) Sind die folgenden Abbildungen s : R2 × R2 −→ R a) bilinear , und falls beides zutrifft, c) positiv semidefinit , b) symmetrisch , d) ein Skalarprodukt ? Für a = (a1 , a2 ) , b = (b1 , b2 ) sei s(a, b) := α) a1 b2 − a2 b1 , β) 2a1 b1 + a1 b2 + a2 b1 + 2a2 b2 . Falls s ein Skalarprodukt ist, geben Sie zwei Vektoren v, w ∈ R2 an mit s(v, w) = 0 und s(v, v) = s(w, w) = 1 . (6.4) Zeigen Sie, dass durch s(a, b) := a1 b1 +4a2 b2 +3a3 b3 +ia1 b2 −ia2 b1 +a1 b3 +a3 b1 −ia2 b3 +ia3 b2 für a = t (a1 , a2 , a3 ) , b = t (b1 , b2 , b3 ) ∈ C3 ein Skalarprodukt auf C3 definiert ist. (6.5) Sei V ein K−Vektorraum mit nichtausgearteter Hermitescher Form s , K = R oder C . Zeigen Sie: a) Für jedes a ∈ V ist durch ϕa : V −→ K , ϕa (x) := s(x, a) eine lineare Abbildung definiert, d.h. es ist ϕa ∈ V ∗ . b) Ist V endlichdimensional, so ist ϕ : V −→ V ∗ , ϕ(a) := ϕa ein “Semi-Isomorphismus” von V auf V ∗ , d.h. ϕ ist bijektiv, und es gilt für alle a, b ∈ V , α ∈ K : ϕ(a + b) = ϕ(a) + ϕ(b) , ϕ(α a) = α ϕ(a) . c) Sei U ein Untervektorraum von V , dann setzt man U o := { λ ∈ V ∗ | ∀ u ∈ U : λ(u) = 0 } und U ⊥ := { v ∈ V | ∀ u ∈ U : s(u, v) = 0 } . ⊥ U heißt das orthogonale Komplement von U . Zeigen Sie : Ist V endlichdimensional, so gibt es einen Semi-Isomorphismus von U ⊥ auf U o . (6.6) Sei V ein K−Vektorraum mit Skalarprodukt s , K = R oder C , und U ein Untervektorraum von V . Dann hatten wir in Aufgabe (6.5) c) das orthogonale Komplement U ⊥ von U definiert. Zeigen Sie, dass für 30 Untervektorräume U1 , U2 , U von V gilt: a) (U1 + U2 )⊥ = U1⊥ ∩ U2⊥ und U1⊥ + U2⊥ ⊂ (U1 ∩ U2 )⊥ b) Sei dim V = n ∈ N0 , dann gilt dim U ⊥ = n − dim U , V = U ⊕ U ⊥ , (U ⊥ )⊥ = U und U1⊥ + U2⊥ = (U1 ∩ U2 )⊥ . (6.7) Sei K ein Körper, n ∈ N . Für eine Matrix A ∈ M (n × n, K) nennt man n P tr A := ajj die Spur von A . Zeigen Sie: j=1 a) tr : M (n × n, K) −→ K ist K−linear. b) Für alle A, B ∈ M (n × n, K) gilt tr (A · B) = tr (B · A) , und falls B ∈ GL(n, K) ist , auch tr (B · A · B −1 ) = tr A . c) Sei K = R oder C , dann ist durch s(A, B) := tr (A ·t B) ein Skalarprodukt auf M (n × n, K) definiert. d) Die Menge U der Diagonalmatrizen ist ein Untervektorraum von M (n × n, C). Berechnen Sie das orthogonale Komplement U ⊥ . (6.8) Sei V die Menge der beschränkten Folgen reeller Zahlen, also V = { (an )n∈N ∈ F(N, R) | ∃ c ∈ R ∀n ∈ N : |an | ≤ c } Zeigen Sie : a) V ist ein R−Vektorraum. ∞ a b P n n 2 n=1 n ist ein Skalarprodukt auf V definiert. b) Durch s((an )n∈N , (bn )n∈N ) := ⊂ c) Es gibt einen echten Untervektorraum U von V (also U 6= V ) mit U ⊥ = {0} . Elementare Kenntnisse über Folgen und Reihen müssen verwendet werden ! (6.9) Sei (a, b, c) ein sphärisches Dreieck. Zeigen Sie, dass mit den Bezeichnungen aus Definition 6.5.1 gilt a) cos A = cos B · cos C + sin B · sin C · cos α , b) sin C · cos B = sin B · cos C · cos α + sin A · cos β . 31 . (6.10) Philadelphia und Peking liegen auf demselben Breitenkreis: 40o n.B. Ihre Längen sind Philadelphia : 75o w.L., Peking : 117o ö.L. Wie groß ist die Strecke (in km, gerundet), die ein Flugzeug von Philadelphia nach Peking fliegt, wenn es a) längs des Breitenkreises, b) über den Nordpol, also längs der Meridiane, c) auf dem kürzesten Weg fliegt ? d) Wie groß ist der Startwinkel α zum Breitenkreis in Philadelphia beim Flug auf der kürzesten Strecke? Gehen Sie von einer kugelförmigen Erde mit Radius 6378 km aus. 32 §7 Eigenwerte 7.1 Beispiele und Definitionen Definition 7.1.1 : Sei K ein (beliebiger) Körper und V ein K− Vektorraum. Sei F ein Endomorphismus von V , also F ∈ HomK (V, V ) . Ein Element λ ∈ K heißt ein Eigenwert von F , wenn es ein v ∈ V \ {0} gibt, so dass gilt F (v) = λv . Jedes von 0 verschiedene v ∈ V , das diese Gleichung erfüllt, heißt ein Eigenvektor von F zum Eigenwert λ . (7.1.2) Beachten Sie, dass 0 ∈ K ein Eigenwert sein kann, dass aber 0 ∈ V definitionsgemäß kein Eigenvektor ist ! 7.1.3 Beispiele : Sei V := C ∞ (R) der R−Vektorraum aller beliebig oft differenzierbaren Funktionen f : R −→ R, und a) D : V −→ V , D(f ) := f 0 die Differentiation. D ist R−linear. Man fragt sich: Gibt es eine Funktion f ∈ C ∞ (R), deren Ableitung proportional zu f ist, für die also f0 = λ f mit einem λ ∈ R gilt ? So eine Funktion kennen Sie: f (x) := eλx . Also ist jedes λ ∈ R ein Eigenwert von D . b) Auch D2 : V −→ V , D2 (f ) := f 00 ist R−linear. Für λ ≥ 0 sind die Funktionen f± mit √ f± (x) := e± λx Eigenvektoren zum Eigenwert λ. Für λ < 0 sind g1 und g2 , √ √ g1 (x) := sin( −λ · x) und g2 (x) := cos( −λ · x) Eigenvektoren zum Eigenwert λ . Wiederum: Jedes λ ∈ R ist ein Eigenwert von D2 . Bemerkung : In den letzten Beispielen war V unendlichdimensional. Wir wollen erst mal die Theorie für endlichdimensionale Vektorräume kennenlernen. Dazu das folgende Beispiel: Sei x1 1 0 x1 2 2 F : R −→ R , F := · , x2 0 −1 x2 33 dann sehen wir: F (e1 ) = 1 · e1 : e1 F (e2 ) = −1 · e2 : e2 ist Eigenvektor zum Eigenwert 1 , ist Eigenvektor zum Eigenwert −1 . 2 Wenn die Matrix von F bezüglich einer festen Basis eine Diagonalmatrix ist, kann man die Eigenwerte besonders leicht ausrechnen : Definition 7.1.4 : Sei K ein Körper , V ein K−Vektorraum , dimK V = n ∈ N und F ein Endomorphismus von V . F heißt diagonalisierbar, wenn es eine Basis von V gibt, die aus Eigenvektoren von F besteht. (7.1.5) Vorsicht: Wenn es eine Basis von V gibt, die aus Eigenvektoren von F besteht, heißt das nicht, dass jeder Vektor aus V ein Eigenvektor von F ist, denn eine Linearkombination von Eigenvektoren (zu verschiedenen Eigenwerten) ist i.A. kein Eigenvektor ! Folgerung 7.1.6 : Ist dimK V = n ∈ N , so ist ein F ∈ EndK (V ) = HomK (V, V ) genau dann diagonalisierbar, wenn es eine Basis B = (v1 , . . . , vn ) von V gibt, so dass MBB (F ) eine Diagonalmatrix ist, also λ1 0 .. MBB (F ) = mit λ1 , . . . , λn ∈ K . 0 λn Beweis : MBB (F ) = λ1 0 ... 0 F (vj ) = λj vj . ist gleichbedeutend mit λn für alle j ∈ n . 2 Hilfssatz 7.1.7 : Sei K ein Körper, V ein K−Vektorraum und F ∈ EndK V. Sind v1 , . . . , vm Eigenvektoren zu paarweise verschiedenen 34 Eigenwerten λ1 , . . . , λm von F , so ist (vj )j∈m linear unabhängig. Insbesondere: Ist dimK V = n ∈ N und hat F n paarweise verschiedene Eigenwerte λ1 , . . . , λn , so ist F diagonalisierbar. Beweis durch Induktion nach m : Induktionsanfang : Ist m = 1 , so ist (vj )j∈1 linear unabhängig wegen v1 6= 0 . Induktionsschluss : Sei m ∈ N , m ≥ 2 , und für m − 1 sei der Satz richtig. Sei nun (∗) α1 v1 + . . . + αm vm = 0 mit α1 , . . . , αm ∈ K , dann gilt (1) wenn man (∗) mit λm multipliziert: λm α1 v1 + . . . λm αm vm = 0 , (2) wenn man F auf (∗) anwendet: α1 λ1 v1 + . . . αm λm vm m−1 X = αj (λj − λm ) vj 0 , = also 0 j=1 und wenn der Satz für m − 1 richtig ist, folgt wegen λj 6= λm : α1 = . . . = αm−1 = 0 , und aus (∗) und vm 6= 0 dann noch αm = 0 . Also ist (v1 , . . . , vm ) linear unabhängig. 2 Satz 7.1.8 : Sei V ein K−Vektorraum mit dimk V = n ∈ N und F ∈ EndK V . F ist genau dann diagonalisierbar, wenn es zur Matrix A = MAA (F ) bezüglich einer beliebigen Basis A von V eine Matrix S ∈ GL(n, K) gibt, so dass S −1 · A · S eine Diagonalmatrix ist. Beweis : “ =⇒ ” : Sei F diagonalisierbar. Dann gibt es nach Definition 7.1.4 eine Basis B von V , so dass B MBB (F ) := 35 eine Diagonalmatrix ist. Sei A = MAA (F ) die Matrix von F bezüglich der Basis A , dann gibt es nach Bemerkung 4.4.16 (angewendet auf den Spezialfall V = W ) eine Matrix S ∈ GL(n, K) mit MBB (F ) = S −1 · MAA (F ) · S . “ ⇐= ”: Sei S ∈ GL(n, K) und S −1 · A · S eine Diagonalmatrix, dann gehen wir von der Basis A = (ak )k∈n über zur Basis B = (bj )j∈n , die durch n X bj := skj ak mit (skj ) = S k=1 definiert ist. Nach Bemerkung 4.4.16 ist dann S −1 · A · S die Matrix von F bezüglich B . Nach Folgerung 7.1.6 ist nun F diagonalisierbar. 2 Definition 7.1.9 : Sei V ein K−Vektorraum, F ∈ EndK V und λ ∈ K. Dann heißt Eig(F, λ) := { v ∈ V | F (v) = λ v } der Eigenraum von F bezüglich λ. Folgerung 7.1.10 : Sei V ein K−Vektorraum, F ∈ EndK V und λ ∈ K. Dann gilt a) Eig(F, λ) ist ein Untervektorraum von V . b) λ ist ein Eigenwert von F ⇐⇒ Eig(F, λ) 6= {0}. c) Eig(F, λ) \ {0} ist die Menge der Eigenvektoren von F zu λ. d) Eig(F, λ) = ker (F − λ idV ). e) Für λ1 , λ2 ∈ K mit λ1 6= λ2 gilt Eig(F, λ1 )∩ Eig(F, λ2 ) = {0}. Beweis : a) - d) folgen unmittelbar aus Definition 7.1.8 . e) Für v ∈ Eig(F, λ1 )∩ Eig(F, λ2 ) gilt F (v) = λ1 v und F (v) = λ2 v , also 0 = (λ1 − λ2 )v , also v = 0 wegen λ1 6= λ2 . 2 7.2 Das charakteristische Polynom Bemerkung 7.2.1 : Die Frage ist nun, wie bekommt man die Eigenwerte eines gegebenen F ∈ EndK V , wenn dimK V = n ∈ N ist. Dann sind für ein λ ∈ K die Aussagen 36 (i) λ ist ein Eigenwert von F , (ii) det(F − λ idV ) = 0 gleichbedeutend. Beweis : Es gilt: λ ist Eigenwert von F ⇐⇒ ∃ v ∈ V \ {0} : F (v) = λ v ⇐⇒ ∃ v ∈ V \ {0} : (F − λ idV )(v) = 0 ⇐⇒ ker (F − λ idV ) 6= {0} ⇐⇒ F − λ idV ist kein Automorphismus von V (5.4.3) ⇐⇒ det(F − λ idV ) = 0 . 2 Bemerkung 7.2.2 : Im Gegensatz zur Gleichung F (v) = λ v , in der man λ, aber auch v , nicht kennt, haben wir nun eine Gleichung, in der λ als einzige Unbekannte vorkommt. λ ist also genau dann Eigenwert von F , wenn λ eine Nullstelle der Funktion fF (t) := det(F − t · idV ) P ist. Nach Definition 5.4.1 rechnet man det(F − t · idV ) aus, indem man für F zu einer Basis A von V ( es ist egal, welche Basis man nimmt) die Matrix MAA (F − t · idV ) ausrechnet. Es ist MAA ( idV ) = En , also MAA (t idV ) = t En , wenn n = dim V ist. Ist A := MAA (F ) , dann ist det(F − t idV ) = det(A − t En ) a11 − t a12 a13 a21 a − t a 22 23 a32 a33 − t = det a31 .. .. .. . . . an1 an2 an3 ... ... ... a1n a2n a3n .. . . . . ann − t eine Polynomfunktion von t. Besser betrachtet man das entsprechend definierte Polynom: Definition 7.2.3 : Sei K ein Körper und n ∈ N . a) Sei V ein K−Vektorraum mit dimK V = n und F ∈ EndK (V ) , so heißt PF (X) := det(F − X idV ) das charakteristische Polynom von F . 37 b) Ist A ∈ M (n × n, K) , so heißt λ ein Eigenwert von A , wenn es ein a ∈ K n \ {0} gibt mit A · a = λ a , und PA (X) := det(A − X · En ) heißt das charakteristische Polynom der Matrix A und a ein Eigenvektor von A zum Eigenwert λ. 2 Bemerkungen 7.2.4 : 1) PA (X) ist also die Determinante der Matrix A − X En ∈ M (n × n, K[X]) , also eine Matrix mit Einträgen aus einem kommutativen Ring. Nach Definition 5.2.1 geht das. 2) Wenn man PA (X) nach der Leibniz-Formel (oder anders) ausrechnet, erhält man PA (X) = (a11 − X) · . . . · (ann − X) + g(X) , wobei g(X) ein Polynom aus K[X] mit deg g(X) ≤ n − 2 bzw. 0 ist, und ausmultiplizieren ergibt PA (X) = (−1)n X n + (a11 + . . . + ann )(−1)n−1 X n−1 + n−2 X αk X k , k=0 mit αk ∈ K , also ist PA (X) ein Polynom vom Grad n. Den Koeffizienten von X n−1 haben wir gerade ausgerechnet: Er ist n−1 (−1) · trA mit trA := n X akk , der Spur von A. k=1 Den Koeffizienten α0 erhält man, indem man 0 für X einsetzt: α0 = PA (0) = det(A − 0 · En ) = det A . 3) Man erhält also die Eigenwerte λ von A, indem man die Nullstellen λ des charakteristischen Polynoms PA (X) = det(A − X En ) ∈ K[X] ermittelt. Da PA (X) ein Polynom vom Grad n ist, kann die Bestimmung der Nullstellen schwierig sein - wenn denn überhaupt Nullstellen existieren, was z.B. für K = R fraglich ist. 38 4) In 5.4 haben wir gesehen: Ist F ∈ EndK V , so ist det(F − X idV ) = det(A − X En ) mit A = MAA (F ) davon unabhängig, welche Basis A wir nehmen, wir erhalten in jedem Fall dieselbe Determinante: Ersetzen wir die Basis A durch die Basis B, so erhalten wir nach 4.4.17 : MBB (F ) =: B = S · A · S −1 mit S := MBA ( idV ) ∈ GL(n.K) , und man sieht auch hier wie in 5.4.1 : det(B−X·En ) = det(S·A·S −1 −X·S·En ·S −1 ) = det(S·(A−X En )·S −1 ) = det S · det(A − X En )(det S)−1 = det(A − X En ) . Man kann das auch so formulieren: Definition 7.2.5 : Zwei Matrizen A, B ∈ M (n × n, K) heißen ähnlich , wenn es ein S ∈ GL(n, K) gibt mit B = S · A · S −1 . 2 Dann haben ähnliche Matrizen also gleiche Eigenwerte. Folgerung 7.2.6 : 1) Hat man einen Eigenwert λ einer Matrix A ∈ M (n × n, K) gefunden, so ist die Berechnung von Eigenvektoren v dazu einfach: (A − λEn ) · v = 0 ist ein lineares homogenes Gleichungssystem mit n Gleichungen in den n Unbekannten v1 , . . . , vn , und wegen det(A − λ En ) = 0 hat dieses Gleichungssystem nichttriviale Lösungen. 2) Hat man ein F ∈ EndK V , dimK V = n ∈ N , und einen Eigenwert λ von F , und will man einen Eigenvektor v ∈ V zu λ bestimmen, so wählt man sich eine Basis A = (a1 , . . . , an ) von V , bestimmt nach 1) einen Eigenvektor y = t (y1 , . . . , yn ) ∈ K n von A := MAA (F ) , dann ist v := n X y j aj ein Eigenvektor von F . j=1 Folgerung 7.2.7 : Ist dim V = n ∈ N und A die Matrix von F bezüglich 39 einer festen Basis A von V , so ist dim Eig(F, λ) die Dimension des Lösungsraums des linearen homogenen Gleichungssystems (A − λ En ) · x = 0 . Beispiel 7.2.8 : Sei A = 0 −1 1 −3 −2 3 ∈ M (3 × 3, R) , −2 −2 3 so ist das charakteristische Polynom von A : −X −1 1 3 det(A − X E3 ) = det −3 −2 − X −2 −2 3−X −3 −2 − X −2 − X 3 −3 3 = (−X)·det +1·det +1·det −2 3−X −2 3 − X −2 −2 = X(2 + X)(3 − X) − 6X − 9 + 3X + 6 + 6 − 4 − 2X = −X 3 + X 2 + X − 1 . Eine Nullstelle dieses Polynoms ist λ1 = 1 . Wenn man durch X − 1 dividiert, erhält man −X 3 + X 2 + X − 1 = (X − 1) · (−X 2 + 1) , dadurch erhält man als weitere Nullstellen λ2 = 1 und λ3 = −1 . Wir haben alo PA (X) = −(X − 1)2 · (X + 1) . 1 und −1 sind also die einzigen Eigenwerte von A . Wir wollen noch die Eigenvektoren zu diesen Eigenwerten bestimmen, also die Vektoren v ∈ R3 \ {0} mit A · v = ±1 v . Gesucht sind also die nichttrivialen Lösungen v ∈ R3 der linearen homogenen Gleichungssysteme (A − (±1) E3 ) · v 40 = 0 , was mit den Methoden aus §4 kein Problem ist: a) Für λ1,2 = 1 haben wir −1 −1 1 A − 1 E3 = −3 −3 3 −2 −2 2 . Wenn wir das auf Zeilenstufenform bringen, sehen wir: Rg(A − 1E3 ) = 1 , dim Eig(A, 1) = 3 − 1 = 2 , also und Elemente aus v ∈ Eig(A, 1) erhalten wir aus −v1 − v2 + v3 = 0 , also v2 , v3 ∈ R beliebig, v1 = −v2 + v3 . b) Für λ3 = −1 haben wir 1 −1 1 A + 1 E3 = −3 −1 3 −2 −2 4 . Wenn wir das auf Zeilenstufenform bringen, sehen wir : Rg(A + 1 E3 ) = 2 , also dim Eig(A, −1) = 3 − 2 = 1 , und Vektoren v ∈ Eig(A, −1) erhalten wir aus v1 − v2 + v3 = 0 also v3 ∈ R beliebig, v2 = ∧ 3 v3 2 −4v2 + 6v3 = 0 , , v1 = 1 v3 2 . 2 Beispiel 7.2.9 : Sei α ∈ [0, 2π) und A := cos α − sin α sin α cos α dann sind die Eigenwerte von A bzw. von fA : R2 −→ R2 , fA (x) := A · x die Nullstellen von PA (X) = det cos α − X − sin α sin α cos α − X 41 , = (cos α−X)2 +sin2 α = X 2 −2 cos α·X+1 . Nullstellen λ1,2 erhalten wir aus λ1,2 = cos α ± √ cos2 α − 1 , was nur für cos α = ±1, also α = 0 oder α = π, Lösungen in R ergibt. Das ist anschaulich klar: fA beschreibt eine Drehung um α , und nur für α = 0 oder π gibt es Geraden durch 0 , die in sich selbst abgebildet werden. 2 7.3 Diagonalisierung Wir haben in Def.7.1.4 definiert, was ein diagonalisierbarer Endomorphismus von V ist, und Satz 7.1.7 war schon mal ein Kriterium für Diagonalisierbarkeit. Wir fassen das zusammen als Satz 7.3.1 : Sei V ein K−Vektorraum, n ∈ N, dimK V = n und F ∈EndK V . Dann gilt: (1) Ist F diagonalisierbar, so gibt es λ1 , . . . , λn ∈ K, so dass PF (X) = (−1)n (X − λ1 ) · . . . · (X − λn ) ist, d.h. das charakteristische Polynom von F zerfällt in Linearfaktoren. (2) Gibt es paarweise verschiedene λ1 , . . . , λn ∈ K, so dass PF (X) = (−1)n (X − λ1 ) · . . . · (X − λn ) ist, so ist F diagonalisierbar. Beweis : (1) Ist F diagonalisierbar, so gibt es eine Basis B von V , so dass MBB (F ) eine Diagonalmatrix ist: λ1 0 .. ∃ λ1 , . . . , λn ∈ K : MBB (F ) = , . 0 λn also ist PF (X) = (λ1 − X) · . . . · (λn − X) . (2) In diesem Fall hat PF (X) n verschiedene Nullstellen λ1 , . . . , λn , die die Eigenwerte von F sind, und zu diesen hat man Eigenvektoren v1 , . . . , vn . Nach Hilfssatz 7.1.7 ist B := (v1 , . . . , vn ) linear unabhängig, also eine Basis von V , und es ist λ1 0 .. MBB (F ) = 2 eine Diagonalmatrix. . 0 λn 42 Bemerkung 7.3.2 : Nach Satz 7.3.1 bleibt die Frage offen, ob F diagonalisierbar ist, wenn PF (X) ein Produkt von Linearfaktoren ist, von denen einige mehrfach vorkommen: Sei also PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk mit paarweise verschiedenen λ1 , . . . , λk ∈ K , 1 ≤ rj ≤ n für j ∈ k und r1 + . . . + rk = n . Den Exponenten rj des Faktors (X − λj ) nennen wir die Vielfachheit der Nullstelle λj von PF (X); wir setzen µ(PF , λj ) := rj . 2 In 7.1.8 haben wir den Eigenraum Eig(F, λj ) definiert: Hilfssatz 7.3.3 : Sei V ein endlichdimensionaler K−Vektorraum, F ∈ EndK V und λ ein Eigenwert von F , dann gilt 1 ≤ dim Eig(F, λ) ≤ µ(PF , λ) . Beweis : Sei (vj )j∈s eine Basis von Eig(F, λ) . Da λ ein Eigenwert von F ist. ist 1 ≤ s = dim Eig(F, λ) . Wir ergänzen (vj )j∈s zu einer Basis A = (v1 , . . . , vs , vs+1 , . . . , vn ) von V Sei A die Matrix von F bezüglich B , dann wird λ 0 | . . . | ∗ A := MAA (F ) = 0 λ | − − − + − 0 | A0 . s Zeilen s Spalten , mit einer quadratischen Matrix A0 . Dabei bedeutet ∗ irgendetwas. Das charakteristische Polynom kann man damit ausrechnen, etwa indem man nach der 1. bis s−ten Spalte entwickelt: PF (X) = det(A − X En ) = 43 (λ − X)s · det(A0 − X En−s ) . In det(A0 − X En−s ) kann der Linearfaktor λ − X vorkommen, jedenfalls ist µ(PF , λ) ≥ s = dim Eig(F, λ) . 2 Beispiel 7.3.4 : Sei A := PA (X) = det 1 1 0 1 ∈ M (2 × 2, R) , dann ist 1−X 1 0 1−X = (1 − X)2 = (X − 1)2 , PA (X) zerfällt in Linearfaktoren, es ist µ(PA , 1) = 2 . Andererseits ist Eig(A, 1) = Lös(A − 1 E2 , 0) 0 0 1 x1 2 = x∈R = · x2 0 0 0 = x ∈ R2 x2 = 0 = R · e1 , also dim Eig(A, 1) = 1 < 2 . 2 Nach dem folgenden Satz ist dieses A nicht diagonalisierbar: Satz 7.3.5 : Sei K ein Körper, V ein endlichdimensionaler K−Vektorraum und F ∈ EndK V . Dann sind folgende Aussagen gleichbedeutend: (1) F ist diagonalisierbar . (2) a) das charakteristische Polynom PF ist ein Produkt von Linearfaktoren , und b) für alle Eigenwerte λ von F gilt dim Eig (F, λ) = µ(PF , λ) . (3) Sind λ1 , ·, λk die paarweise verschiedenen Eigenwerte von F , so ist V = Eig(F, λ1 ) ⊕ . . . ⊕ Eig(F, λk ) . Beweis : (0) : Ist F diagonalisierbar, so haben wir eine Basis von V , die aus Eigenvektoren von F besteht. Seien λ1 , . . . , λk die paarweise verschiedenen Eigenwerte von F , und für j ∈ k sei (∗) (j) (v1 , . . . , vs(j) ) eine Basis von Eig(F, λj ) , j 44 also sj = dim Eig(F, λj ) . Dann ist (∗∗) (1) (k) B := (v1 , . . . , vs(1) , . . . , v1 , . . . , vs(k) ) 1 k linear unabhängig, denn aus sj k X X (j) (j) (j) µlj vlj = 0 mit µlj ∈ K folgt j=1 lj =1 k X 1· j=1 sj X (j) (j) µlj vlj = 0 , lj =1 | {z } ∈ Eig(F, λj ) und nach Hilfssatz 7.1.7 geht das wegen 1 6= 0 nur, falls in den Klammern keine Eigenvektoren stehen, also gilt ∀j ∈ k : sj X (j) (j) µlj vlj = 0 , lj =1 und nach (∗) folgt (j) ∀ j ∈ k ∀ lj ∈ sj : µlj = 0 . Sei nun n := dimK V . (1) =⇒ (2) : Ist F diagonalisierbar, so haben wir eine Basis von V , die aus Eigenvektoren von F besteht. Ordnet man sie passend an, so ist es eine Basis B der Form aus (∗∗) aus (0). Dann ist n = s1 + . . . + sk . Das charakteristische Polynom von F ist PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk , also gilt a) von (2), und für rj = µ(PF , λj ) gilt nach 7.3.3 : sj ≤ rj , also ↓ n = s1 + . . . + sk ≤ r1 + . . . + rk = deg PF (X) = n und hier ↓ gilt Gleichheit nur, falls sj = rj für alle j ∈ k gilt, also gilt b) von (2). (2) =⇒ (3) : Seien λ1 , . . . , λk die verschiedenen Eigenwerte von F , dann gilt nach a) von (2) : PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk 45 mit r1 , . . . , rk ∈ N , und r1 + . . . + rk = n = dim V . Für j ∈ k sei (j) (v1 , . . . , vs(j) ) eine Basis von Eig(F, λj ) , j dann gilt nach b) : sj = rj . Die in (∗∗) angegebene Familie B ist linear unabhängig, mit s1 + . . . + sk = r1 + . . . + rk = n Elementen, also eine Basis von V . Nach Satz 4.7.5 (1) ist V = Eig(F, λ1 ) ⊕ . . . ⊕ Eig(F, λk ) . (3) =⇒ (1) : Wenn die letzte Gleichung gilt, haben wir eine Basis von V , die aus Eigenvektoren von F besteht. Also ist F diagonalisierbar. 2 Mit diesem Satz bzw. dem Beweis dazu erhält man ein (7.3.6) Praktisches Verfahren zur Diagonalisierung eines F ∈ EndK V : Sei V ein K−Vektorraum , dimK V = n ∈ N . 1.Schritt : Man nehme eine beliebige Basis A von V , berechne A := MAA (F ) , und damit PF (X) = PA (X) , bestimme also das charakteristische Polynom PF von F und versuche, eine Linearfaktorzerlegung von PF zu finden (was für n ≥ 3 schwierig werden kann). Wenn man sicher ist, dass das nicht geht, ist F nicht diagonalisierbar, wegen Satz 7.3.1(1). Für die Nullstellen λ von PF (X) kann man auch µ(PF , λ) ablesen. Wenn man eine Linearfaktorzerlegung angeben kann, kommt das zweite Hindernis : 2.Schritt : Man bestimmt für jeden Eigenwert λ von F die Dimension von Eig(F, λ) , also die Dimension des Lösungsraums des linearen homogenen Gleichungssystems (A − λ En ) · x = 0 . Wenn dann für alle Eigenwerte λ µ(PF , λ) = dim Eig(F, λ) 46 gilt, ist F nach Satz 7.3.5 diagonalisierbar, und man bestimmt Basen aller Eig(F, λ) . Diese Eigenvektoren bilden zusammen eine Basis B von V, bezüglich der die Matrix B := MBB (F ) Diagonalform hat. Es gilt nach Bemerkung 4.4.16 : B = S · A · S −1 mit S := MBA ( idV ) ∈ GL(n, K) . S −1 =: (tlj ) ist also die Transformationsmatrix des Basiswechsels von A zu B. Nach Formel (4.4.17) gilt , wenn A = (al )l∈n , bj = B = (bj )j∈n n X ist : tlj al l=1 Die Spaltenvektoren der Matrix S −1 sind also die “Koordinatenvektoren” der neuen Basisvektoren bj bezüglich der gegebenen alten Basis A . 2 Beispiel 7.3.7: Sei F : R3 −→ R3 gegeben 1 1 F (x) := A · x mit A := 1 durch 1 1 1 1 1 1 , dann ist F linear, und die Matrix von F bezüglich der kanonischen Basis K = (e1 , e2 , e3 ) des R3 ist A. Man rechnet aus: PF (X) = −X 3 + 3 X 2 = −X 2 (X − 3) , die Eigenwerte sind also 0 mit µ(PF , 0) = 2 und 3 mit µ(PF , 3) = 1 , Es ist dim Eig(F, 3) = 1, und wegen Rg(A − 0 · E3 ) = RgA = 1 ist dim Eig (F, 0) = 3 − 1 = 2, und die Vielfachheit µ(PF , 0) war auch 2. Nach Satz 7.3.5 ist F diagonalisierbar. Wir berechnen Eigenvektoren von F zum Eigenwert (i) 0, dazu bringen wir A − 0 · E3 auf Zeilenstufenform: 1 1 1 1 1 1 A − 0 · E3 = 1 1 1 → 0 0 0 , 1 1 1 0 0 0 47 und das lineare Gleichungssystem x1 + x2 + x3 = 0 hat −1 −1 0 , 1 1 0 als Basis des Lösungsraums. Das ist also eine Basis von Eig (F, 0), (ii) 3 , dazu bringen wir A − 3 · E3 auf Zeilenstufenform: −2 1 1 1 1 −2 1 1 −2 A − 3 · E3 = 1 −2 1 → 0 3 −3 → 0 1 −1 . 1 1 −2 0 −3 3 0 0 0 Das zugehörige lineare Gleichungssystem x1 + x2 − 2x3 = 0 , x2 − x3 = 0 hat 1 1 1 als Basis des Lösungsraums. Das ist also eine Basis von Eig (F, 3). Sei nun −1 −1 1 0 1 1 , , , B = (b1 , b2 , b3 ) := 1 0 1 dann ist B := 0 0 0 MBB (F ) = 0 0 0 0 0 3 , und es gilt B = S · A · S −1 mit S = MBK ( idR3 ) (tkj ) := S −1 erhält man wegen S −1 = MKB ( idR3 ) und bj = 3 X tkj ek k=1 als Matrix mit den Basisvektoren der Eigenräume als Spalten : −1 −1 1 1 1 . S −1 = 0 1 0 1 48 Wir berechnen die inverse Matrix S = −1 −1 2 1 −1 2 −1 3 1 1 1 und machen die Probe: S −1 · S = E3 , S · A · S −1 0 0 0 = 0 0 0 0 0 3 . 2 Bemerkung 7.3.8 : Sei V ein endlichdimensionaler K−Vektorraum und seien F, G ∈ EndK V diagonalisierbar. Dann kann man fragen, ob es eine gemeinsame Basis von V gibt, bezüglich der F und G durch Diagonalmatrizen beschrieben werden. Man nennt dann F und G simultan diagonalisierbar. Die Frage ist also: Sei B eine Basis von V und seien A := MBB (F ) , B := MBB (G) , gibt es dann ein (gemeinsames) S ∈GL(n, K), so dass D = S · A · S −1 e = S · B · S −1 und D Diagonalmatrizen sind? Nun sind zwei Diagonalmatrizen vertauschbar, d.h. e = D e · D , und damit dann auch es gilt D · D e · S = S −1 · D · D e · S = S −1 · D e ·D·S = B ·A , A · B = S −1 · D · S · S −1 · D also sind auch A und B vertauschbar und damit F und G. Diese Bedingung ist aber auch hinreichend für die simultane Diagonalisierbarkeit von F und G: Satz 7.3.9 : Zwei diagonalisierbare Endomorphismen F, G ∈ EndK (V ) sind genau dann simultan diagonalisierbar, wenn gilt: F ◦G = G◦F . Beweis : Sei also F ◦G = G◦F . Wir haben nach Satz 7.3.5 die Zerlegungen in die direkten Summen von Eigenräumen V = k M Eig(F, λj ) und V = j=1 r M l=1 49 Eig(G, µl ) . Dann gilt (∗) G(Eig(F, λj )) ⊂ Eig(F, λj ) , denn aus x ∈Eig(F, λj ) folgt F (x) = λx, und wegen F ◦ G = G ◦ F dann F (G(x)) = G(F (x)) = G(λx) = λG(x) . Wir zeigen nun, dass für jeden Eigenwert µl von G der Eigenraum Eig(G, µl ) in die direkte Summe (∗∗) Eig(G, µl ) = k M (Eig(F, λj )∩Eig(G, µl )) j=1 zerlegt werden kann. Sei dazu x ∈ Eig(G, µl ) und x = k X xj mit xj ∈ Eig(F, λj ) . j=1 Wir wollen zeigen : xj ∈ Eig(G, µl ) für alle Eigenwerte λj von F : Es gilt k X (∗ ∗∗ ) µl xj = µl x = G(x) = j=1 k X G(xj ) , j=1 wobei nach (∗) gilt: G(xj ) ∈ Eig(F, λj ). Da V die direkte Summe der Eig(F, λj ) ist, sind die Summanden in (∗ ∗∗ ) eindeutig bestimmt; wir haben µl xj = G(xj ) , also xj ∈ Eig(G, µl ) . Mit (∗∗) haben wir gezeigt: V = r M k M (Eig(F, λj ) ∩ Eig(G, µl )) . l=1 j=1 Wir nehmen uns nun Basen in diesen direkten Summanden. Die Vektoren dieser Basis sind dann Eigenvektoren sowohl von F als auch von G . 2 7.4 Potenzen eines Endomorphismus Unser Ziel ist der Satz von Cayley-Hamilton . Dazu vorher: Definition 7.4.1 : Sei V ein K−Vektorraum und F ∈ EndK V . Dann defi50 nieren wir rekursiv: F 0 := idV , F n+1 := F n ◦ F für n ∈ N0 , F n ist also die n−fache Hintereinanderausführung von F . 7.4.2 Zur Motivation: Sei dim V = n ∈ N , B eine Basis von V und A := MBB (F ) , dann liegt A im K−Vektorraum M (n × n, K), der die Dimension n2 hat. Die 2 n2 + 1 Potenzen A0 , . . . , An sind also linear abhängig, es gibt eine Gleichung 2 n X αj Aj = 0 mit αj ∈ K , j=0 in der nicht alle αj = 0 sind, anders ausgedrückt: es gibt ein Polynom 2 P (X) = n X αj · X j ∈ K[X] mit deg P (X) ≤ n2 , j=0 das 0 ergibt, wenn man für die Unbestimmte X die Matrix A einsetzt: Aj ist definiert, A0 = En . Statt A kann man ebenso gut F einsetzen, denn MBB (F j ) = Aj , es gilt also auch P (F ) = 0 . Die Sache ist nun: Man braucht gar nicht erst ein Polynom vom Grad n2 , das 0 ergibt, wenn man F bzw. A einsetzt, es gibt sogar ein Polynom vom Grad n , das das tut, es ist (wer hätte es gedacht?) das charakteristische Polynom PF (X). Spezialfall 7.4.3 : Sei dimK V = n , F ∈EndK V diagonalisierbar mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk , und Q(X) := (X − λ1 ) · . . . · (X − λk ) . Es gibt eine Basis aus Eigenvektoren von F zu V . Fasst man die Summanden aus je einem Eigenraum Eig (F, λj ) zusammen, so erhält man zu jedem v ∈ V eine Darstellung v = k X vj mit vj ∈ Eig(F, λj ) . j=1 51 Wir bilden nun Q(F )(v) und benutzen, dass man Potenzen von F vertauschen kann, dann erhalten wir Q(F )(v) = k X Q(F )(vj ) j=1 k X \ (F −λ1 idV )◦. . .◦(F − λj idV )◦. . .◦(F −λk idV )◦(F − λj idV )(vj ) = 0 , {z } | j=1 =0 wobei das d bedeutet, dass man den darunter stehenden Faktor wegzulassen hat. Nun gilt = PF (X) = (−1)n · (X − λ1 )r1 · . . . · (X − λk )rk mit rj = µ(PF , λj ) ∈ N , also gilt auch PF (F )(v) = 0 für alle v ∈ V , also 2 PF (F ) = 0 . Bemerkung 7.4.4 : Für diagonalisierbares F haben wir damit den Satz von Cayley-Hamilton bewiesen, und sogar noch etwas mehr: Sei T (X) ein Teiler von obigem Q(X) mit deg T (X) < deg Q(X), dann kommt mindestens einer der Faktoren X − λl , l ∈ k, nicht in T (X) vor. Sei etwa \ T (X) = (X − λ1 ) · . . . · (X − λl ) · . . . · (X − λk ) , dann gilt für einen Eigenvektor vl zu λl : \ T (F )(vl ) = (F − λ1 idV ) ◦ . . . ◦ (F − λl idV ) ◦ . . . ◦ (F − λk idV )(vl ) (λl − λ1 ) · . . . · (λ\ l − λl ) · . . . · (λl − λk ) · vl 6= 0 , also T (F ) 6= 0. Wir kommen darauf im Zusammenhang mit dem “Minimalpolynom” zurück. 2 - Für nicht notwendig diagonalisierbares F werden wir erst mal etwas formal: Definition 7.4.5 : a) Sei K ein Körper und V ein K−Vektorraum, dann ist das “Einsetzen von F ∈ EndK V in ein Polynom”, d.h. die Abbildung ΦF : K[X] −→ EndK V , 52 P (X) = ∞ X j αj X 7−→ P (F ) = j=0 ∞ X αj F j j=0 ein Homomorphismus von Ringen und auch von K−Vektorräumen (was nachzurechnen wäre). Das Bild ist K[F ] := { P (F ) | P ∈ K[X] } ( ∞ ) X = αj F j ∀ j ∈ N0 : αj ∈ K ∧ ∀0 j ∈ N0 : αj = 0 , j=0 und K[F ] ist ein kommutativer Unterring von (EndK V, +, ◦), mit Einselement idV . b) Man kann das auch für n × n−Matrizen statt für Endomorphismen machen: Sei n ∈ N , A ∈ M (n × n, K), dann ist ( ∞ ) X K[A] := αj Aj ∀ j ∈ N0 : αj ∈ K ∧ ∀0 j ∈ N0 : αj = 0 j=0 ein kommutativer Unterring von (M (n × n, K), +, ·), mit Einselement En . (7.4.6) Satz von Cayley-Hamilton : Sei V ein endlichdimensionaler K−Vektorraum, F ∈ EndK V und PF ∈ K[X] das charakteristische Polynom von F . Dann ist PF (F ) = 0 ∈ EndK V . Für Matrizen A ∈ M (n × n, K) , n ∈ N , bedeutet das PA (A) = 0 ∈ M (n × n, K) . (7.4.7) Vorsicht : a) Man muss hier aufpassen, was mit PA (A) gemeint ist, sonst kommt man zu einem kurzen, aber unsinnigen, “Beweis”: PA (X) = det(A − X · En ) PA (A) = det(A − A · En ) = 0 ; =⇒ das ist schon deshalb unsinnig, weil hier die 0 ∈ K, nicht die 0 ∈ M (n × n, K), herauskommt. Mit PA (A) ist gemeint, dass man zunächst das Polynom PA (X) ausrechnet und dann Potenzen von A einsetzt. b) Trotzdem muss man hier die Determinante einer Matrix bilden, deren Einträge Elemente aus K[A] sind. Das ist der entscheidende Grund, weshalb wir in §5 Determinanten von Matrizen aus M (n × n, R) betrachtet haben, wobei R ein kommutativer Ring war, nicht nur von Matrizen aus 53 M (n × n, K) , K ein Körper. - Zum Beweis müssen wir noch etwas nachholen, was wir auch schon bei der Formel für die inverse Matrix in §5 hätten definieren können: Definition 7.4.8 : Sei R ein kommutativer Ring, n ∈ N , n ≥ 2 und B = (bjk )(j,k)∈n×n ∈ M (n × n, R). Dann heißt 0 B # := (−1)j+k det Bkj , (j,k)∈n×n 0 wobei Bkj die Matrix ist, die man aus B durch Streichen der k−ten Zeile und der j−ten Spalte erhält, die zu B komplementäre Matrix. 2 - Man beachte die Reihenfolge der Indizes: Es ist B# 0 (cjk ) mit cjk = (−1)j+k det Bkj = , wir hatten das schon bei der Formel in Satz 5.3.4 für die inverse Matrix, aber hier setzen wir nicht voraus, dass B invertierbar ist. Wie beim Beweis von Satz 5.3.4 erhält man aus dem Laplaceschen Entwicklungssatz die Folgerung 7.4.9 : Für jedes B ∈ M (n × n, R) , n ≥ 2 gilt B# · B = B · B# = (det B) En . Bemerkung 7.4.10 : Sei K ein Körper, n ∈ N , n ≥ 2 und A ∈ M (n×n, K). Sei B := A − X En ∈ M (n × n, K[X]), # # dann gilt für (b# jk ) := B : Jedes bjk ist ein Polynom in X vom Grad ≤ n−1 oder 0 . 2 (7.4.11) Beweis des Satzes von Cayley-Hamilton : Es genügt, den Satz für Matrizen A ∈ M (n × n, K) zu beweisen, denn für F ∈ EndK V ist PF (F ) = PA (A) , wobei A die Matrix von F bezüglich irgendeiner Basis von V ist. - Sei n = 1, also A = (a11 ) , dann ist PA (X) = a11 − X , und PA (A) = a11 · A0 − A1 = a11 E1 − (a11 ) = 0. Sei nun n ≥ 2, dann setzen wir B(X) := t (A − X En ) ∈ M (n × n, K[X]) . 54 In der Diagonale von B(X) stehen Polynome vom Grad 1 , außerhalb Elemente aus K . Es ist (1) det B(X) = PA (X) ∈ K[X] . Nun setzen wir A statt X in B(X) ein, dann müssen wir an die Konstanten den Faktor En setzen und erhalten a11 En − A a21 En ... an1 En a12 En a22 En − A . . . an2 En B(A) = ∈ M (n × n, K[A]) . .. .. .. . . . . . . a1n En a2n En . . . ann En − A Wir können diese Matrix multiplizieren mit einem Spaltenvektor, dessen Komponenten Spaltenvektoren aus K n sind. Insbesondere gilt für die (als Spaltenvektoren geschriebenen) kanonischen Basisvektoren e1 , . . . , en von Kn : e1 (2) B(A) · ... en 0 . = = .. , 0 a1n e1 + . . . + an−1,n en−1 + ann en − A · en a11 e1 − A · e1 + a21 e2 + . . . + an1 en .. . wegen A · ej = aj = n P akj ek . Sei nun B(X)# die in 7.4.8 definierte k=1 komplementäre Matrix zu B(X), dann ist B(X)# ∈ M (n × n, K[X]), und die Einträge von B(X)# sind Polynome in X vom Grad ≤ n−1 oder 0. Nach Folgerung 7.4.9 gilt PA (X) . . . 0 (1) .. B(X)# ·B(X) = det(B(X))·En = PA (X)·En = . 0 . . . PA (X) e1 .. Setzen wir nun A für X ein, und multiplizieren mit . ∈ (K n )n , so en folgt PA (A) 0 e1 e1 0 (2) . . . # . .. · .. = B(A) ·B(A)· .. = .. , 0 PA (A) en en 55 0 . also ∀ j ∈ n : PA (A) · ej = 0 . PA (A) ist also eine Matrix, in der alle Spalten gleich 0 ∈ K n sind, also PA (A) = 0 . 2 7.5 Das Minimalpolynom einer Matrix Bemerkung 7.5.1 : Sei n ∈ N , K ein Körper, A ∈ M (n×n, K), und PA (X) das charakteristische Polynom von A , dann sagte Satz 7.4.6: PA (A) = 0 . Aber: Sei etwa 2 0 0 A := 0 2 0 ∈ M (3 × 3, R) , 0 0 3 dann ist PA (X) = (2 − X)2 · (3 − X) , deg PA (X) = 3 , aber A ist auch schon “Nullstelle” des Polynoms (2 − X) · (3 − X) vom Grad 2 . PA (X) ist also nicht notwendig das Polynom kleinsten Grades, das 0 ergibt, wenn man A einsetzt. Dasselbe kann man für ein F ∈ EndK V fragen. Bemerkung 7.5.2 : Sei V ein K−Vektorraum, dimK V = n ∈ N, und F ∈ EndK V . Dann hatten wir in 7.4.5 definiert: ΦF : K[X] −→ EndK V ΦF (P (X)) := , P (F ) , und ker ΦF = { P (X) ∈ K[X] | P (F ) = 0 ∈ EndK V } ist nach Satz 3.1.10 ein Ideal im Ring K[X]. Wir hatten in Satz 3.3.16 bewiesen, dass K[X] ein euklidischer Ring ist (das war Beispiel (3.3.18)(2) ), und aus Satz 3.3.19 folgt dann: Es gibt ein m(X) ∈ K[X] mit ker ΦF = (m(X)) = { f (X) · m(X) | f (X) ∈ K[X] } 56 . Nach dem Satz von Cayley-Hamilton besteht ker Φ nicht nur aus dem Nullpolynom, denn PF (X) ∈ ker Φ und deg PF (X) = n. Wir können also die Gradformel 3.3.12 anwenden und erhalten dann für jedes Polynom g(X) ∈ ker Φ \ {0}: deg g(X) ≥ deg m(X) . Das Polynom m(X) mit (m(X)) = ker Φ ist nicht eindeutig bestimmt, es gilt (m(X)) = (λ · m(X)) für jedes λ ∈ K \ {0} . Wir können λ so wählen, dass wir ein Polynom MF (X) mit Leitkoeffizient 1 erhalten, das dann eindeutig bestimmt ist. Fassen wir das noch einmal zusammen: Satz und Definition 7.5.3 : Sei V ein K−Vektorraum, dimK V = n ∈ N, und F ∈ EndK V . Dann haben wir ein eindeutig bestimmtes Polynom MF (X) ∈ K[X] \ {0} mit den folgenden Eigenschaften : (1) MF (F ) = 0 . (2) MF (X)ist normiert. (3) Zu jedem P (X) ∈ K[X] mit P (F ) = 0 gibt es ein Q(X) ∈ K[X] mit P (X) = MF (X) · Q(X) . MF (X) heißt das Minimalpolynom von F . Sei A ∈ M (n × n, K), dann haben wir fA : Rn −→ Rn , fA (x) := A · x , dann nennen wir MA (X) := MfA (X) das Minimalpolynom der Matrix A. 2 Aus der Definition des Minimalpolynoms und dem Satz von Cayley-Hamilton erhalten wir die Folgerung 7.5.4 : Sei K ein Körper, n ∈ N , A ∈ M (n × n, K). Dann gilt für das Minimalpolynom MA von A : MA teilt PA , d.h. ∃ Q(X) ∈ K[X] : PA (X) = Q(X) · MA (X) . Für ein F ∈ EndK V , dimK V = n ∈ N, bedeutet das: MF teilt PF . 2 57 Beispiel 7.5.5 : Sei dimK V = n , F ∈ EndK V diagonalisierbar, mit k verschiedenen Eigenwerten λ1 , . . . , λk , dann haben wir in 7.4.3 gesehen: Für P (X) := (X − λ1 ) · . . . · (X − λk ) gilt P (F ) = 0, und nach 7.4.4 gilt für jeden Teiler T (X) von P (X) mit deg T (X) < deg P (X) : T (F ) 6= 0 . Also ist P (X) das Minimalpolynom von F : MF (X) = (X − λ1 ) · . . . · (X − λk ) . Aber nur, wenn k = n ist, also wenn alle Eigenwerte die Vielfachheit 1 haben, ist das auch das charakteristische Polynom. Es kann also durchaus sein (wie im Beispiel aus 7.5.1), dass MF (X) ein echter Teiler von PF (X) ist. Für diagonalisierbares F wissen wir also, dass in MF (X) alle Linearfaktoren von PF (X) mindestens einmal vorkommen. Für beliebiges F folgt das aus Satz 7.5.6 : Sei K ein Körper, V ein n−dimensionaler K−Vektorraum, F ∈ EndK (V ) . Dann gilt: PF (X) teilt MF (X)n . Beweis : Es genügt, den Satz statt für F für eine Matrix A ∈ M (n × n, K) zu beweisen. Es ist MA (X) Xm + = m X αj X m−j ∈ K[X] j=1 mit m ∈ N und αj ∈ K Bk := für j ∈ m . Für k ∈ {0, 1, . . . , m − 1} sei Ak + k X αj Ak−j , und sei j=1 B(X) := m X Bk−1 X m−k ∈ (K[A])[X] . k=1 Dann gilt für alle k ∈ m − 1 : (1) Bk − A · Bk−1 = k A + k X k−j αj A j=1 k −A − k−1 X j=1 58 αj Ak−j = αk En , und (2) A · Bm−1 m−1 A · (A = + m−1 X αj Am−1−j ) j=1 = Am + m−1 X αj Am−j MA (A) − αm En = −αm En = . j=1 Mit der Definition von B(X) folgt (A − XEn ) · B(X) m X = A · B(X) − XB(X) = A · Bk−1 X m−k k=1 − m X Bk−1 X m+1−k , k=1 man beachte hierbei, dass man stets in dem kommutativen Ring (K[A])[X] rechnet, denn auch die Matrizen Bk gehören zu K[A] , also (A − X · En ) · B(X) m X = A · Bk−1 X m−k − k=1 = m−1 X m−1 X Bk X m−k k=0 (A · Bk−1 − Bk )X m−k + A · Bm−1 − B0 X m k=1 (1),(2) = − m−1 X αk En · X m−k − αm En − En X m k=1 −MA (X) · En = , also nach dem Determinanten-Multiplikationssatz 5.3.6 : det(A − XEn ) · det B(X) PA (X) · det B(X) = (−MA (X))n det En (−1)n (MA (X))n = , . 2 7.6 Die Jordansche Normalform Vorbemerkung 7.6.1: Sei K ein Körper, n ∈ N , V ein n−dimensionaler K−Vektorraum und F ∈ EndK V . Dann gilt nach Satz 7.3.5: F ist diagonalisierbar ⇐⇒ a) das charakteristische Polynom PF ist ein Produkt von Linearfaktoren , und 59 b) für alle Eigenwerte λ von F gilt dim Eig (F, λ) = µ(PF , λ) . Auf welche (einfachere) Form kann man die Matrix von F bringen, wenn nur die Bedingung a) erfüllt ist ? Das interessiert uns insbesondere deshalb, weil in C[X] nach dem Fundamentalsatz der Algebra (3.5.13) jedes Polynom ein Produkt von Linearfaktoren ist, weil also a) für K = C in jedem Fall gilt. Was macht man also, wenn für einen Eigenwert λ von F dim Eig(F, λ) < µ(PF , λ) gilt? Man muss dann den Raum Eig(F, λ) vergrößern : Definition 7.6.2 : Sei K ein Körper, n ∈ N , V ein n−dimensionaler K−Vektorraum, F ∈ EndK V und λ ∈ K ein Eigenwert von F mit µ(PF , λ) = r , r sei also die Vielfachheit von λ. Dann nennen wir Hau (F, λ) ker (F − λ idV )r := den Hauptraum von F zum Eigenwert λ . 2 Für r ≥ 1 gilt ker (F − λ idV ) ⊂ ker (F − λ idV )r , also Eig(F, λ) ⊂ Hau(F, λ) . Um den entscheidenden Satz zu formulieren, brauchen wir die Definition 7.6.3 : Sei V ein K−Vektorraum, G ∈ EndK V . G heißt nilpotent, wenn es ein m ∈ N gibt mit Gm = 0 . Entsprechend: Sei n ∈ N und A ∈ M (n × n, K) . A heißt nilpotent , wenn es ein m ∈ N mit Am = 0 gibt. 2 Unser Ziel ist der Beweis von Satz 7.6.4 : Sei n ∈ N , V ein K−Vektorraum mit dimK V = n , 60 F ∈ EndK V , und PF sei ein Produkt von Linearfaktoren, PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk mit paarweise verschiedenen λ1 , . . . , λk ∈ K und r1 , . . . , rk ∈ N. Für j ∈ k sei Vj := Hau(F, λj ) der Hauptraum von F zum Eigenwert λj . Dann gilt (1) F (Vj ) ⊂ Vj und dim Vj = rj für alle j ∈ k , (2) V = V1 ⊕ . . . ⊕ Vk , (3) es gibt FD , FN ∈ EndK V mit F = FD + FN und a) FD ist diagonalisierbar, b) FN ist nilpotent, c) FD ◦ FN = FN ◦ FD . 2 Wir brauchen einige Vorbereitungen: Bemerkung 7.6.5 : Sei V ein endlichdimensionaler K−Vektorraum und G ∈ EndK V , dann gilt für die Kerne und Bilder der Potenzen von G offenbar {0} ⊂ ker G ⊂ ker G2 ⊂ . . . ⊂ ker Gl , V ⊃ G(V ) ⊃ G2 (V ) ⊃ . . . ⊃ Gl (V ) für alle l ∈ N, und nach der Dimensionsformel 4.3.13 : dim ker Gl + dim Gl (V ) = dim V . ⊂ Bei den angegebenen Ketten kann nicht stets 6= stehen, da die Dimension von V endlich ist, es gibt also ein l ∈ N0 mit ker Gl = ker Gl+1 . Damit erhält man das (7.6.6) Lemma von Fitting : Sei n ∈ N , V ein n−dimensionaler K−Vektorraum, G ∈ EndK V . Wir setzen d := min l ∈ N0 | ker Gl = ker Gl+1 , U := ker Gd , W := Gd (V ) . 61 Dann gilt: (1) d = min l ∈ N0 | Gl (V ) = Gl+1 (V ) (2) ∀ j ∈ N0 : ker Gd+j = ker Gd ∧ Gd+j (V ) = Gd (V ) . (3) G(U ) ⊂ U ∧ G(W ) ⊂ W . d (4) GU = 0 ∧ GW ist ein Isomorphismus. (5) Für das Minimalpolynom von GU gilt: M (X) = X d . G (6) U V = U ⊕ W , r := dim U ≥ d , dim W = n − r , und es gibt eine Basis B von V , so dass N | 0 MBB (G) = − − + − − ist mit C ∈ GL(n − r, K) 0 | C und nilpotentem N ∈ M (r × r, K). Beweis : (0) Wir haben für jedes l ∈ N0 : ker Gl ∩ ⊂ V −→ Gl Gl (V ) ∪ ker Gl+1 ⊂ V −→ Gl+1 Gl+1 (V ) Wenden wir die Dimensionsformel 4.3.13 an auf Gl und Gl+1 , so folgt: Gl+1 (V ) = Gl (V ) ⇐⇒ ⇐⇒ ⇐⇒ dim Gl+1 (V ) = dim Gl (V ) dim ker Gl+1 = dim ker Gl ker Gl+1 = ker Gl Damit folgt schon mal (1). (2) folgt durch Induktion nach j : Für j = 0 ist (2) trivial. Für beliebiges j ∈ N0 gilt, wenn (2) für j richtig ist: x ∈ ker Gd+j+1 =⇒ =⇒ =⇒ =⇒ Gd+1 (Gj (x)) = 0 Gj (x) ∈ ker Gd+1 = ker Gd Gd (Gj (x)) = 0 x ∈ ker Gd+j , und ker Gd+j ⊂ ker Gd+j+1 sowieso, also : (IV) ker Gd+j+1 = ker Gd+j = ker Gd 62 und nach (0) auch (IV) Gd+j+1 (V ) = Gd+j (V ) = Gd (V ) . (3) Für x ∈ U = ker Gd gilt Gd (x) = 0 , also Gd (G(x)) = Gd+1 (x) = G(Gd (x)) = G(0) = 0 , also G(x) ∈ U . Für y ∈ Gd (V ) gilt G(y) ∈ Gd+1 (V ) = Gd (V ) . (4) Nach (3) ist GU ∈ EndK U , und GW ∈ EndK W . Für x ∈ U = ker Gd d gilt Gd (x) = 0 , also GU (x) = 0. Aus Gd+1 (V ) = Gd (V ) folgt, dass GW : W −→ W surjektiv, also nach der Dimensionsformel ein Isomorphismus, ist. (5) Aus (4) folgt, dass X d ein Polynom ist, das 0 ∈ EndK U ergibt, wenn man GU einsetzt. Es gibt keinen Teiler kleineren Grades von X d , der 0 ergibt, wenn man GU einsetzt: Für d = 0 ist das klar. Anderenfalls nehmen wir an, d−1 GU = 0 dann wäre Gd−1 (x) = 0 für x ∈ U = ker Gd x ∈ ker Gd−1 , also , also ker Gd ⊂ ker Gd−1 , und ker Gd−1 ⊂ ker Gd sowieso, also ker Gd = ker Gd−1 , Widerspruch zur Definition von d . Also ist M (X) = X d G . U (2) (6) Sei v ∈ V , dann ist Gd (v) ∈ Gd (V ) = G2d (V ), also ∃ v 0 ∈ V : Gd (v) = G2d (v 0 ) . Es ist v = v − Gd (v 0 ) + Gd (v 0 ) mit Gd (v − Gd (v 0 )) = Gd (v) − G2d (v 0 ) = 0 , u := v − Gd (v 0 ) ∈ ker Gd v = u + Gd (v 0 ) ∈ U + W 63 , und , also und wenn u ∈ U ∩ W ist, gilt: ∃ w ∈ V : u = Gd (w) , also 0 = Gd (u) = G2d (w) , (2) w ∈ ker G2d = ker Gd , also u = Gd (w) = 0 . Also haben wir V = U ⊕W . Sei r = dim U , dann haben wir also Basen (b1 , . . . , br ) von U B und (br+1 , . . . , bn ) von W := , so dass (b1 , . . . , br , br+1 , . . . , bn ) eine Basis von V ist, bezüglich der MBB (F ) die gewünschte Form hat. 2 Folgerung 7.6.7 : Sei dimK V = n ∈ N und F ∈ EndK V . Dann sind folgende Aussagen gleichbedeutend: (i) F ist nilpotent. (ii) Es gibt ein k mit 1 ≤ k ≤ n und F k = 0. (iii) Es gibt eine Basis B von V , so dass MBB (F ) eine echte obere Dreiecksmatrix 0 ∗ .. ist. . 0 0 (iv) PF (X) = (−1)n X n . Beweis : (i) =⇒ (ii) : Ist F nilpotent, so haben wir ein m ∈ N mit F m = 0, also V = ker F m = ker F m+1 . Für k := min l ∈ N0 | ker F l = ker F l+1 gilt dann k ≤ m, und nach 7.6.6 (2) ker F m = ker F k , also ker F k = V , Fk = 0 , und k ≤ n nach (7.6.6)(6) . (ii) =⇒ (iii) : Mit d := min l ∈ N | ker F l = V haben wir ⊂ ⊂ ⊂ ⊂ {0} 6= ker F 6= ker F 2 6= . . . 6= ker F d = V 64 , wobei wir (7.6.6)(2) benutzt haben: Hätten wir ein s ≤ d − 1 mit ker F s = ker F s+1 , ker F s = ker F d = V so wäre schon . Nach dem Basisergänzungssatz erhalten wir eine Basis B := (b1 , . . . , bj1 , . . . , bj2 , . . . , bjd ) von V b1 , . . . , b j 1 bj1 +1 , . . . , bj2 .. . ∈ ∈ bjd−1 +1 , . . . , bjd ∈ ker F , ker F 2 \ ker F mit , ker F d \ ker F d−1 . Wegen F ( ker F l ) ⊂ ker F l−1 für l ∈ d (insbesondere: F ( ker F ) ⊂ ker idV = {0}) gilt dann F (bk ) ∈ span(b1 , . . . , bk−1 ) für alle k ∈ n , und das heißt: MBB (F ) ist eine echte obere Dreiecksmatrix . (iii) =⇒ (iv) ist klar: Für eine echte obere −X ∗ . .. PA (X) = det Dreiecksmatrix A ist −X 0 n n = (−1) X . (iv) =⇒ (i) : Aus PF (X) = (−1)n X n folgt nach Cayley-Hamilton : (−1)n F n = 0 , also ist F nilpotent. 2 Damit kann man das Lemma von Fitting noch etwas verbessern: (7.6.8) Zusatz zum Lemma von Fitting : Sei V ein K−Vektorraum, dimK V = n ∈ N und G ∈ EndK V . Sei d = min l ∈ N0 | ker Gl = ker Gl+1 , U := ker Gd und r := dim U 65 , dann gilt (7) r = µ(PG , 0) , bzw. r = 0, falls 0 kein Eigenwert von G ist. Beweis : Nach (6) aus (7.6.6) haben wir eine Basis B von V , so dass N | 0 MBB (G) = − − + − − ist mit C ∈ GL(n − r, K) 0 | C und nilpotentem N ∈ M (r × r, K). Mit der Determinanten-Regel (D9) folgt PG (X) = P (X) · P (X) G G U W für W := Gd (V ). Nach 7.6.7 gilt P (X) = (−1)r X r G , U also PG (X) = X r · Q(X) mit Q(X) = ±P (X) , Da GW nach (7.6.6)(4) G W ein Isomorphismus ist, hat GW nicht 0 als Eigenwert, also: X teilt nicht Q(X) , X r ist die höchste Potenz von X, die PG (X) teilt, also r = µ(PG , 0) . 2 Bemerkung 7.6.9 : Machen wir uns noch einmal klar, was Lemma 7.6.6 und Zusatz 7.6.8 für die in 7.6.2 definierten Haupträume bedeuten: Sei dimK V = n , F ∈ EndK V und PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk mit r1 , . . . , rk ∈ N , dann war für j ∈ k : Hau(F, λj ) = ker (F − λj idV )rj , für Gj := F − λj idV also d rj = dim ker Gj j dj = min nach 7.6.8(7), wobei l ∈ N0 | ker Glj = ker Gl+1 j d dj ≤ dim ker Gj j = rj 66 nach 7.6.6(6) war, und , d r ker Gj j = ker Gj j nach 7.6.6(2) , also dim Hau(F, λj ) = rj . Damit führen wir nun den (7.6.10) Beweis von Satz 7.6.4 : (1),(2) Sei n := dimk V. Wir haben PF (X) = (−1)n (X−λ1 )r1 ·. . .·(X−λk )rk (∗) mit r1 , . . . , rk ∈ N und k ∈ N0 , wir machen Induktion nach k : Induktionsanfang: Sei k = 1 , also PF (X) = (λ − X)r mit λ ∈ K , r ∈ N . Wir setzen G := F − λ idV . In (7.6.6) hatten wir Untervektorräume U, W von V definiert mit V = U ⊕W mit G(U ) ⊂ U und G(W ) ⊂ W , und dim U = µ(PG , 0) nach Zusatz 7.6.8. Wegen PF (X) = PG (X − λ) ist µ(PG , 0) = µ(PF , λ) = r , also dim U = r . Im Beweis von 7.6.8 haben wir gesehen: PG (X) = P (X) · Q(X) G U mit P (X) = (−1)r X r und dem Polynom Q(X) = P (X) , das von G G U W X nicht geteilt wird. Setzen wir wieder F statt G ein, so folgt (λ − X)r = (−1)r (X − λ)r · Q(X − λ) , woraus folgt: deg Q(X) = 0 , also dim W = 0. Also ist (**) V = U = ker (F − λ idV )d = ker (F − λ idV )r = Hau(F, λ) , wobei d in (7.6.6) definiert war, und wir bei (∗∗) noch (7.6.6)(2) benutzt haben. Induktionsschluss: Sei k ∈ N , k ≥ 2 , und für k − 1 sei der Satz richtig. Sei nun PF (X) das in (∗) angegebene Polynom. Sei G := F − λ1 idV 67 , so ist die Matrix von G (bzgl. irgendeiner Basis von V ) einfach die Matrix von F , bei der in der Diagonale überall λ1 abgezogen wird, PG (X) = PF (X + λ1 ) , also µ(PG , 0) = µ(PF , λ1 ) = r1 . Nach 7.6.9 haben wir V = Hau(F, λ1 ) ⊕ W1 . G bildet Hau(F, λ1 ) und W1 in sich selbst ab, also gilt für F = G + λ1 idV auch F (Hau(F, λ1 )) ⊂ Hau(F, λ1 ) , F (W1 ) ⊂ W1 . Bei passender Wahl der Basis B von V , also B = (v1 , , . . . , vr1 , vr1 +1 , . . . , vn ) mit v1 , . . . , vr1 ∈ Hau(F, λ1 ) , vr1 +1 , . . . , vn ∈ W1 , und wenn man die Matrix MBB (F ) ansieht, erhält man P (X) = (−1)n−r1 (X − λ2 )r2 · . . . · (X − λk )rk F . W F W hat also nur noch k − 1 Eigenwerte, und dafür können wir die Induktionsvoraussetzung anwenden. (3) Auf den Vj := Hau(F, λj ) ist Gj = (F − λj idV )Vj nilpotent nach Definition von Hau(F, λj ) und nach (7.6.6)(4), denn d Gj j = 0 mit dj ≤ rj . Nach 7.6.7 hat man zu Gj bezüglich einer passenden Basis von Vj eine echte obere Dreiecksmatrix Nj ∈ M (rj × rj , K) , und die Matrix von F Vj ist dann λj Ej + Nj 68 . Insgesamt erhält man dann für V eine Basis B, für die λ1 E1 −− D := 0 MBB (F ) = D + N mit | 0 N1 | 0 + −− + .. .. und N := . . + −− + −− | λk Ek 0 | Nk gilt. D ist eine Diagonalmatrix, N ist nilpotent, und es gilt λ1 N1 | 0 −−− + .. D·N = N ·D = . + −−− 0 | λk Nk . 2 Bemerkung 7.6.11 : Man kann nicht nur beweisen, dass es eine Basis B von V gibt, bezüglich der λ1 E1 + N1 | 0 −−− + .. MBB (F ) = . + −−− 0 | λk Ek + Nk ist, mit echten oberen Dreiecksmatrizen Nj , sondern man kann auch noch die Basis so wählen, dass die Nj in kleinere Kästchen der Form 0 1 0 0 1 . 0 .. Js := ... 1 0 ∈ M (s × s, K) , s ∈ N zerfallen; wie gesagt: Jedes Nj in evtl. mehrere solche Kästchen mit s Zeilen und Spalten. s = 1 bedeutet dabei: Js = (0). Sei F ∈ EndK V , 69 r1 = µ(PF , λ1 ), dann können also für λ1 1 . 0 λ1 . . ... 0 λ1 0 0 0 λ1 λ1 E1 + N1 die r1 × r1 −Matrizen 0 ... , .. . 1 λ1 0 .. . .. .. . . ... 0 λ1 , vorkommen, aber oberhalb der Diagonale auch alle Kombinationen von 0 und 1. - Wir folgen nun dem Beweis von [Fi] : (7.6.12) Konstruktion der Jordanschen Normalform Sei V ein K−Vektorraum, dimK V = n ∈ N , F ∈ EndK V und PF zerfalle in Linearfaktoren PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk mit r1 , . . . rk ∈ N , λ1 , . . . , λk ∈ K . Sei Vj := Hau(F, λj ) := ker (F − λj idV )rj für j ∈ k . Dann haben wir nach Satz 7.6.4 (2) : V = V1 ⊕ . . . ⊕ Vk . Es gibt nun eine Basis von Vj , so dass F |Vj bezüglich dieser Basis von Vj die Matrix λj Ej + Nj hat, mit einer echten oberen Dreiecksmatrix Nj (siehe etwa Teil (3) des Beweises von Satz 7.6.4). Nj ist dann die Matrix des nilpotenten Endomorphismus G|Vj := F |Vj − λj idVj , und wir müssen nur noch zeigen, dass man bezüglich einer passenden Basis von Vj für G|Vj eine Matrix erhält, die in der Diagonale Jordan-Kästchen der 70 in Bemerkung 7.6.11 angegebenen Form hat : (7.6.13) Konstruktion der Jordan-Kästchen auf den Haupträumen Bei festem j lassen wir den Index j weg: Sei G := F −λ idV , Ul := ker Gl für l ≥ 0 und d := min l ∈ N0 | Gl = 0 , dann haben wir die Kette {0} = U0 ⊂ U1 ⊂ . . . ⊂ Ud−1 ⊂ Ud = V . Da d minimal ist, sind alle Inklusionen echt. Zunächst zwei Vorbemerkungen: −1 (1) Für 1 ≤ l ≤ d ist G (Ul−1 ) = Ul , insbesondere G(Ul ) ⊂ Ul−1 . Das folgt aus −1 v ∈ G (Ul−1 ) ⇐⇒ G(v) ∈ Ul−1 ⇐⇒ 0 = Gl−1 (G(v)) = Gl (v) ⇐⇒ v ∈ Ul . −1 Anwendung von G auf die Gleichung Ul = G (Ul−1 ) ergibt −1 G(Ul ) = G( G (Ul−1 ) ⊂ Ul−1 , und hier steht i.A. nur ⊂ , nicht = . (2) Ist l ∈ N und W ein Untervektorraum von V mit W ∩ Ul = {0} , so ist GW injektiv. Denn wegen ker G = U1 ⊂ Ul gilt W ∩ ker G = {0}. Damit konstruieren wir nun rekursiv eine direkte Summenzerlegung von V = Hau(F, λ): Zunächst wählen wir ein Wd ⊂ V mit V = Ud = Ud−1 ⊕ Wd , etwa, indem wir eine Basis von Ud−1 suchen, sie zu einer Basis von V ergänzen und den von den neuen Basiselementen aufgespannten Raum als Wd nehmen. Aus (1) folgt G(Wd ) ⊂ Ud und G(Wd ) ∩ Ud−2 = {0} , denn sei y ∈ Wd und G(y) ∈ Ud−2 , dann ist Gd−1 (y) = 0 , also y ∈ Ud−1 , und Ud−1 ∩ Wd = {0}. Also gibt es eine Zerlegung Ud−1 = Ud−2 ⊕ Wd−1 mit G(Wd ) ⊂ Wd−1 71 . Die Iteration dieses Verfahrens ergibt folgendes Schema, wobei jeder ↓ eine Anwendung von G zeigt: Ud ↓ Ud−1 ⊕ Wd ↓ ↓ Ud−2 ⊕ Wd−1 ⊕ Wd ↓ ↓ ↓ .. .. .. . . . U1 ⊕ W2 ⊕ W3 ⊕ . . . ⊕ Wd ↓ ↓ ↓ ↓ U0 ⊕ W1 ⊕ W2 ⊕ . . . ⊕ Wd−1 ⊕ Wd Jede Zeile ist dabei eine Zerlegung von V . Wegen U0 = {0} gilt insbesondere V = W1 ⊕ W2 ⊕ . . . ⊕ Wd . Wegen (2) sind die Restriktionen von G in der Kette Wd −→ Wd−1 −→ . . . −→ W1 injektiv. Daher können wir, beginnend bei Wd , durch schrittweise Ergänzung der Basen aller Wl dann insgesamt eine Basis von V nach folgendem Schema erhalten: (d) (d) w 1 , . . . , w sd , (d) (d) (d−1) (d−1) G(w1 ), . . . , G(wsd ), w1 , . . . , wsd−1 , ... ... ... (1) (1) (d) (d) (d−1) (d−1) d−1 d−1 d−2 d−2 ), . . . , G (wsd−1 ), . . . , w1 , . . . , ws1 G (w1 ), . . . , G (wsd ), G (w1 Diese Basiselemente ordnet man nun so an: Man nimmt die 1.Spalte dieser Tabelle, von unten nach oben, dann die 2.Spalte, von unten nach oben, (d) bis zur letzten Spalte. Es gilt wegen w1 ∈ ker Gd = Hau(F, λ) , also (d) (d) F (Gd−1 (w1 )) = λGd−1 (w1 ) : (d) (d) G(Gd−1 (w1 )) = Gd (w1 ) = 0, (d) (d) G(Gd−2 (w1 )) = Gd−1 (w1 ), also F (Gd−1 (wd) )) = (d) λ Gd−1 (w(d) ) , (d) (d) also F (Gd−2 (w1 )) = Gd−1 (w1 )+λ Gd−2 (w1 ) , ... (d) (d) G(G(w1 )) = G2 (w1 ), (d) (d) (d) also F (G(w1 )) = G2 (w1 ) + λ G(w1 ) , 72 (d) (d) (d) G(w1 ) = G(w1 ), (d) (d) also F (w1 ) = G(w1 ) + λ w1 . Bezüglich dieser Basis von Hau (F, λ) hat F Hau(F,λ) die Matrix λ 1 | .. d Zeilen . λ | 0 . .. 1 | λ | 0 . −− −− −− −− + .. . . . 0 0 + −− 1 Zeile , | λ wobei der 1. “Jordan-Block” mit d Zeilen und Spalten genau sd −mal vorkommt, . . . , der letzte “Jordan-Block” mit 1 Zeile und Spalte genau s1 −mal. Ist nun V = K n und F (x) = A · x , so schreibt man sich die Vektoren aus der Basis B , die aus allen diesen Basisvektoren der Vj besteht, nacheinander für j = 1, . . . , k , als Spalten in eine Matrix T −1 . Die Matrix B T · A · T −1 := heißt dann die Jordansche Normalform von A . 2 Wir wollen uns das nochmal als konkrete Handlungsanweisung aufschreiben: (7.6.14) Praktisches Verfahren zur Konstruktion der Jordan-Basis Sei V ein K−Vektorraum, dimK V = n ∈ N , F ∈ EndK V und PF zerfalle in Linearfaktoren PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk mit r1 , . . . rk ∈ N , λ1 , . . . , λk ∈ K . Sei Vj := Hau(F, λj ) := ker (F − λj idV )rj für j ∈ k . Für jedes j ∈ k machen wir nun zwei Schritte, wobei wir hier bei festem j den Index j weglassen : 1.Schritt: Konstruktion einer Basis von Hau(F, λ): Wir haben ⊂ ⊂ ⊂ {0} 6= ker (F − λ idV ) 6= . . . 6= ker (F − λ idV )d = Hau(F, λ) 73 mit einem d ≤ r . Wir suchen Basisvektoren b1 , . . . , bl1 von ker (F − λ idV ) , ergänzen sie durch bl1 +1 , . . . , bl2 ∈ ker (F − λ idV )2 \ ker (F − λ idV ) zu einer Basis von ker (F − λ idV )2 ... und ergänzen schließlich die Basis , ker (F − λ idV )d−1 (b1 , . . . , bld−1 ) von durch Vektoren bld−1 +1 , . . . , bld ∈ ker (F − λ idV )d \ ker (F − λ idV )d−1 zu einer Basis (b1 , . . . , bld−1 , . . . , bld ) von Hau(F, λ) . 2.Schritt: Verbesserung der Basis von Hau(F, λ): Die zuletzt gefundenen Basisvektoren aus ker (F −λ idV )d \ ker (F −λ idV )d−1 nennen wir (d) w1 , . . . , ws(d) , d und wenden darauf G F − λ idV := an, dann liegen (d) G(w1 ), . . . , G(ws(d) ) in d ker Gd−1 , sind dort auch linear unabhängig (Beweis siehe 7.6.13) , man nimmt sie als neue Basisvektoren, ersetzt dadurch genau so viele der Basisvektoren bld−2 +1 , . . . , bld−1 aus ker Gd−1 \ ker Gd−2 und erhält dadurch Basisvektoren (d) (d−1) G(w1 ), . . . , G(ws(d) ), w1 d , . . . , ws(d−1) d−1 aus ker Gd−1 \ ker Gd−2 . Wiederum wenden wir darauf G an. Nach d Schritten erhalten wir eine Basis von Hau(F, λ) der Form (d) (d) w 1 , . . . , w sd , (d) (d) (d−1) (d−1) G(w1 ), . . . , G(wsd ), w1 , . . . , wsd−1 , ... ... ... (d) (d) (d−1) (d−1) (1) (1) d−2 d−1 d−1 d−2 G (w1 ), . . . , G (wsd ), G (w1 ), . . . , G (wsd−1 ), . . . , w1 , . . . , ws1 Diese Basiselemente ordnet man nun so an: Man nimmt die 1.Spalte dieser Tabelle, von unten nach oben, dann die 2.Spalte, von unten nach oben, 74 (d) bis zur letzten Spalte. Es gilt wegen w1 (d) (d) F (Gd−1 (w1 )) = λGd−1 (w1 ) : (d) (d) G(Gd−1 (w1 )) = Gd (w1 ) = 0, (d) (d) G(Gd−2 (w1 )) = Gd−1 (w1 ), ∈ ker Gd = Hau(F, λ) , also also F (Gd−1 (wd) )) = (d) λ Gd−1 (w(d) ) , (d) (d) also F (Gd−2 (w1 )) = Gd−1 (w1 )+λ Gd−2 (w1 ) , ... (d) (d) (d) G(G(w1 )) = G2 (w1 ), (d) (d) (d) also F (G(w1 )) = G2 (w1 ) + λ G(w1 ) , (d) (d) G(w1 ) = G(w1 ), (d) (d) also F (w1 ) = G(w1 ) + λ w1 . Bezüglich dieser Basis von Hau (F, λ) hat F Hau(F,λ) die Matrix λ 1 | ... d Zeilen | 0 λ .. . 1 | λ | 0 . −− −− −− −− + .. ... 0 0 + −− 1 Zeile , | λ wobei der 1. “Jordan-Block” mit d Zeilen und Spalten genau sd −mal vorkommt, . . . , der letzte “Jordan-Block” mit 1 Zeile und Spalte genau s1 −mal. Ist nun V = K n und F (x) = A · x , so schreibt man sich die Vektoren aus der Basis B , die aus allen diesen Basisvektoren der Vj besteht, nacheinander für j = 1, . . . , k , als Spalten in eine Matrix T −1 . Die Matrix B := T · A · T −1 ist dann die Jordansche Normalform von A . 2 − In der Praxis (d.h. bei Übungsaufgaben, bei denen n klein ist), sehen die Basen der Vj nicht so gewaltig aus wie im “2.Schritt” angegeben. Dazu ein nichttriviales, aber dennoch übersichtliches 75 Beispiel 7.6.15 : Sei F : R7 2 0 0 A := 0 0 0 0 −→ R7 , F (x) := A · x 3 0 0 0 0 0 2 3 0 0 0 0 0 2 0 0 0 0 0 0 3 0 0 0 , 0 0 0 2 0 0 0 0 0 0 2 1 0 0 0 0 0 2 so ist PF (X) = −(X − 2)6 · (X − 3) . µ(PF , 3) = 1 Eig(F, 3) = = mit Für λ2 := 3 haben wir dim Eig(F, 3) , R · e4 es ist . Für λ1 := 2 ist Hau(F, 2) = ker (F − 2 idR7 )6 , und wir stellen fest: 0 0 0 7 ker (F − 2 idR7 ) = x ∈ R 0 0 0 0 = x ∈ R7 x2 = = 3 0 0 0 0 0 0 0 3 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 ·x x3 = x4 = x7 = 0 = 0 span(e1 , e5 , e6 ) , dim ker (F − 2 idR7 ) = 3 < 6 = µ(PF , 2) , also ist F nicht diagonalisierbar. Um ker (F drieren wir die Matrix von F − 2 idR7 : 0 0 9 0 0 0 0 0 0 0 0 0 2 (A − 2 E7 ) = 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 − 2 idR7 )2 zu berechnen, qua0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 , damit wird ker (F − 2 idR7 )2 = span(e1 , e5 , e6 , e2 , e7 ) . Die Matrix von (F − 2 idR7 )3 ist schließlich die Diagonalmatrix diag(0, 0, 0, 1, 0, 0, 0) , 76 d.h. in der Diagonale steht (0, 0, 0, 1, 0, 0, 0) , und außerhalb der Diagonale 0 . Also ist ker (F − 2 idR7 )3 ,e ,e ,e ) , span( e1 , e5 , e6 {z } 2 7 3 | ∈ ker (F − 2 idR7 ) | {z } 2 ∈ ker (F − 2 idR7 ) | {z } ∈ ker (F − 2 idR7 )3 = und wegen dim ker (F − 2 idR7 )3 = 6 = µ(PF , 2) ist ker (F − 2 idR7 )3 der Hauptraum Hau(F, 2) . Hier ist also r = 6 , d = 3 . Nun fangen wir an mit (3) w1 und bilden für G := F − 2 idR7 : := e3 (3) G(w1 ) = 3 e2 . Wir suchen uns ein Element b aus {e2 , e7 } , so dass (3 e2 , b) eine Basis von span(e2 , e7 ) ist; so erhalten wir (3) w1 = e3 , (3) (2) G(w1 ) = 3 e2 , w1 := e7 und wenden auf die letzten beiden Vektoren wieder G an: (2) (3) G2 (w1 ) = 3 G(e2 ) = 9 e1 , G(w1 ) = G(e7 ) = e6 , also ist unsere Basis von Hau (F, 2) : (3) w1 = e3 (3) G(w1 ) = 3 e2 (3) G2 (w1 ) = 9 e1 , , , (2) w1 = e7 (2) G(w1 ) = e6 , , (1) w1 := e5 , die wir in der beschriebenen Weise anordnen. Dazu kommen noch die Basen der übrigen Haupträume, in diesem Fall die Basis (e4 ) von Hau (F, 3) . Wir setzen B := (9 e1 , 3 e2 , e3 , e6 , e7 , e5 , e4 ) und erhalten mit diesen Spalten die Transformationsmatrix T −1 := T (9 e1 , 3 e2 , e3 , e6 , e7 , e5 , e4 ) , was 1 1 = e1 , e2 , e3 , e7 , e6 , e4 , e5 9 3 77 ergibt. Damit wird T · A · T −1 = 2 0 0 − 1 2 0 − 0 1 2 − | | | + | | | − 0 0 0 − 2 0 − − −| 1 | 2 | − + | | − 0 − −| 2 | − + | − 3 , und das ist die Jordansche Normalform von A . (7.7) Aufgaben (7.1) Bestimmen Sie die Eigenwerte der folgenden Matrizen aus M (3×3, R): 3 0 −5 5 6 2 −1 0 1 A = 15 −1 0 , B = 0 −1 −8 , C = −1 3 0 . 1 1 −2 1 0 −2 −4 13 −1 Sind diese Matrizen diagonalisierbar ? Kann man Sie auf Jordansche Normalform bringen ? Geben Sie passende Basen des R3 an, bezüglich denen die transformierte Matrix diese Form hat. (7.2) Bestimmen Sie die komplexen Eigenwerte der folgenden Matrizen : 1 2 1 2 1 2 0 2 3 2 3 −2 −3 −4 , A = 0 0 −1 −1 , B = 1 1 1 0 0 2 1 cos α sin α i 1 C = ,α∈R , D = . − sin α cos α 2 3i (7.3) a) Sei K ein Körper, n ∈ N , n ≥ 2 , a1 , . . . , an−1 ∈ K . Zeigen Sie : 78 Die Matrix A := 0 0 0 . . . 0 −a0 1 0 0 . . . 0 −a1 0 1 0 . . . 0 −a2 .. .. .. .. . . . . .. .. ... . 0 . 0 . . . 0 1 −an−1 hat das charakteristische Polynom PA (X) = (−1)n (X n + an−1 X n−1 + . . . + a1 X + a0 ) . b) Geben Sie eine Matrix A ∈ M (2 × 2, Z) an mit A3 = E2 und A 6= E2 . c) K habe unendlich viele Elemente, und P (X) sei ein Polynom mit deg P (X) = n, dann gibt es unendlich viele Matrizen A ∈ M (n × n, K) mit P (A) = 0 . (7.4) Sei V ein endlichdimensionaler Vektorraum. Sei ϕ ∈ V ∗ , ϕ 6= 0 gegeben und h 6= 0 , h ∈ ker ϕ . Sei F : V −→ V die durch F (v) := v + ϕ(v) h definierte lineare Abbildung. Bestimmen Sie die Eigenwerte und die Determinante von F . (7.5) Sei R ein kommutativer Ring mit 1 . Zeigen Sie, dass für A ∈ M (2 × 2, R) gilt A2 − (trA) · A + det A · E2 = 0 , a) durch direkte Rechnung , b) für den Fall, dass R ein Körper ist, mit dem Satz von Cayley - Hamilton ! (7.6) Berechnen Sie die Minimalpolynome M (3 × 3, C) : 1 3 3 0 3 1 3 1 a) , b) −3 −3 −5 0 folgender Matrizen aus 0 γ 0 β 1 α mit α, β, γ ∈ C . (7.7) Sei n ∈ N , K ein Körper. Eine Matrix A ∈ M (n × n, K) , A 6= 0 heißt idempotent , wenn A2 = A ist. Zeigen Sie für eine idempotente 79 Matrix A : a) Es gibt ein r ∈ n mit PA (X) = (1 − X)r · (−X)n−r . b) Sei fA : K n −→ K n , fA (x) := A · x , dann gilt K n = fA (K n ) ⊕ ker fA . c) Es gibt ein S ∈ GL(n, K) , so dass Er 0 S −1 · A · S = 0 0 ist, mit dem r aus a) , und es ist r = Rg A . (7.8) Geben Sie Transformationsmatrizen T −1 ∈ GL(3, R) an, so dass (∗) B := T · A · T −1 Diagonalform hat, und rechnen Sie nach, dass (∗) gilt, für A := −1 0 0 2 2 3 a) −3 −2 −2 , b) 1 2 1 , 6 6 5 2 −2 1 −5 0 7 c) 6 2 −6 . −4 0 6 (7.9) Sei K ein Körper. Bestimmen Sie alle Eigenwerte und einen zugehörigen Eigenvektor des K−Vektorraum-Endomorphismus F : K[X] −→ K[X] , a) F (P (X)) := X · D(P (X)) , b) F (P (X)) := X 2 · D2 (P (X)) + X · D(P (X)) , für P (X) ∈ K[X] , wobei D die in Aufgabe (3.4) definierte Ableitung eines Polynoms ist. Wie viele Eigenwerte sind das α) für K = R , β) für K = Z/(5) ? (7.10) a) Sei K ein Körper mit char K 6= 2 und A ∈ M (2 × 2, K) mit A2 = E2 . Zeigen Sie: Es gilt A = E2 oder A = −E2 oder ∃ S ∈ GL(2, K) : S · A · S 80 −1 = 1 0 0 −1 . b) Zeigen Sie, dass die Aussage aus a) für K = Z/2Z nicht gilt. (7.11) Geben Sie zu den folgenden Matrizen A := 3 1 1 2 −1 2 0 4 2 0 −2 −8 a) , b) 1 −1 5 0 2 6 Transformationsmatrizen T −1 ∈ GL(3, R) an, so dass (∗) B := T · A · T −1 Jordansche Normalform hat, und rechnen Sie nach, dass (∗) gilt. 81 §8 Das Tensorprodukt 8.1 Definition und Eigenschaften (8.1.1) Vorbemerkung: Im nächsten Paragraphen brauchen wir die Komplexifizierung eines R−Vektorraums. Man kann sie zwar auch ohne das Tensorprodukt einführen, aber das wirkt dann sehr künstlich. - Wir halten uns hier an das Buch von [Fi] . Bilineare Abbildungen sind uns schon bei den Determinanten und beim Skalarprodukt begegnet. Hier müssen wir die Definition etwas allgemeiner fassen: Definition 8.1.2 : Sei K ein beliebiger Körper und seien U, V, W Vektorräume über K. Dann heißt eine Abbildung ξ : V × W −→ U K− bilinear, wenn für jedes feste v ∈ V und jedes w ∈ W die Abbildungen ξv : W −→ U , w 7−→ ξ(v, w) und ξw : V −→ U , v 7−→ ξ(v, w) K− linear sind. - Man kann nachrechnen, dass die Menge Bil(V, W ; U ) := { ξ : V × W −→ U | ξ ist K − bilinear } wieder ein K−Vektorraum ist. Beispiel 8.1.3 : Sei d ∈ N und seien V := W := K[X]d und U := K[X]2d die K−Vektorräume der Polynome in X vom Grad ≤ d bzw ≤ 2d, mit Basen (1, X, . . . , X d ) bzw. (1, X, . . . , X 2d ) und ξ : K[X]d × K[X]d −→ K[X]2d , (P, Q) 7−→ P · Q , wobei · das in 3.3.10 definierte Produkt ist, so sieht man, dass ξ bilinear ist. Es gilt ξ(X j , X k ) = X j+k , also liegt eine Basis von K[X]2d in Bild(ξ) := ξ(K[X]d × K[X]d ). Dieses Bild ist aber kein Untervektorraum von K[X]2d : Sei etwa d = 1 und K = Q, dann ist X 2 − 2 ∈ / Bild(ξ), obwohl X 2 , −2 ∈ Bild(ξ) sind, K = R, dann ist X 2 + 1 ∈ / Bild(ξ) , obwohl X 2 , 1 ∈ Bild(ξ) sind. 82 Bemerkung und Vereinbarung 8.1.4 : In Satz 4.4.10 hatten wir gesehen, dass eine lineare Abbildung durch die Funktionswerte der Elemente einer Basis eindeutig bestimmt ist. Wir wollen das auf bilineare Abbildungen übertragen. Man beachte dazu: Sind (vj )j∈J und (wl )l∈L Basen von V bzw. W , so bilden die (vj , 0), j ∈ J zusammen mit den (0, wl ), l ∈ L eine Basis von V × W , denn sei (v, w) ∈ V × W , dann sind v und w Summen X X v = αj vj und w = βl w l j∈J l∈L mit αj , βl ∈ K, wobei fast alle αj , βl Null sind: Wir wollen künftig X0 X0 v = αj vj , w = βl wl j∈J l∈L für solche endlichen Summen schreiben. Dann ist X0 X0 (v, w) = αj (vj , 0) + βk (0, wk ) , j∈J k∈L womit gezeigt ist, dass die (vj , 0), j ∈ J mit den (0, wl ), l ∈ L ein Erzeugendensystem von V × W bilden, und die lineare Unabhängigkeit ist auch klar. Dagegen ist die Familie ((vj , wl ))(j,l)∈J×L im allgemeinen weder ein Erzeugendensystem von V × W noch linear unabhängig.- Die Basiselemente (vj , 0) , j ∈ J , (0, wl ) , l ∈ L von V × W werden von jeder bilinearen Abbildung V × W −→ U auf 0 abgebildet. Durch die Funktionswerte der Elemente einer Basis von V × W kann man eine bilineare Abbildung also nicht charakterisieren. Wir erinnern uns aber an die darstellende Matrix einer symmetrischen Bilinearform aus Definition 6.3.1. Das folgende ist eine Verallgemeinerung davon: Bemerkung 8.1.5: Seien V und W Vektorräume über dem Körper K, mit Basen (vj )j∈J bzw. (wl )l∈L . Ist U ein weiterer K−Vektorraum, so gibt es zu jeder vorgegebenen Familie (ujl )(j,l)∈J×L von Elementen aus U genau eine bilineare Abbildung ξ : V × W −→ U mit ξ(vj , wl ) = ujl 83 für alle (j, l) ∈ J × L . Beweis : Sei (v, w) ∈ V × W , dann gibt es eindeutig bestimmte λj , µl ∈ K mit X0 X0 v = λj vj , w = µl w l . j∈J l∈L Wenn es ein bilineares ξ mit den geforderten Eigenschaften gibt, folgt X0 X0 X 0 X 0 ξ(v, w) = ξ( λj vj , µl w l ) = λj µl ξ(vj , wl ) = λj µl ujl j∈J l∈L j∈J,l∈L . j∈J,l∈L Damit ist gezeigt, dass es höchstens eine solche Abbildung gibt. Umgekehrt: Wir definieren ξ durch X 0 ξ(v, w) := λj µl ujl j∈J,l∈L und zeigen, dass auf diese Weise eine Abbildung von V × W nach U definiert ist, die bilinear ist. Dazu halten wir w fest. Dann sieht man, dass X0 X 0 ξw : V −→ U , v = λj vj 7−→ λj µl ujl j∈J j∈J,l∈L linear ist. Analog erhält man, dass für festes v ∈ V die Abbildung X0 X 0 ξv : W −→ U , w = µl wl 7−→ λj µl ujl l∈L j∈J,l∈L linear ist. Damit haben wir die Existenz einer solchen Abbildung gezeigt. 2 Definition 8.1.6 : Seien V und W Vektorräume über K, mit Basen (vj )j∈J bzw. (wl )l∈L . a) Im K−Vektorraum F(J × L, K) = {τ : J × L −→ K} sei V ⊗K W := { τ : J × L −→ K | ∀0 (j, l) ∈ J × L : τ (j, l) = 0 } , die Menge derjenigen τ , die ungleich 0 nur für endlich viele (j, l) sind. V ⊗K W ist ein Untervektorraum von F(J × L, K) , also ein K− Vektorraum. Man nennt V ⊗K W das Tensorprodukt der K−Vektorräume V und W , und die Elemente von V ⊗K W Tensoren. 84 b) Wir können sofort eine Basis von V ⊗K W angeben (und uns damit das Tensorprodukt besser vorstellen): Für (j, l) ∈ J × L sei vj ⊗ wl die Abbildung, die an der einzigen Stelle (j, l) den Wert 1 hat und sonst den Wert 0, dann ist (vj ⊗ wl )(j,l)∈J×L eine Basis von V ⊗K W denn für beliebiges τ ∈ V ⊗K W gilt X 0 τ = τ (j, l) vj ⊗ wl , , j∈J,l∈L also haben wir ein Erzeugendensystem. Ist X 0 τ := αjl vj ⊗ wl = 0 , j∈J,l∈L so gilt τ (j, l) = 0, da die Nullabbildung überall den Wert 0 hat, also αjl = 0 für alle (j, l). - Für endlichdimensionale V, W folgt damit dimk (V ⊗k W ) = dimk V · dimk W . c) Durch η : V × W −→ V ⊗K W , η(vj , wl ) := vj ⊗ wl wird nach Bemerkung 8.1.5 genau eine bilineare Abbildung von V × W in V ⊗K W definiert. Seien X0 X0 v = λj vj ∈ V , w = µl w l ∈ W , j∈J l∈L dann haben wir wegen der Bilinearität von η: X0 X0 X η(v, w) = η( λj vj , µl w l ) = j∈J l∈L j∈J,l∈L Wir setzen nun allgemein für v ∈ V , w ∈ W : v ⊗ w := η(v, w) . 85 0 λj µl vj ⊗ wl . Theorem 8.1.7 : Seien V und W Vektorräume über K . Dann hat das Tensorprodukt V ⊗K W , zusammen mit der in 8.1.6 c) definierten bilinearen Abbildung η : V × W −→ V ⊗K W die folgende universelle Eigenschaft : Zu jedem K−Vektorraum U zusammen mit einer bilinearen Abbildung ξ : V × W −→ U gibt es genau eine lineare Abbildung ξ⊗ : V ⊗K W −→ U mit ξ = ξ⊗ ◦ η . Man hat also das kommutative Diagramm : V ×W ξ U η ∃1 ξ⊗ V ⊗K W Beweis : Ist ein bilineares ξ : V × W −→ U gegeben, so setzen wir für gegebene Basen (vj )j∈J bzw. (wl )l∈L von V bzw. W : ujl := ξ(vj , wl ) ∈ U . Wegen der Bedingung ξ = ξ⊗ ◦ η muss ξ⊗ (vj ⊗ wl ) = ujl sein. Nach Satz 4.4.10 gibt es genau eine lineare Abbildung ξ⊗ mit dieser Eigenschaft, und es gilt ! X 0 X 0 ξ⊗ αjl (vj ⊗ wl ) = αjl ujl . j∈J,l∈L j∈J,l∈L 86 Also ist ξ⊗ (v ⊗ w) = ξ(v, w) für alle (v, w) ∈ V × W , und damit ξ⊗ ◦ η = ξ . 2 - Aus der Bilinearität von η folgen sofort die grundlegenden (8.1.8) Rechenregeln für Tensoren: Wird η : V × W −→ V ⊗k W wie in (8.1.6) definiert und ist v ⊗ w := η(v, w) , so gilt für v, v 0 ∈ V, w, w0 ∈ W und λ ∈ K: a) v ⊗ w + v 0 ⊗ w = (v + v 0 ) ⊗ w , v ⊗ w + v ⊗ w0 = v ⊗ (w + w0 ) , b) (λ v) ⊗ w = v ⊗ (λ w) = λ (v ⊗ w) . 2 (8.1.9) Beachten Sie : a) Eine beliebige Summe v ⊗ w + v 0 ⊗ w0 kann auch mit den Regeln aus (8.1.8) im alllgemeinen nicht zu einem Produkt v 00 ⊗ w00 mit v 00 ∈ V, w00 ∈ W zusammengezogen werden. Merken wir uns: Tensoren sind endliche Summen X 0 αjl (vj ⊗ wl ) , j∈J,l∈L mit αjl ∈ K , wenn man Basen (vj )j∈J von V , (wl )l∈L von W hat, bzw. k X ar ⊗ b r mit k ∈ N0 , ar ∈ V , br ∈ W . r=1 In Aufgabe (8.2) werden wir uns noch damit beschäftigen, wann man einen Tensor als Produkt a ⊗ b mit a ∈ V, b ∈ W schreiben kann. b) Die Regel b) aus (8.1.8) kann man so lesen, dass das K in V ⊗K W angibt, dass man Skalare λ aus K über das Zeichen ⊗ ziehen kann. (8.1.10) Beispiel : Sei V := W := K[X] der Vektorraum der Polynome in einer Unbestimmten über K und U := K[X1 , X2 ] der Vektorraum der Polynome in zwei Unbestimmten über K. Dann ist die Abbildung ξ : K[X] × K[X] −→ K[X1 , X2 ] , 87 (P (X), Q(X)) 7−→ P (X1 ) · Q(X2 ) bilinear (aber nicht surjektiv). Wegen der universellen Eigenschaft (8.1.7) gibt es eine lineare Abbildung ξ⊗ : K[X] ⊗K K[X] −→ K[X1 , X2 ] , X j ⊗ X l 7−→ X1j · X2l . Nun bilden die Monome X1j · X2l mit j, l ∈ N0 eine Basis von K[X1 , X2 ] , also ist ξ⊗ ein Isomorphismus. Wir hätten den Polynomring K[X1 , X2 ] also auch auf diese Weise aus K[X] konstruieren können. (8.1.11) Beispiel : Sei W ein beliebiger R−Vektorraum und V der R−Vektorraum C, mit Basis (1, i), dann haben wir die bilineare Abbildung C × W −→ C ⊗R W , (λ, w) 7→ λ ⊗ w . Sei (wj )j∈J eine Basis von W . Dann bilden die 1 ⊗ wj , i ⊗ wj , j ∈ J eine R−Basis von C ⊗R W . Jedes w∗ ∈ C ⊗R W lässt sich also in eindeutiger Weise schreiben als X0 X0 X0 X0 w∗ = αj (1 ⊗ wj ) + βj (i ⊗ wj ) = (αj + βj i) ⊗ wj = λj ⊗ wj j∈J j∈J j∈J j∈J mit αj , βj ∈ R und λj ∈ C. Nun machen wir C⊗R W zu einem C−Vektorraum durch die Abbildung ! X0 X0 C×(C⊗R W ) −→ C⊗R W , λ, λj ⊗ wj 7→ λ·λj ⊗wj . j∈J j∈J C ⊗R W wird so zu einem C−Vektorraum mit C−Basis (1 ⊗ wj )j∈J . Man nennt WC := C ⊗R W die Komplexifizierung von W . Man hat noch die R−lineare Abbildung W −→ C ⊗R W , w 7→ 1 ⊗ w . Sie ist injektiv, also ist ihr Bild 1 ⊗ W isomorph zu W . Man kann also W auffassen als reellen Untervektorraum von WC . 8.2 Symmetrische und alternierende Tensoren Das Tensorprodukt ist nicht kommutativ: Selbst wenn V = W ist, gilt für v, v 0 ∈ V im allgemeinen v ⊗ v 0 6= v 0 ⊗ v: Definition 8.2.1 : Sind V und U Vektorräume über K , so heißt eine bilineare Abbildung ξ : V × V −→ U 88 symmetrisch , wenn ∀ v, v 0 ∈ V : ξ(v, v 0 ) = ξ(v 0 , v) , und alternierend , wenn ∀ v ∈ V : ξ(v, v) = 0 gilt. Bemerkung 8.2.2 : Ist ξ alternierend, so gilt ∀ v, v 0 ∈ V : ξ(v, v 0 ) = −ξ(v 0 , v) , und wenn char K 6= 2 ist , folgt aus dieser Aussage umgekehrt, dass ξ alternierend ist. Beweis : Das folgt daraus, dass für alle v, v 0 ∈ V gilt ξ(v + v 0 , v + v 0 ) = ξ(v, v) + ξ(v 0 , v) + ξ(v, v 0 ) + ξ(v 0 , v 0 ) . 2 Definition 8.2.3 : Sei V ein K−Vektorraum, dann setzen wir S(V ) := span(v ⊗ v 0 − v 0 ⊗ v)v,v0 ∈V ⊂ V ⊗K V A(V ) := span(v ⊗ v)v∈V ⊂ V ⊗K V , . Damit kann man sehen, ob eine bilineare Abbildung symmetrisch oder alternierend ist: Lemma 8.2.4 : Für jedes bilineare ξ : V × V −→ U gilt: ξ ist symmetrisch ⇐⇒ S(V ) ⊂ ker ξ⊗ , ξ ist alternierend ⇐⇒ A(V ) ⊂ ker ξ⊗ . Beweis : Das folgt aus den Gleichungen ξ(v.v 0 ) − ξ(v 0 , v) = ξ⊗ (v ⊗ v 0 ) − ξ⊗ (v 0 ⊗ v) = ξ⊗ (v ⊗ v 0 − v 0 ⊗ v) , ξ(v, v) = ξ⊗ (v ⊗ v) . 2 Mit Hilfe der universellen Eigenschaft des Tensorprodukts beweisen wir nun die Existenz des äußeren Produkts V ∧ V : Theorem 8.2.5 : Zu jedem K−Vektorraum V gibt es einen K−Vektorraum V ∧ V zusammen mit einer alternierenden Abbildung ∧ : V × V −→ V ∧ V 89 und folgender universeller Eigenschaft: Zu jedem K−Vektorraum W zusammen mit einer alternierenden Abbildung ξ : V × V −→ W gibt es genau eine lineare Abbildung ξ∧ derart, dass das Diagramm V ×V ∧ ξ W ∃1 ξ∧ V ∧V kommutiert, d.h. es gilt ξ = ξ∧ ◦ ∧. Ist (v1 , . . . vn ) eine Basis von V , so ist vj ∧ vl := ∧(vj , vl ) mit 1 ≤ j < l ≤ n eine Basis von V ∧ V und damit dim(V ∧ V ) = n 2 = n(n − 1) 2 . Beweis : a) Sei A(V ) der in (8.2.3) definierte Untervektorraum von V ⊗K V , dann bilden wir den Quotienten-Vektorraum V ∧V := (V ⊗K V )/A(V ) . Sei ρ : V ⊗K V −→ V ∧ V der kanonische Nebenklassenepimorphismus, dann setzen wir ∧ := ρ ◦ η, wobei η in 8.1.6 c)definiert war. Für v, v 0 ∈ V ist dann also v ∧ v 0 := ∧(v, v 0 ) = ρ(η(v, v 0 )) = ρ(v ⊗ v 0 ) . Die Abbildung ∧ ist bilinear und nach Lemma 8.2.4 auch alternierend. Zum Beweis der universellen Eigenschaft betrachten wir folgendes Diagramm: 90 V ×V ξ η (∗) ξ⊗ V ⊗K V ∧ W ρ ξ∧ V ∧V Zu ξ gibt es nach Theorem 8.1.7 das eindeutig bestimmte lineare ξ⊗ , und nach dem Homomorphiesatz (4.3.11) für Vektorräume ein eindeutig bestimmtes ξ∧ mit ξ∧ ◦ ρ = ξ⊗ , wegen A(V ) ⊂ ker ξ⊗ . Nach der Definition der Abb. ∧ sind alle drei inneren Dreiecke von (∗) dann kommutative Diagramme, und damit auch das ganze Diagramm (∗). Für alle v, v 0 ∈ V gilt also ξ∧ (v ∧ v 0 ) = ξ(v, v 0 ) , ξ∧ ist also eindeutig bestimmt. b) Wir müssen nur noch die Behauptung über die Basis von V ∧ V zeigen: Da V ⊗V von den Tensoren vj ⊗vl , j, l ∈ n, erzeugt wird, erzeugen die vj ∧vl den Raum V ∧ V . Wegen vj ∧ vj = 0 und vj ∧ vl = −vl ∧ vj n bilden schon die Produkte 2 vj ∧ vl mit j < l ein Erzeugendensystem. Um zu zeigen, dass sie linear sind, ge unabhängig n ben wir eine lineare Abbildung von V ∧ V in den − dimensionalen 2 Vektorraum n N K mit N := 2 an, dessen kanonische Basis wir mit (ejl )1≤j<l≤n 91 bezeichnen. Wir konstruieren dazu eine alternierende Abbildung ξ : V × V −→ K N folgendermaßen: Seien v = n X λj vj n X 0 und v = j=1 µl vl l=1 gegebene Elemente aus V , dann nehmen wir in der Matrix λ1 . . . λn A := µ1 . . . µn die 2 × 2− Unterdeterminanten ajl := λj µl − λl µj . Dann ist durch ξ(v, v 0 ) := X ajl ejl j<l eine alternierende Abbildung gegeben. Wegen der in a) bewiesenen universellen Eigenschaft ist dann ξ∧ (vj ∧ vl ) = ξ(vj , vl ) = ejl . Hat man nun eine Gleichung X γjl vj ∧ vl = 0 mit γjl ∈ K , j<l so wendet man darauf ξ∧ an, und aus der linearen Unabhängigkeit der ejl , j < l , folgt, dass alle γjl Null sind. Die so erhaltene Abbildung ξ∧ : V ∧ V −→ K N ist also ein Isomorphismus; damit kann man sich V ∧V auch besser vorstellen. 2 Da die Abbildung ∧ alternierend ist, hat man die folgenden (8.2.6) Rechenregeln für das äußere Produkt : Für alle v, v 0 , w, w0 ∈ V und λ ∈ K gilt a) (v + v 0 ) ∧ w = v ∧ w + v 0 ∧ w , v ∧ (w + w0 ) = v ∧ w + v ∧ w0 92 , b) (λv) ∧ w = v ∧ (λw) = λ(v ∧ w) , c) v ∧ v = 0 , v ∧ v 0 = −v 0 ∧ v . 2 (8.2.7) Beachten Sie, dass wegen der Regel (8.2.6) c) das äußere Produkt V ∧ W für zwei verschiedene Vektorräume V, W keinen Sinn ergibt. 8.3 Tensoralgebra und äußere Algebra Definition 8.3.1 : Sei k ∈ N und V1 , . . . , Vk , W Vektorräume über K. Eine Abbildung ξ : V1 × . . . × Vk −→ W heißt multilinear oder k−fach linear, wenn für jedes j ∈ k und fest gewählte vl ∈ Vl , l ∈ k \ {j} die Abbildung Vj −→ W , v 7→ ξ(v1 , . . . , vj−1 , v, vj+1 , . . . , vk ) K−linear ist. 2 Analog zu Theorem 8.1.7 beweist man das Theorem 8.3.2 : Sei k ∈ N und V1, . . . , Vk , W seien K−Vektorräume. Dann gibt es einen K−Vektorraum V1 ⊗K . . . ⊗K Vk zusammen mit einer k−fach linearen Abbildung η : V1 × . . . × Vk −→ V1 ⊗K . . . ⊗K Vk , (v1 , . . . , vk ) 7→ v1 ⊗ . . . ⊗ vk so dass es zu jeder k−fach linearen Abbildung ξ : V1 × . . . × Vk −→ W genau eine lineare Abbildung ξ⊗ gibt, so dass das Diagramm 93 , ξ V1 × . . . × Vk W η ∃1 ξ⊗ V1 ⊗K . . . ⊗K Vk kommutativ wird. Sind alle Vj endlichdimensional, mit Basen (j) ) , (v1 , . . . , vr(j) j j∈k so bilden die Produkte (1) (k) vl1 ⊗ . . . ⊗ vlk mit 1 ≤ lj ≤ rj für j ∈ k eine Basis von V1 ⊗K . . . ⊗K Vk , und es ist dim V1 ⊗K . . . ⊗K Vk = dim V1 · . . . · dim Vk . 2 Bemerkung 8.3.3 : Ein wichtiger Spezialfall ist folgender: Sei V ∗ der Dualraum von V und seien p, q ∈ N0 , dann setzt man T := V ∗ ⊗K . . . ⊗K V ∗ ⊗K V ⊗K . . . ⊗K V {z } | {z } | p−mal q−mal . Ein Element von T heißt ein p−fach kovarianter und q−fach kontravarianter Tensor . In der Physik begegnet einem meist die Basisdarstellung solcher Tensoren: Sei (v1 , . . . , vn ) eine Basis von V und (v 1 , . . . , v n ) die dazu duale Basis von V ∗ . Dann ist jedes Element von T eine eindeutige Linearkombination X l ...l αj11 ...jqp v j1 ⊗ . . . ⊗ v jp ⊗ vl1 ⊗ . . . ⊗ vlq j1 ,...,jp ,l1 ,...,lq l ...l mit j1 , . . . , jp , l1 , . . . , lq ∈ n und αj11 ...jqp ∈ K . Physiker schreiben meist nur diese Koeffizienten hin, was keine Probleme ergibt, falls man von einer 94 festen Basis (v1 , . . . , vn ) ausgeht. Das ist etwa so, wie wenn man statt einer linearen Abbildung die entsprechende Matrix betrachtet. Definition 8.3.4 : a) Es kann sein, dass in der Definition 8.3.1 und in Satz 8.3.2 alle Vj , j ∈ k gleich einem V sind. Dann schreiben wir V ⊗k := V ⊗K . . . ⊗K V | {z } k−mal . b) Eine k−fach lineare Abbildung ξ : V k −→ W heißt symmetrisch , wenn für jede Permutation σ ∈ Sk gilt: ξ(v1 , . . . , vk ) = ξ(vσ(1) , . . . , vσ(k) ), alternierend , wenn ξ(v1 , . . . , vk ) = 0 ist, falls es ein Paar (j, l) ∈ k × k gibt mit j 6= l und vj = vl . 2 Analog zu (8.2.2) beweist man die Bemerkung 8.3.5 : Ist ξ alternierend und σ ∈ Sk , so gilt ξ(vσ(1) , . . . , vσ(k) ) = sign (σ) · ξ(v1 , . . . , vk ) . 2 Definition 8.3.6: Sei V ein K−Vektorraum, dann setzen wir noch V ⊗0 := K . In der direkten Summe T (V ) := V ⊗0 ⊕ V ⊗1 ⊕ V ⊗2 ⊕ . . . definieren wir ein Produkt ⊗, indem wir für v1 ⊗ . . . ⊗ vj ∈ V ⊗j , w1 ⊗ . . . ⊗ wl ∈ V ⊗l setzen: v1 ⊗ . . . ⊗ vj ⊗ w1 ⊗ . . . ⊗ wl := v1 ⊗ . . . ⊗ vj ⊗ w1 ⊗ . . . ⊗ wl , falls j, l ∈ N sind, 95 λ ⊗ w := w ⊗ λ := λw , falls λ ∈ K = V ⊗0 , w ∈ V ⊗l , l ∈ N0 ist. T (V ) mit dem so definierten Produkt heißt die Tensoralgebra von V . 2 Dass die Axiome einer K−Algebra aus Def. 4.9.2 erfüllt sind, kann man nachrechnen. Man sieht, dass T (V ) als K−Vektorraum unendlichdimensional ist. Wir verallgemeinern nun noch das äußere Produkt von zwei auf k Faktoren: Lemma 8.3.7 : Sei k ∈ N und V ein K−Vektorraum. In V ⊗k sei Ak V der Untervektorraum Ak (V ) := span(v1 ⊗ . . . ⊗ vk )∃ (j,l)∈k×k:(j6=l∧vj = vl ) , dann gilt für jedes k−fach lineare ξ : V k −→ W : ξ alternierend Ak (V ) ⊂ ker ξ⊗ ⇐⇒ . Theorem 8.3.8 : Zu einem K−Vektorraum V und einer Zahl k ∈ N gibt es einen K−Vektorraum Λk V zusammen mit einer alternierenden Abbildung ∧ : V k −→ Λk V , so dass es zu jeder alternierenden Abbildung ξ : V k −→ W genau eine lineare Abbildung ξ∧ gibt, derart dass das Diagramm ξ Vk ∧ W ∃1 ξ∧ Λk V kommutativ wird. Ist (v1 , . . . , vn ) eine Basis von V , so bilden die Produkte vj1 ∧ . . . ∧ vjk mit 1 ≤ j1 < . . . < jk ≤ n 96 eine Basis von Λk V . Damit ist dann dim Λk V = n k . Beweis : Man setzt Λk V V k/ k A (V ) := und nimmt als ∧ den kanonischen Nebenklassenepimorphismus ∧ : V k −→ V k / k A (V ) . Der Beweis, dass die vj1 ∧ . . . ∧ vjk mit 1 ≤ j1 < . . . < jk ≤ n eine Basis bilden, ist dann eine Verallgemeinerung des Beweises von Theorem n 8.2.5 : Man setzt N := und nimmt den K N mit der kanonischen Basis k ej1 ...jk Sei wj = n P 1 ≤ j1 < . . . < jk ≤ n . , λjl vl , dann nimmt man die (k × n)−Matrix A := (λjl ), und l=1 die zu den Spalten j1 , . . . , jk gebildeten (k × k)−Unterdeterminanten von A. 2 (8.3.9) Beachten Sie, dass n k = 0 ist für k > n , also Λk V = 0 für k > dim V . Definition 8.3.10 : Sei V ein K−Vektorraum, dimK V = n . Wir setzen Λ0 V := K und ΛV := Λ0 V ⊕ Λ1 V ⊕ . . . ⊕ Λn V Dann ist dimk Λ V = n X n k = 2n . . k=0 Wir definieren ein Produkt ∧ in Λ V : Für α ∈ K = Λ0 V und v1 ∧ . . . ∧ vj ∈ Λj V setzen wir α ∧ (v1 ∧ . . . ∧ vj ) := α(v1 ∧ . . . ∧ vj ) , 97 für j ∈ N0 , und für j, l ∈ N : (v1 ∧ . . . ∧ vj ) ∧ (w1 ∧ . . . ∧ wl ) := v1 ∧ . . . ∧ vj ∧ w1 ∧ . . . ∧ wl . Λ V mit dem so definierten Produkt heißt die äußere Algebra oder das Dachprodukt von V . 2 (8.3.11) Rechenregeln für das Dachprodukt : Seien j, l, k ∈ N0 , ω ∈ Λj V , σ ∈ Λl V , τ ∈ Λk V , dann gilt a) (ω ∧ σ) ∧ τ = ω ∧ (σ ∧ τ ) , b) ω ∧ σ = (−1)jl σ ∧ ω . (8.4) Aufgaben (8.1) Seien V, W Vektorräume über dem Körper K, mit Basen (v1 , . . . , vn ) bzw. (w1 , . . . , wm ) . Zeigen Sie: a) (vj ⊗ wl )(j,l)∈n×m ist eine Basis von V ⊗K W . b) ∀ v ∈ V, w ∈ W : v ⊗ w = 0 ⇐⇒ v = 0 ∨ w = 0. (8.2) V und W seien K−Vektorräume und η die kanonische Abbildung η : V × W −→ V ⊗K W , (v, w) 7→ v ⊗ w . Sei Q := η(V × W ) . Zeigen Sie: a) Q ist ein “Kegel” , d.h. es gilt: λ ∈ K, y ∈ Q =⇒ λy ∈ Q . b) Seien (v1 , . . . , vn ), (w1 , . . . , wm ) Basen von V bzw. W , dann ist ein beliebiger Tensor aus V ⊗K W eine Linearkombination y= n m X X j=1 γjl vj ⊗ wl mit γjl ∈ K . l=1 Als “reinen Tensor” bezeichnet man einen Tensor der Form a ⊗ b mit a ∈ V, b ∈ W , also eine Linearkombination n m X X j=1 αj βl vj ⊗ wl mit αj , βl ∈ K . l=1 Zeigen Sie: Obiges y ist genau dann ein reiner Tensor, wenn die Koeffizientenmatrix (γjl ) den Rang 0 oder 1 hat. c) Ist η injektiv oder surjektiv ? 98 (8.3) Für zwei K−Algebren A, B ist A⊗K B ein K−Vektorraum. Zeigen Sie: Wenn man (a ⊗ b) · (a0 ⊗ b0 ) := (a · a0 ) ⊗ (b ⊗ b0 ) für a, a0 ∈ A, b, b0 ∈ B setzt, wird A ⊗K B eine K−Algebra. (8.4) Sei V ein K−Vektorraum und T ⊃ K eine Körpererweiterung von K . Dann wird T ein K− Vektorraum, wenn man für λ ∈ K, a ∈ T λa als das Produkt λ · a in T definiert. Damit ist dann der K−Vektorraum T ⊗K V definiert. Zeige, dass T ⊗K V ein T −Vektorraum wird,, wenn man für a, b ∈ T und v ∈ V a(b ⊗ v) (a · b) ⊗ v := setzt. Wenn (vj )j∈J eine K−Basis von V und (al )l∈L eine K−Basis von T ist, wird (al ⊗ vj )(l,j)∈L×J eine K − Basis von T ⊗K V . Wenn die Dimensionen endlich sind, folgt dimK T ⊗K V = dimK T · dimK V dimT T ⊗K V = dimK V , . Die Abbildung ϕ : V −→ K ⊗K V , v 7→ 1 ⊗ v , wobei 1 das Einselement von K ist, ist ein K−Vektorraum-Isomorphismus. (Die Komplexifizierung eines R−Vektorraums in Beispiel (8.1.11) ist ein Spezialfall dieser Konstruktion.) (8.5) Seien V, W euklidische bzw. unitäre Vektorräume, mit Skalarprodukten h , iV bzw. h , iW . Zeigen Sie, dass es genau ein Skalarprodukt h , iV ⊗K W auf V ⊗K W gibt, so dass für alle v, v 0 ∈ V , w, w0 ∈ W gilt hv ⊗ w, v 0 ⊗ w0 iV ⊗K W = hv, v 0 iV · hw, w0 iW . (8.6) Analog zu Theorem 8.2.5 kann man ein symmetrisches Produkt eines K−Vektorraums V mit sich selbst definieren: Zeigen Sie: Zu V gibt es einen K−Vektorraum V ∨V zusammen mit einer symmetrischen Abbildung ∨ : V × V −→ V ∨ V , 99 die folgende universelle Eigenschaft erfüllt: Zu jedem K−Vektorraum W zusammen mit einer symmetrischen Abbildung ξ : V ×V −→ W gibt es genau eine lineare Abbildung ξ∨ derart, dass das Diagramm ξ V ×V W ∨ ∃1 ξ∨ V ∨V kommutiert. Ist (v1 , . . . , vn ) eine Basis von V , so ist durch vj ∨ vl := ∨(vj , vl ) mit j ≤ l eine Basis von V ∨ V gegeben. Damit ist n(n + 1) n+1 dim(V ∨ V ) = = 2 2 . (8.7) Bestimmen Sie die Dimension von Kern und Bild der folgenden linearen Abbildung, und geben Sie Basen von Kern und Bild an : a) f : R3 ⊗R R3 −→ R3 , v ⊗ w 7→ v × w , wobei “×” hier das Vektorprodukt bezeichne. b) Für n ∈ N: f : Rn ⊗R Rn −→ R , v ⊗ w 7→ hv, wi . (8.8) Sei V ein K−Vektorraum, char K 6= 2 und V ∗ sein Dualraum. Sei k ∈ N und seien ϕ1 , . . . , ϕ k ∈ V ∗ , v1 , . . . , vk ∈ V . Dann definiert man (ϕ1 ∧ . . . ∧ ϕk )(v1 , . . . , vk ) := det(ϕj (vl ))(j,l)∈k×k Sei nun V ein vierdimensionaler K−Vektorraum mit Basis (e1 , e2 , e3 , e4 ) und dazu dualer Basis (η1 , η2 , η3 , η4 ) von V ∗ . 100 (i) Sind die Vektoren x1 = e1 ∧e2 ∧e4 +e2 ∧e1 ∧e3 , x2 = e2 ∧e4 ∧e3 −e1 ∧e4 ∧e3 , x3 = e2 ∧e1 ∧e4 linear unabhängig in Λ3 V ? (ii) Berechnen Sie den Wert der 2-Form (η1 − η3 ) ∧ (η2 + η4 ) auf dem Element (e1 − e3 , e2 + e4 ) ∈ V × V . (8.9) Im R3 mit der kanonischen Basis (e1 , e2 , e3 ) sei (η1 , η2 , η3 ) die dazu duale Basis in (R3 )∗ . Zeigen Sie mit der Def. aus Aufgabe (8.8), dass für a, b ∈ R3 (η2 ∧ η3 , η3 ∧ η1 , η1 ∧ η2 )(a, b) das Vektorprodukt von a und b ist . 101 = a×b §9 Endomorphismen von Vektorräumen mit Skalarprodukt Vorbemerkung: Vielleicht ist Ihnen aufgefallen, dass wir in §6 überhaupt noch keine “strukturerhaltenden Abbildungen” definiert haben. Das wollen wir jetzt nachholen, und die Ergebnisse aus §7 werden uns die Arbeit erleichtern. 9.1 Orthogonale und unitäre Endomorphismen Unter den Endomorphismen eines Vektorraums mit Skalarprodukt wollen wir insbesondere diejenigen untersuchen, die Längen zwischen den Vektoren und Winkel zwischen ihnen nicht verändern: Definition 9.1.1 : Sei V ein K−Vektorraum mit einem Skalarprodukt s , K = R oder C. Eine lineare Abbildung F ∈ HomK (V, V ) heißt eine Isometrie (für K = R auch orthogonale , für K = C auch unitäre lineare Abbildung), wenn ∀ v, w ∈ V : s(F (v), F (w)) = s(v, w) gilt. Bemerkung 9.1.2 : Sei V ein K−Vektorraum mit Skalarprodukt s , p V 6= {0} , k k die durch kvk := s(v, v) definierte Norm und F ∈ EndK V orthogonal bzw. unitär. Dann gilt a) ∀ v ∈ V : kF (v)k = kvk . b) Ist λ ein Eigenwert von F , so ist |λ| = 1 . c) ∀ v, w ∈ V : (v⊥w ⇐⇒ F (v)⊥F (w)) . d) F ist injektiv. e) Ist F bijektiv, so ist F −1 wieder eine Isometrie. f) Ist V endlichdimensional, so ist F bijektiv. Beweis : a) und c) sind triviale Folgerungen aus Definition 9.1.1. b) Sei v 6= 0 und λ ∈ K , und es gelte F (v) kvk = = λv kF (v)k , dann folgt nach a) : = kλ vk = |λ| · kvk und wegen kvk = 6 0 : |λ| = 1 . d) Sei v ∈ ker F , dann ist F (v) = 0 , also 0 = kF (v)k a) = kvk , 102 also v = 0 . Nach Bemerkung 4.3.4 ist F injektiv. e) Ist F bijektiv, so hat man die - ebenfalls lineare - Umkehrfunktion F −1 : V −→ V , und es gilt ∀ v, w ∈ V : s(F −1 (v), F −1 (w)) = s(F (F −1 (v)), F (F −1 (w))) = s(v, w) , also ist auch F −1 eine Isometrie. f) Nach der Dimensionsformel (Satz 4.3.13) gilt dim F (V ) = dim V − dim ker F d) = dim V , also F (V ) = V , und damit ist F sogar surjektiv. 2 Bemerkung 9.1.3 : Wir interessieren uns für die Matrizen, die ein orthogonales bzw. unitäres F beschreiben. Man hat sie nur für endlichdimensionales V , und in diesem Fall ist F ein Automorphismus, also für jede Basis B von V : MBB (F ) invertierbar. Nach dem Orthonormalisierungssatz findet man sogar eine Orthonormalbasis B von V : Sei B = (v1 , . . . , vn ) eine Orthonormalbasis von V , dann gilt ∀ j, k ∈ n : δjk = s(vj , vk ) = s(F (vj ), F (vk )) ! n n n X X X arj alk s(vr , vl ) = s arj vr , alk vl = r=1 r,l=1 l=1 n X n X arj alk δrl = r,l=1 alj alk . l=1 Zu A := (alk ) sei A := (alk ) , dann gilt also t A · A = En , bzw. wenn wir die Transponierte dieses Produkts bilden: t A · A = En , A−1 = t A , 103 also auch A ·t A = En : Definition 9.1.4 : Sei n ∈ N . Eine Matrix a) A ∈ GL(n, R) heißt orthogonal , falls A−1 = t A , b) A ∈ GL(n, C) heißt unitär , falls A−1 = t A ist. 2 Bewiesen haben wir in Bemerkung 9.1.3 Teile von Satz 9.1.5 : Sei V ein euklidischer bzw. unitärer K−Vektorraum, dimK V < ∞, und B eine Orthonormalbasis von V . Dann gilt F ist orthogonal (bzw. unitär) ⇐⇒ MBB (F )ist orthogonal (bzw. unitär) Bewiesen haben wir in 9.1.3: “ Rechnung in 9.1.3: Ist =⇒ . ”, aber “ ⇐= ” folgt auch aus der MBB (F ) orthogonal (bzw.unitär), so gilt, wenn B = (v1 , . . . , vn ) ist: s(vj , vk ) = s(F (vj ), F (vk )) für alle j, k ∈ n , und damit auch für alle Linearkombinationen von (v1 , . . . , vn ): s(v, w) = s(F (v), F (w)) . 2 Definition und Satz 9.1.6 : Die Mengen O(n) := { A ∈ GL(n, R) | A−1 = t A } , SO(n) := { A ∈ O(n) | det A = 1 } und U(n) := A ∈ GL(n, C) | A−1 = t A sind bezüglich der Matrizenmultiplikation Gruppen. Sie heißen orthogonale, spezielle orthogonale bzw. unitäre Gruppe. Beweis : a) Nach Definition ist U(n) ⊂ GL(n, C), und En−1 = En = En = t En , also En ∈ U(n) , also U(n) 6= ∅. Für A, B ∈ U (n) ist t (*) (A · B −1 ) = t (A·B −1 ) = t (B −1 )·t (A) = (t B)−1 ·t A = (B −1 )−1 ·A−1 = (A·B −1 )−1 104 , also A·B −1 ∈ U(n) . Also ist U(n) eine Untergruppe von GL(n, C). Überlegen Sie sich, warum die Gleichung (∗) gilt ! b) Lässt man in a) überall weg, so erhält man den Beweis, dass O(n) eine Untergruppe von GL(n, R) ist. c) SO(n) ⊂ O(n) gilt nach Definition, und En ∈ SO(n) . Für A, B ∈ SO(n) gilt det(A · B −1 ) = det A · (det B)−1 = 1 · 1 = 1 , also A · B −1 ∈ SO(n). 2 Bemerkung 9.1.7 : Für orthogonale bzw. unitäre Matrizen A gilt t A · A = En , also 1 = det(t A) · det A = det A · det A = | det A |2 , also | det A | = 1 . In R gibt es für det A also nur die beiden Möglichkeiten det A = 1 oder det A = −1 , also ist O(n) = SO(n) ∪ { A ∈ O(n) | det A = −1 } Bemerkung 9.1.8 : Sei n ∈ N . Aussagen gleichbedeutend: . Für ein A ∈ M (n × n, K) sind folgende (i) A ist orthogonal bzw. unitär. (ii) Die Spalten von A bilden eine Orthonormalbasis des Kn mit dem kanonischen Skalarprodukt h , i . (iii) Die Zeilen von A bilden eine Orthonormalbasis des Kn mit dem kanonischen Skalarprodukt h , i . Beweis : (ii) =⇒ (i) : Für die Spalten aj von A gilt haj , ak i = δjk n X alj alk = δjk , , also t also t (aj ) · ak = δjk A · A = En , t , (A) · A = En l=1 (iii) =⇒ (i) : Für die Zeilen aj von A gilt haj , ak i = δjk , also aj ·t ak = δjk 105 , . n X ajl akl = δjk also A ·t A = En , . l=1 (i) =⇒ (ii),(iii) : Für orthogonales bzw. unitäres A ist | det A| = 1 , also det A 6= 0 , also bilden die Spaltenvektoren von A eine Basis von Kn , die Zeilenvektoren auch. Aus t A · A = En folgt haj , ak i = δjk , und aus A ·t A = En folgt haj , ak i = δjk , für j, k ∈ n . 2 (9.1.9) O(n) für n ≤ 3: Für n = 1 ist GL(1, R) = { (a) | a 6= 0 } O(1) = {±E1 } , n = 2 und A = , also SO(1) = {E1 } . Sei nun a c b d 2 Nach Bemerkung 9.1.8 (ii) gilt a + b ∈ O(2) . 2 = a b a , = 1 , also b |a| ≤ 1 . Wir können also α0 := arccos a setzen, dann ist cos α0 = a und α0 ∈ [0, π]. Es ist b2 = 1 − a2 = 1 − cos2 α0 = sin2 α0 b = ± sin α0 , also . Ist b = sin α0 , so setzen wir α := α0 . Ist b = − sin α0 , so ist b = sin(−α0 ) , a = cos α0 = cos(−α0 ) , wir setzen nun α := −α0 ∈ [−π, 0] , und haben in jedem Fall ein α ∈ [−π, π] mit a = cos α , b = sin α . c c c a c Für folgt aus , = 0 und , = 1: d b d d d c −b c b = oder = . d a d −a 106 Im ersten Fall haben wir cos α − sin α (1) A = sin α cos α mit α ∈ [−π, π] , und das liegt in SO(2) , und im 2.Fall: cos α sin α (2) A = mit α ∈ [−π, π] , sin α − cos α und das liegt in O(2)\ SO(2) . Wir sehen: x1 (1) Für A ∈ SO(2) und x = ∈ R2 ist x2 cos α · x1 − sin α · x2 A·x = sin α · x1 + cos α · x2 der um den Winkel α gedrehte Vektor x . R2 . Es ist A beschreibt eine Drehung des PA (X) = (X − cos α)2 + sin2 α = X 2 − 2 cos α · X + 1 , und das hat reelle Nullstellen nur für cos α = ±1 , also α ∈ {0, ±π}. Das ist anschaulich klar: Nur bei einer Drehung um 0o oder 180o gibt es Geraden durch den Nullpunkt, die von der Drehung fest gelassen werden. (2) Für A ∈ O(2)\ SO(2) hat man PA (X) = (cos α − X)(− cos α − X) − sin2 α = X 2 − 1 = (X − 1)(X + 1) , wir haben die Eigenwerte ±1 und dazu die Eigenvektoren sin α zum Eigenwert 1 : v = , 1 − cos α cos α − 1 zum Eigenwert −1 : w = . sin α Es gilt hv, wi = 0 , w wird von A auf sein Negatives und v auf sich selbst abgebildet. A beschreibt eine Spiegelung des R2 an der zu w senkrechten Geraden R · v . Sei nun n = 3 : Ist F : R3 −→ R3 orthogonal, so hat das charakteristische Polynom PF den Grad 3, und damit, wie man aus der Analysis (Zwischenwertsatz!) weiß, mindestens eine Nullstelle λ1 ∈ R. Nach Bemerkung 9.1.2 b) ist 107 |λ1 | = 1 , also λ1 = ±1. Dazu haben wir einen Eigenvektor w1 6= 0, von dem wir auch noch annehmen können, dass er normiert ist, kw1 k = 1 . Nach dem Orthonormalisierungssatz können wir w1 ergänzen zu einer Orthonormalbasis B = (w1 , w2 , w3 ) des R3 . Sei W := span(w2 , w3 ) , so ist W die zu w1 senkrechte Ebene durch 0, und nach Bemerkung 9.1.2 c) stehen F (w2 ), F (w3 ) senkrecht auf F (w1 ) = λ1 w1 = ±w1 F (W ) ⊂ W , also gilt . Also hat MBB (F ) die Form λ1 | 0 0 −− + −− −− −− 0 | A := | A0 0 | , und es ist ±1 = det A = λ1 · det A0 = (±1) · det A0 , also det A0 = ±1 , und wegen A ∈O(3) : A0 ∈ O(2). Nun unterscheiden wir drei Fälle : Sei det F = 1 , λ1 = −1 , dann ist det A0 = −1 . A0 und damit A hat die Eigenwerte λ2 = 1 und λ3 = −1 , und man kann w2 und w3 als normierte Eigenvektoren von A zu diesen Eigenwerten wählen. Bezüglich dieser Basis (w1 , w2 , w3 ) wird −1 0 0 A = 0 1 0 . Sei 0 0 −1 det F = 1 , λ1 = +1 , so ist det A0 = +1 , also gibt es ein α ∈ [−π, π] mit 1 0 0 A = 0 cos α − sin α . 0 sin α cos α 108 Im Fall det F = 1 hat F also in jedem Fall einen Eigenwert 1 . Ist det F = −1 , so kann man w1 , w2 , w3 so wählen, dass F bezüglich B = (w1 , w2 , w3 ) die Matrix 1 0 0 A = MBB (F ) = 0 1 0 hat, oder 0 0 −1 −1 0 0 A = 0 cos α − sin α mit α ∈ [−π, π] . 0 sin α cos α 2 Für n = 2 hatten wir alle Matrizen A ∈ O(2) bestimmt. Für n = 3 haben wir uns nur überlegt, wie die Matrix A eines orthogonalen F ∈ EndR R3 bezüglich einer passenden Basis aussieht, d.h. hier haben wir nur Normalformen von Matrizen aus O(3) bestimmt. Das machen wir nun für beliebiges n , wobei der Fall K = C leichter geht, da man in C den Fundamentalsatz der Algebra hat : Theorem 9.1.10 : Sei V ein unitärer Vektorraum, dimC V = n ∈ N0 und F ein unitärer Endomorphismus von V . Dann besitzt V eine Orthonormalbasis, die aus Eigenvektoren von F besteht. Insbesondere ist F diagonalisierbar. Beweis durch Induktion nach n = dim V : Für n = 0 ist nichts zu beweisen. Sei nun n ∈ N. Nach dem Fundamentalsatz der Algebra (3.5.13) zerfällt jedes Polynom aus C[X] in Linearfaktoren. Insbesondere gibt es λ1 , . . . , λn ∈ C mit PF (X) = (−1)n (X − λ1 ) · . . . · (X − λn ) , und λ1 , . . . , λn sind die Eigenwerte von F . Sei s das Skalarprodukt in V . Zu λ1 können wir einen Eigenvektor v1 mit k v1 k = 1 finden. Sei W das orthogonale Komplement zu Cv1 (siehe Aufgabe 6.5), d.h. W := { w ∈ V | s(v1 , w) = 0 } . Wir behaupten nun: (∗) F (W ) = W . Beweis von (∗) : Nach Bemerkung 9.1.2 e) ist F ein Isomorphismus, also bildet F linear unabhängige Vektoren ab auf linear unabhängige Vektoren. Es genügt also, zu zeigen: F (W ) ⊂ W 109 , denn wenn (w1 , . . . , wk ) eine Basis von W ist, ist (F (w1 ), . . . , F (wk )) linear unabhängig, also eine Basis von W , und damit W = span(F (w1 ), . . . , F (wk )) = F (W ) . Sei also w ∈ W . Es ist F (v1 ) = λ1 v1 mit |λ1 | = 1, also λ1 6= 0. Es gilt also s(v1 , F (w)) = 1 1 1 1 s(λ1 v1 , F (w)) = s(F (v1 ), F (w)) = s(v1 , w) = ·0 = 0, λ1 λ1 λ1 λ1 also F (w) ∈ W , womit dann (∗) bewiesen ist. Nun setzen wir G := F W : W −→ W . W ist mit sW ×W auch wieder ein unitärer Vektorraum, dim W = n − 1 nach dem Orthonormalisierungssatz, und G ist ein unitärer Endomorphismus auf W . Auf G und W können wir die Induktionsvoraussetzung anwenden: Es gibt eine Orthonormalbasis (v2 , . . . , vn ) von W , bestehend aus Eigenvektoren von G , also G(vj ) = λj vj mit λj ∈ C , also auch für j ∈ {2, . . . , n} . F (vj ) = λj vj Nach Definition von W stehen die vj , j ∈ {2, . . . , n}, auf v1 senkrecht, also ist (v1 , . . . , vn ) eine Orthonormalbasis von V , bestehend aus Eigenvektoren von F . 2 Für Matrizen erhält man daraus das Korollar 9.1.11 : Sei n ∈ N . Zu jedem A ∈U(n) gibt es ein S ∈U(n) mit λ1 0 t ... S·A·S = , 0 λn wobei die λj ∈ C sind mit |λj | = 1 für j ∈ n . Beweis : Sei F : Cn −→ Cn , F (x) := A = MKK (F ) , 110 A·x , dann ist wobei K die kanonische Basis des Cn ist. K ist eine Orthonormalbasis des Cn mit dem kanonischen Skalarprodukt h , i , also ist F ein unitärer Endomorphismus des Cn nach Satz 9.1.5. Nach Theorem 9.1.10 gibt es nun eine Orthonormalbasis (v1 , . . . , vn ) des Cn = B mit h , i , die aus Eigenvektoren von F besteht : ∃ λ1 , . . . , λn ∈ C ∀ j ∈ n : (F (vj ) = λj vj ∧ |λj | = 1 ) , letzteres nach Bemerkung 9.1.2 b). Also ist λ1 0 .. B := MBB (F ) = . 0 λn , und nach der Transformationsformel (4.4.17) für lineare Abbildungen gilt MBB (F ) = S −1 · MKK (F ) · S S , also B S −1 · A · S = , mit MBK (idCn ) ∈ GL(n, C) , := also nach den Formeln in Bemerkung 4.4.16 : vj n X = skj ek S = (skj ) mit . k=1 Da sowohl B als auch K Orthonormalbasen von Cn sind, gilt für r, j ∈ n : δrj = hvr , vj i = h n X slr el , l=1 = n X slr skj hel , ek i = l,k=1 t S·S = n X , slr skj δlk = = n X skr skj , also k=1 also S −1 also S ∈ U(n) , B skj ek i k=1 l,k=1 En n X t S·A·S = t S , . 2 Bemerkung 9.1.12 : a ) Wie man zu gegebenem unitären F eine Orthonormalbasis aus Eigenvektoren ausrechnet, ist klar: Man berechnet die Eigenwerte, dazu die Eigenräume, und man muss Basen dieser Eigenräume noch 111 orthonormalisieren. b) Eine orthogonale Abbildung eines euklidischen Vektorraums kann man nicht in jedem Fall diagonalisieren. Wir haben schon in den Fällen n = 2, 3 gesehen: Es können Kästchen der Form cos α − sin α sin α cos α in der Diagonale auftreten. Der folgende Satz sagt, dass aber auch nichts Schlimmeres passieren kann: Theorem 9.1.13 : Sei V ein euklidischer Vektorraum, dimR V = und F ein orthogonaler Endomorphismus von V . Dann besitzt V thonormalbasis B derart, dass 1 .. . 1 0 −1 ... MBB (F ) = −1 0 A1 .. . Ak n ∈ N0 , eine Or ist, wobei für j ∈ k cos ϑj − sin ϑj Aj = ∈ SO(2) ist mit ϑj ∈ (0, 2π) \ {π} . sin ϑj cos ϑj F ist also charakterisiert durch die Anzahl r der Eigenwerte +1 , die Anzahl s der Eigenwerte −1, sowie die Winkel ϑ1 , . . . , ϑk , wobei r + s + 2k = dim V ist. - Zum Beweis brauchen wir das folgende Lemma, bei dem gar nicht benutzt wird, dass V ein Skalarprodukt hat: Lemma 9.1.14 : Sei V ein R-Vektorraum mit dimR V = n und F ∈ EndR V . Dann gibt es einen Untervektorraum W von V mit F (W ) ⊂ W und 1 ≤ dim W ≤ 2 . 112 Beweis : Wir benutzen den Fundamentalsatz der Algebra: In C[X] zerfällt das charakteristische Polynom n X PF (X) = αj X j ∈ R[X] in Linearfaktoren j=0 PF (X) = (−1)n n Y (X − λk ) mit λk ∈ C . k=1 Es kann sein, dass eins der λk , etwa λ1 , in R liegt, dann hat F einen reellen Eigenwert λ1 und dazu einen Eigenvektor v1 ∈ V \ {0} , und für W := Rv1 gilt F (W ) ⊂ W , dim W = 1 . Nun seien alle λ ∈ {λ1 , . . . , λk } ∈ C \ R . Dann ist λ 6= λ, PF (λ) = n X j=0 j αj λ = n X j αj λ = j=0 n X αj λj = PF (λ) = 0 = 0 , j=0 wegen αj ∈ R. Also sind λ und λ 6= λ Nullstellen von PF (X) in C, und in PF (X) hat man den “ quadratischen Faktor” (X − λ) · (X − λ) = X 2 − (λ + λ)X + λλ = X 2 − 2 Re(λ)X + |λ|2 , der in R[X] liegt. Also ist n = 2m gerade, man hat in R[X] : PF (X) = m Y Ql (X) mit Ql (X) := X 2 + bl X + cl ∈ R[X] , bl , cl ∈ R . l=1 Sei v ∈ V \ {0} beliebig, dann gilt nach Cayley-Hamilton : 0 = PF (F )(v) = (Q1 (F ) ◦ . . . ◦ Qm (F ))(v) . Es gibt also ein eindeutig bestimmtes j ∈ m mit w := (Qj+1 (F ) ◦ . . . ◦ Qm (F ))(v) 6= 0 und Qj (F )(w) = 0 (wobei w := v gesetzt wird, falls j = m ist). Wir setzen W := span(w, F (w)) , dann ist F (w) ∈ W , und aus Qj (F )(w) = 0 folgt, wenn Qj (X) = X 2 + bj X + cj ist: F (F (w)) + bj F (w) + cj w = 0 , 113 also auch F (F (w)) ∈ span(w, F (w)) = W . Also gilt F (W ) ⊂ W . Da F keinen Eigenwert hat, ist (w, F (w)) linear unabhängig, also dim W = 2. 2 Beweis von Theorem 9.1.13 durch Induktion nach n := dim V : Für n = 0 ist nichts zu beweisen. Sei n ∈ N, und für n − 1 sei der Satz richtig. Nach Lemma 9.1.14 gibt es einen Untervektorraum W von V mit 1 ≤ dim V ≤ 2 und F (W ) ⊂ W . F ist orthogonal, also nach Bemerkung 9.1.2 d) injektiv, also ist für eine Basis (w1 ) bzw. (w1 , w2 )von W auch (F (w1 )) bzw. (F (w1 ), F (w2 )) linear unabhängig, also dim F (W ) = dim W , also F (W ) = W . Nach Bemerkung 9.1.2 e) haben wir die ebenfalls orthogonale Umkehrfunktion F −1 : V −→ V . Sei W ⊥ := { v ∈ V | ∀ w ∈ W : s(w, v) = 0 } , wobei s das Skalarprodukt in V ist, dann gilt für w ∈ W und v ∈ W ⊥ : s(F (v), w) = s(F −1 (F (v)), F −1 (w)) = s(v, F −1 (w)) = 0 wegen F −1 (W ) ⊂ W , also gilt F (W ⊥ ) = W⊥ . Wir haben also zwei orthogonale Abbildungen G := F W : W −→ W und H := F W ⊥ : W ⊥ −→ W ⊥ . Wegen dim W ≥ 1 ist dim W ⊥ ≤ dim V − 1 , also können wir auf W ⊥ die Induktionsvoraussetzung anwenden: W ⊥ hat eine Basis B0 der gewünschten Art. a) Es gebe einen 1-dimensionalen Untervektorraum W von V mit F (W ) ⊂ W , also W = span(v) mit v 6= 0, dann ist v ein Eigenvektor von F , zu einem Eigenwert, der nach Bemerkung 9.1.2 b) gleich 1 oder −1 ist. Und umgekehrt gilt: Hat F einen Eigenwert, so ist er ±1 , und für einen Eigenvektor v dazu ist F (Rv) ⊂ Rv . Man fügt dieses v zur Basis B0 hinzu, an passender Stelle, so dass der Eigenwert ±1 an die richtige Stelle in der Matrix MBB (F ) kommt, dann hat die so gefundene Basis B die gewünschten Eigenschaften. 114 b) F habe keine Eigenwerte, es gebe also keine 1-dimensionalen Untervektorräume, die von F in sich abgebildet werden. Sei dann W ein Untervektorraum von V mit dim W = 2 und F (W ) ⊂ W , so gibt es nach 9.1.9 (n = 2) eine Orthonormalbasis A = (v1 , v2 ) von W , bezüglich der MAA (G) die Form cos ϑ − sin ϑ ∈ SO(2) sin ϑ cos ϑ mit ϑ ∈ (−π, π) oder ϑ ∈ (0, 2π) hat, aber nicht ϑ = 0 oder π, da F keine Eigenwerte hat. Man füge (v1 , v2 ) am Schluss zur Basis B0 hinzu, dann hat MBB (F ) die gewünschte Form . 2 Wie bei Satz 9.1.10 kann man auch hier eine Formulierung für Matrizen angeben: Korollar 9.1.15 : Sei n ∈ N. Zu jedem A ∈ O(n) gibt es ein S ∈O(n) mit 1 .. . 1 0 −1 ... t S·A·S = , −1 A1 0 .. . Ak ist, wobei für j ∈ k cos ϑj − sin ϑj Aj = ∈ SO(2) ist mit ϑj ∈ (0, 2π) \ {π} . sin ϑj cos ϑj Der Beweis ist analog zu dem von Korollar 9.1.11. 2 9.2 Selbstadjungierte Endomorphismen Sie sind auch deshalb interessant, weil ihre Matrizen symmetrisch bzw. Hermitesch sind, und wir wollen wissen, ob solche Matrizen diagonalisierbar sind: 115 Definition 9.2.1 : Sei V ein K−Vektorraum mit Skalarprodukt s , K = R oder C. Ein Endomorphismus F von V heißt selbstadjungiert , wenn ∀ v, w ∈ V : s(F (v), w) = s(v, F (w)) ist, d.h. man kann F genauso gut an das 1.Argument wie an das 2.Argument schreiben. Satz 9.2.2 : Sei V ein K−Vektorraum mit Skalarprodukt s , dimK V = n ∈ N und B eine Orthonormalbasis von V . Dann gilt: F selbstadjungiert ⇐⇒ MBB (F ) ist symmetrisch ( für K = R ) bzw. MBB (F ) ist Hermitesch ( für K = C ) . Beweis : Sei B = (v1 , . . . , vn ) und A := MBB (F ) , ∀ k ∈ n : F (vk ) = n X dann gilt ajk vj , also : j=1 F selbstadjungiert ⇐⇒ ∀ l, k ∈ n : s(F (vl ), vk ) ∀ l, k ∈ n : n X ajl s(vj , vk ) = = j=1 ∀ l, k ∈ n : ajl δjk ∀ l, k ∈ n : akl = t A ⇐⇒ n X ⇐⇒ ajk s(vl , vj ) ⇐⇒ j=1 n X = j=1 A s(vl , F (vk )) n X ajk δlj ⇐⇒ j=1 = alk ⇐⇒ A ist symmetrisch bzw. Hermitesch. 2 Lemma 9.2.3 : a) Ist F ∈ EndK V selbstadjungiert, so sind (auch für K = C) alle Eigenwerte von F reell. b) Ist n ∈ N und A ∈ M (n × n, K) symmetrisch bzw. Hermitesch, so sind alle Eigenwerte von A reell. Beweis : a) Sei F (v) = λv mit v 6= 0 , so gilt λs(v, v) = s(λv, v) = s(F (v), v) = s(v, F (v)) = λs(v, v) , 116 also λ = λ . b) Wir nehmen den Kn mit dem kanonischen Skalarprodukt. Allgemein gilt für v = t (v1 , . . . , vn ) , w = t (w1 , . . . , wn ) ∈ Kn : + * n ! n X X ,w = hA · v, wi = alj vj wl alj vj j=1 * = v, n X l,j=1 l∈n ! + alj wl l=1 = hv,t A · wi , j∈n also für symmetrisches bzw. Hermitesches A : hA · v, wi = hv, A · wi , und wenn A · v = λv ist, mit v 6= 0 , dann folgt λhv, vi = hλv, vi = hAv, vi = hv, Avi = hv, λvi = λhv, vi , also λ = λ . 2 Natürlich folgt b) auch aus a) mit Satz 9.2.2, aber es ist gut, die Rechnung konkret für Matrizen gesehen zu haben. Theorem 9.2.4 : F sei ein selbstadjungierter Endomorphismus eines K− Vektorraums V mit Skalarprodukt s , dimK V = n ∈ N. Dann gibt es eine Orthonormalbasis B von V , die aus Eigenvektoren von F besteht. Beweis : Sei K = C . Dann können wir den Fundamentalsatz der Algebra anwenden: Es gibt λ1 , . . . , λn ∈ C mit PF (X) = (−1)n (X − λ1 ) · . . . · (X − λn ) . Die λj , j ∈ n, sind die Eigenwerte von F , also nach Lemma 9.2.3: λj ∈ R für alle j ∈ n . Nun machen wir Induktion nach n : Für n = 1 haben wir einen Eigenvektor v1 zum Eigenwert λ1 , und wir können k v1 k = 1 erreichen. Sei nun n ≥ 2 , und für n − 1 sei der Satz richtig. Sei dim V = n , dann wählen wir zu λn einen Eigenvektor vn mit k vn k = 1 und setzen W := { w ∈ V | s(vn , w) = 0 } 117 . Es gilt F (W ) ⊂ W , denn für w ∈ W gilt s(vn , F (w)) = s(F (vn ), w) = λn s(vn , w) = 0 . F W ist auch wieder selbstadjungiert, F W ∈ EndK W , und nach Induktionsvoraussetzung gibt es eine Orthonormalbasis (v1 , . . . , vn−1 ) von W , die aus Eigenvektoren von F W , also aus Eigenvektoren von F , besteht. Dann ist (v1 , . . . , vn−1 , vn ) eine Basis von V aus Eigenvektoren von F . b) Für K = R geht der Beweis genau so, wenn man sich zuvor überlegt, dass auch in diesem Fall das charakteristische Polynom PF (X)in Linearfaktoren zerfällt. Dazu wählen wir uns eine beliebige Orthonormalbasis B von V . Nach Satz 9.2.2 ist A := MBB (F ) ∈ M (n × n, R) symmetrisch. Nun ist M (n × n, R) ⊂ M (n × n, C) , und als Matrix in M (n × n, C) ist A auch hermitesch. Nach a) zerfällt PA (X) in C in Linearfaktoren: PA (X) = (−1)n (X − λ1 ) · . . . · (X − λn ) , wobei wir wissen: λ1 , . . . , λn ∈ R. Nun ist PF (X) = PA (X) . 2 Bemerkung 9.2.5 : Wenn man sich genau überlegt, was man bei b) gemacht hat, ist es Folgendes: Wir haben die Matrix A ∈ M (n×n, R) aufgefasst als Matrix eines Endomorphismus FC der Komplexifizierung VC = C ⊗R V des R−Vektorraums V . Die Komplexifizierung VC von V haben wir in (8.1.11) eingeführt. Nimmt man sich eine R−Basis (vj )j∈J von V , so ist (1 ⊗ vj )j∈J eine C−Basis von VC . Damit hat man bei endlicher Dimension dimC VC = dimR V , dimR VC = 2 · dimR V denn die 1 ⊗ vj , i ⊗ vj , j ∈ J , bilden eine R−Basis von VC . 118 , a) Das Skalarprodukt s von V kann man durch sC (a ⊗ v , b ⊗ w) := a b · s(v, w) für a, b ∈ C , v, w ∈ V auf VC fortsetzen. Das kann man direkt nachrechnen, es folgt aber auch aus Aufgabe 8.5, denn a b für a, b ∈ C ist das kanonische Skalarprodukt auf C1 . b) Sei F ∈ EndR V . Dann kann man F fortsetzen zu einem C−Endomorphismus FC : VC −→ VC durch FC (a⊗v) := a⊗F (v) für a ∈ C , v ∈ V Die C−Linearität von FC kann man nachrechnen, und FC ist eine Fortsetzung von F , wenn man R ⊗R V mit V , also 1 ⊗ v mit v identifiziert: FC (v) = FC (1 ⊗ v) = 1 ⊗ F (v) = F (v) . c) Hat nun V ein Skalarprodukt s und ist F selbstadjungiert, so gilt für a, b ∈ C , v, w ∈ V : sC (FC (a ⊗ v), b ⊗ w) = sC (a ⊗ F (v), b ⊗ w) = a b · s(F (v), w) = ab · s(v, F (w)) = sC (a ⊗ v, b ⊗ F (w)) = sC (a ⊗ v, FC (b ⊗ w)) . Also ist auch FC selbstadjungiert. d) Sei nun V endlichdimensional, B = (v1 , . . . , vn ) eine R−Basis von V und F ∈ EndR V , mit der durch F (vj ) = n X alj vl l=1 definierten n × n−Matrix A = (alj ) ∈ M (n × n, R). Dann gilt für FC : VC −→ VC : n n X X FC (1 ⊗ vj ) = 1 ⊗ F (vj ) = 1 ⊗ alj vl = alj (1 ⊗ vl ) . l=1 l=1 Bezüglich der C-Basis C := (1 ⊗ vj )j∈J von VC gilt also MCC (FC ) = A = MBB (F ) . Insofern ist das, was wir beim Beweis, Teil b), vom Theorem 9.2.4 gemacht haben, durchaus gerechtfertigt. 119 . Beachten Sie bitte, dass wir alle Definitionen für Tensorprodukte (in a), b), c) ) nur für die erzeugenden Tensoren mit nur einem Summanden hingeschrieben haben, und dass die Elemente des Tensorprodukts endliche Summen solcher “reinen” Tensoren sind. Bei a) und b) muss man sich auch noch mit Hilfe der Definition des Tensorprodukts überlegen, dass FC und sC wohldefiniert sind, d.h. wenn man a⊗v mit a ∈ C durch λa⊗λ−1 v mit λ ∈ R\{0} ersetzt, kommt dasselbe heraus! Korollar 9.2.6 : Ist A ∈ M (n × n, K) eine symmetrische Matrix, so gibt es eine orthogonale bzw. unitäre Matrix S , so dass λ1 0 t .. S·A·S = mit λ1 , . . . , λn ∈ R ist . . 0 λn Der Beweis geht ähnlich wie der von Korollar 9.1.11 : Theorem 9.2.4 sagt zunächst nur, dass es ein S ∈GL(n, K) mit λ1 0 .. S −1 · A · S = . 0 λn gibt, aber S ist die Transformationsmatrix von der kanonischen Basis K des Kn zu der nach Theorem 9.2.4 existierenden Orthonormalbasis B = (v1 , . . . , vn ) des Kn ; es gilt also vj = n X slj el , l=1 die Spaltenvektoren sj von S sind also die vj , bilden also eine Orthonormalbasis von Kn , und nach Bemerkung 9.1.3 ist S orthogonal bzw. unitär. 2 Für den Fall, dass Sie den Beweis des Theorems 9.2.4 für K = R, der die Komplexifizierung VC des R−Vektorraums V benutzt, undurchsichtig finden, bietet [Fi] noch einen Beweis an, der Hilfsmittel aus der Analysis benutzt und den wir uns mal anschauen wollen. Der Beweis von Theorem 9.2.4 ging mit Induktion nach dim V ; für Teil b) reicht daher für den Induktionsschluss das Lemma 9.2.7 : Jede symmetrische Matrix A ∈ M (n×n, R) hat einen reellen Eigenwert. Beweis : Sei q : Rn −→ R , q(x) := t x · A · x , dann ist ! n n n X X X q(x1 , . . . , xn ) = xl · alj xj = alj xl xj l=1 j=1 120 l,j=1 eine Polynomfunktion in den n Variablen x1 , . . . , xn , also stetig. Die Sphäre S = { x ∈ Rn | k x k = 1 } ist abgeschlossen und beschränkt im Rn , also kompakt. Also nimmt q auf S ein Maximum an: Es gibt ein v ∈ S mit t q(v) ≥ q(x) , also vAv ≥t xAx für alle x ∈ S . Wir zeigen: (∗) Für w ∈ S mit v⊥w ist auch Av⊥w . Wir können dann v zu einer Orthonormalbasis des Rn mit h , Sei (v, v2 , . . . , vn ) diese Orthonormalbasis und i ergänzen: W := span(v2 , . . . , vn ) , dann gibt es α1 , . . . , αn ∈ R mit n X Av = α1 v + αj vj , hv, vj i = 0 für j ≥ 2 , j=2 nach (∗) also auch hAv, vj i = 0 für j ≥ 2 , hα1 v + n X αj vj , vl i = 0 für l ≥ 2 , j=2 = 0 für l ≥ 2 , also αl Av = α1 v , also v ein Eigenvektor von A . √ Beweis von (∗): Für w ∈ S mit v⊥w und τ ∈ (0, 1] sei σ := 1 − τ 2 und x := σ v + τ w , dann ist hx, xi = σ 2 hv, vi + τ 2 hw, wi = σ 2 + τ 2 = 1 , also x ∈ S , also t vAv ≥t xAx = hx , Axi = σ 2 hv, Avi + τ 2 hw, Awi + στ hv, Awi + στ hw, Avi , und da A symmetrisch ist: (1 − σ 2 )hv, Avi − τ 2 hw, Awi 121 ≥ 2στ hv, Awi , 2σhv, Awi ≤ τ · (hv, Avi − hw, Awi) . Indem wir gegebenenfalls w durch −w ersetzen, können wir hv, Awi ≥ 0 erreichen. Wäre nun hv, Awi > 0, so würden wir τ gegen 0 (und damit σ gegen 1) gehen lassen (also wieder Analysis benutzen), und würden links 2hv, Awi > 0 , rechts 0 erhalten, Widerspruch. Also ist hv, Awi = 0 , also Aw⊥v . 2 9.3 Hauptachsentransformation (9.3.1) Zur Wiederholung : Sei V ein R−Vektorraum. Dann hatten wir in 6.1.3 und 6.1.5 festgelegt: Eine Abbildung s : V × V −→ R mit den Eigenschaften: Für alle u, v, w ∈ V und alle λ ∈ R gilt (H1) s(u + v, w) = s(u, w) + s(v, w) , s(λu, w) = λs(u, w) , d.h. s ist “linear als Funktion des 1.Arguments”, und (H2) s(u, v) = s(v, u) , heißt eine symmetrische Bilinearform auf V . Man kann das auch für einen beliebigen Körper K machen. Man beachte aber, dass dann s auf einem C−Vektorraum (außer für s = 0 ) keine Hermitesche Form ist. Auch die darstellende Matrix einer symmetrischen Bilinearform s auf einem K−Vektorraum V mit dimK V = n ∈ N und Basis B = (v1 , . . . , vn ) kann man wie in 6.3.1 definieren: MB (s) := (s(vk , vj ))(k,j)∈n×n . MB (s) ist dann eine symmetrische n × n− Matrix. Wir hatten in (6.3.6) schon einen Transformationssatz für darstellende Matrizen symmetrischer Bilinearformen hergeleitet, für K = R : Sei A = (a1 , . . . , an ) eine weitere Basis von V , und ∀ j ∈ n : aj = n X tkj vk k=1 122 , T := (tkj ) so gilt MA (s) = t T · MB (s) · T . (9.3.2) Die Frage ist nun: Gibt es zu einer gegebenen symmetrischen Bilinearform s auf einem n−dimensionalen K−Vektorraum V eine Basis A, so dass MA (s) eine Diagonalmatrix ist, d.h. gibt es eine Orthogonalbasis A von V (wenn schon nicht eine Orthonormalbasis von V , die man z.B. für K = R und nicht positiv definites s auch nicht erwarten kann) , also eine Basis A = (a1 , . . . , an ) mit s(ak , aj ) = 0 für k 6= j? Wir können dazu unsere Sätze über symmetrische Matrizen und deren Diagonalisierung anwenden, dazu aber gleich eine (9.3.3) Warnung: Sei B ∈ M (n × n, K) und λ ein Eigenwert von B , also det(B − λEn ) = 0, dann folgt nicht, dass auch t T ·B·T den Eigenwert λ hat, das charakteristische Polynom ändert sich bei dieser Transformation. Nur im Fall t T = T −1 , für K = R also im Fall T ∈ O(n), ändern sich die Eigenwerte nicht. Wir wollen sehen, auf welche Form man B durch die Transformation B 7−→t T · B · T bringen kann, (1) mit T ∈O(n) , (2) mit T ∈ GL(n, R), im Fall K = R : (9.3.4) Hauptachsentransformation symmetrischer reeller Matrizen Sei s eine symmetrische Bilinearform auf dem Rn , n ∈ N , und A = MK (s) = (s(ek , ej )) ∈ M (n × n, R) die Matrix von s bezüglich der kanonischen Basis K = (e1 , . . . , en ) des Rn . (1) Es gibt eine Orthonormalbasis B von Rn mit h , vektoren von A besteht, d.h. es ist B = (w1 , . . . , wn ) mit hwk , wj i = δkj 123 i , die aus Eigen- für k, j ∈ n , A · wj = λj wj mit λj ∈ R für j ∈ n , λ1 0 .. MB (s) = ist, . 0 λn also s(wk , wj ) = δkj · λk so dass für k, j ∈ n . (2) Es gibt eine Basis B0 des Rn , so dass ist, mit | Em | | − − − + − − − −| | | 0 | −E | MB (s) = l | | | − − − − + 0 | | | 0 − − − 0 =: D0 m, l ≥ 0 , m + l ≤ n. Es gibt also ein T 0 ∈ GL(n, R) mit D0 = t T 0 · A · T 0 . Beweis : (1) Da s symmetrisch ist, ist A = MK (s) symmetrisch. Nach Korollar 9.2.6 gibt es eine Matrix S ∈O(n), so dass λ1 0 t .. S·A·S = =: D . 0 λn eine Diagonalmatrix ist, wobei die Diagonalelemente von D die Eigenwerte von A sind. Die Spaltenvektoren w1 , . . . , wn von S bilden wegen S ∈O(n) eine bezüglich h , i orthonormale Basis B von Rn , und wegen wj = n X skj ek k=1 ist S = MKB ( idRn ) , also nach dem Transformationssatz 6.3.6 bzw. 9.3.1 : t S · MK (s) · S = MB (s) , 124 also MB (s) = D , also s(wk , wj ) = δkj · λk für k, j ∈ n. (2) Wir können die Basis B noch so anordnen, dass λ1 , . . . , λm > 0 , λm+1 , . . . , λm+l < 0 , λm+l+1 = . . . = λn = 0 gilt. Wir setzen dann wk0 := p1 w k |λk | wk für k ≤m+l für k > m+l. Dann ist B0 := (w10 , . . . , wn0 ) eine Basis des Rn und bezüglich h , Orthogonalbasis, denn 1 für k ≤ m + l 0 0 hwk , wk i = , |λk | 1 für k > m + l hwk0 , wj0 i = 0 für k 6= j Bezüglich s gilt 1 1 s(wk , wk ) = · λk = 1 λk λk 1 s(wk0 , wk0 ) = · λk = −1 |λk | 0 i eine . für 1≤k≤m für m+1≤k ≤m+l für k >m+l und s(wk0 , wj0 ) = 0 für k 6= j , also ist MB0 (s) die in der Behauptung angegebene Matrix D0 , und nach dem Transformationssatz 6.3.6 gibt es ein T 0 ∈ GL(n, R) mit D0 = t T 0 · A · T 0 . 2 Bevor wir daraus einige Folgerungen ziehen und die Ergebnisse vom Rn auf einen beliebigen R−Vektorraum V verallgemeinern, noch etwas 9.3.5 Zur Motivation : Sie haben sich vielleicht gefragt, warum wir hier von “Hauptachsentransformation” geprochen haben. Dazu folgendes Beispiel: Die Matrix α β A := ∈ M (2 × 2, R) β α 125 , ist symmetrisch, also ist durch s(x, y) := hx , Ayi = α(x1 y1 + x2 y2 ) + β(x1 y2 + x2 y1 ) eine symmetrische Bilinearform s mit MK (s) = A gegeben, es ist PA (X) = X 2 − 2αX + (α2 − β 2 ) , also hat A die Eigenwerte λ1 = α + β und λ2 = α − β , mit den Eigenvektoren 1 1 1 −1 w1 = √ , w2 = √ , 1 2 1 2 die eine Orthonormalbasis B von R2 mit h , i bilden. Setzen wir 1 1 −1 S := √ , 2 1 1 das ist die Matrix mit den Spalten wj , und sei v = 2 X xk ek = 2 X zj wj ∈ R2 , so sieht man j=1 k=1 x1 x2 = S· z1 z2 . Man interessiert sich nun in der analytischen Geometrie für die durch s definierte quadratische Form q(x) := s(x, x) = αx21 + 2βx1 x2 + αx22 und die Menge C := x ∈ R2 q(x) = 1 , dann gilt q(x) = q(Sz) = hSz, ASzi = hz, (t SAS)zi α+β 0 t = z· ·z 0 α−β = (α + β)z12 + (α − β)z22 . Beschreibt man die Menge C also nicht durch die Koordinaten x1 , x2 bezüglich der kanonischen Basis, sondern durch die Koordinaten z1 , z2 ihrer Punkte bezüglich B , so wird , C = x = z1 w1 + z2 w2 ∈ R2 (α + β)z12 + (α − β)z22 = 1 126 und die letzte Gleichung ist insofern einfacher als die Gleichung q(x) = 1, als darin kein “gemischter” Term, also kein Summand µz1 z2 mit µ 6= 0, vorkommt. C lässt sich nun leicht untersuchen: Man kann die Gleichung noch mit −1 multiplizieren, also α + β ≥ 0 annehmen. Wenn wir die “Entartungsfälle” α + β = 0 oder α − β = 0 mal außer Acht lassen, können wir a := √ 1 α+β 1 und b := p |α − β| setzen, dann wird C = z2 z2 z1 w1 + z2 w2 ∈ R 12 ± 22 = 1 a b 2 und wir sehen: Für λ1 , λ2 > 0 ist C eine Ellipse, für λ1 > 0 , λ2 < 0 eine Hyperbel, mit den “Hauptachsen” w1 und w2 : e2 w2 w1 a b e1 127 e2 w2 w1 b a e1 Definition 9.3.6 : Eine symmetrische Matrix A ∈ M (n × n, R) heißt positiv definit, wenn ∀ x ∈ Rn \ {0} : hx, Axi = t x · A · x > 0 gilt. 2 Sie lernen es in der Analysis: Sei f : Rn −→ R zweimal stetig differenzierbar und der Gradient grad f (x) = 0 . Ist die Hesse-Matrix Hessf (x) := ( ∂ ∂ f (x))j,k∈n ∂xj ∂xk positiv definit, so hat f in x ein isoliertes lokales Minimum. Man sucht deshalb nach Kriterien für die positive Definitheit einer symmetrischen Matrix A , man möchte schließlich nicht immer hx, Axi für alle x ∈ Rn \ {0} ausrechnen: 128 Korollar 9.3.7 : Eine symmetrische Matrix A ∈ M (n×n, R) ist genau dann positiv definit, wenn ihre Eigenwerte λ1 , . . . , λn alle positiv sind. Beweis : Nach (9.3.4)(1) gibt es eine Orthonormalbasis B = (w1 , . . . , wn ) des Rn , so dass für s : Rn × Rn λ1 0 . .. MB (s) = 0 λn −→ R , , s(x, y) := hx, Ayi gilt für j, k ∈ n, also s(wj , wk ) = δjk λj wobei die λj die Eigenwerte von A sind. Zu x ∈ Rn gibt es µ1 , . . . , µn ∈ R mit x = µ1 w1 + . . . + µn wn , also ! n n X X hx, Axi = s(x, x) = s µj w j , µk w k j=1 = n X k=1 µj µk s(wj , wk ) = n X µ2j λj , j=1 j,k=1 und dieser Ausdruck ist genau dann größer 0 für alle x ∈ Rn \ {0}, wenn λ1 , . . . , λn > 0 sind. 2 - Um dieses Kriterium anzuwenden, muss man die Eigenwerte, also die Nullstellen des charakteristischen Polynoms von A , berechnen. Es reicht aber, sich die Koeffizienten des charakteristischen Polynoms anzusehen, das wird Satz 9.3.10. Um ihn zu beweisen, sehen wir uns zunächst beliebige Polynome an: Definition 9.3.8 : Sei K ein beliebiger Körper,n ∈ N und n f (X) = X + n−1 X αj X j j=0 ein normiertes Polynom, das in Linearfaktoren zerfällt, es gebe also λ1 , . . . , λn ∈ K mit f (X) = (X − λ1 ) · . . . · (X − λn ) . 129 Ausmultiplizieren ergibt α0 α1 ... αn−2 αn−1 := (−1)n λ1 · . . . · λn := (−1)n−1 (λ2 · . . . · λn + λ1 · λ3 · . . . · λn + . . . + λ1 · . . . · λn−1 ), := λ1 λ2 + . . . + λ1 λn + λ2 λ3 + . . . + λ2 λn + . . . + λn−1 λn , := −(λ1 + . . . + λn ) . Um das besser zu verstehen, definieren wir die elementarsymmetrischen Funktionen sk (λ1 , . . . , λn ) := X λj1 · . . . · λjk für k ∈ n − 1 ∪ {0} . 1≤j1 <...<jk ≤n Die Summe hat so viele Summanden, wie es Möglichkeiten gibt, k verschiede n ne Indizes j1 , . . . , jk aus n auszuwählen, also Summanden. Für unser k Polynom f gilt dann αk = (−1)n−k sn−k (λ1 , . . . , λn ) . Das ist der Wurzelsatz von Vieta, den Sie für n = 2 aus der Schule kennen. 2 - Für K = R gibt es nun einen Zusammenhang zwischen den Vorzeichen der αk und denen der Nullstellen λk : (9.3.9) Vorzeichenregel: Sei n ∈ N, f (X) = X n + αn−1 X n−1 + . . . + α1 X + α0 ∈ R[X] ein normiertes Polynom mit α0 6= 0, das in R[X] in Linearfaktoren zerfällt, also f (X) = (X − λ1 ) · . . . · (X − λn ) mit λ1 , . . . , λn ∈ R . Dann gilt a) Genau dann sind alle λj negativ, wenn alle Koeffizienten αj positiv sind. b) Genau dann sind alle λj positiv, wenn die Vorzeichen der αj alternierend sind, genauer: wenn (−1)n−j αj > 0 für j = 0, . . . , n − 1 ist. 130 Beweis : a) “⇐=”: Ist λ ∈ R und λ ≥ 0 , so ist f (λ) = λn + αn−1 λn−1 + . . . + α0 ≥ α0 > 0, also λ keine Nullstelle von f . Also sind alle Nullstellen λj negativ . b) “=⇒ ”: Seien alle λj negativ, so gilt mit den Bezeichnungen aus 9.3.8 : > 0, falls k gerade, sk (λ1 , λn ) < 0, falls k ungerade ist, und damit αk = (−1)n−k sn−k (λ1 , . . . , λn ) > 0 für alle k = 0, . . . , n − 1 . b) Man wende a) an auf das Polynom f− (X) := (−1)n f (−X) , dann folgt b) direkt aus a). 2 - Wir wenden das nun an für symmetrische Matrizen und ihre Eigenwerte: Satz 9.3.10 : Sei A ∈ M (n × n, R) eine symmetrische Matrix und PA (X) = (−1)n X n + βn−1 X n−1 + . . . + β1 X + β0 ihr charakteristisches Polynom. Dann gilt A positiv definit ⇐⇒ (∗) ∀ j ∈ n − 1 ∪ {0} : (−1)j βj > 0 . Beweis : f (X) := (−1)n PA (X) = X n + (−1)n βn−1 X n−1 + . . . + (−1)n β0 ist ein normiertes Polynom. Zunächst: Ist β0 = 0 , so ist 0 ein Eigenwert und A nicht positiv definit, und umgekehrt: Ist 0 ein Eigenwert, so gilt β0 = 0, und (∗) ist falsch. Wir können uns also auf den Fall β0 6= 0 beschränken und darauf die Vorzeichenregel 9.3.9 anwenden. Für die Koeffizienten αj aus 9.3.9 gilt dann αj = (−1)n βj , und (−1)n−j αj = (−1)j βj . 2 131 9.4 Trägheitsgesetz von Sylvester Bemerkung 9.4.1 : Wir haben schon in Definition 4.7.5 gelernt, was die innere direkte Summe von Untervektorräumen ist: Sei V ein K−Vektorraum, W1 , . . . , Wr seien Untervektorräume von V . Dann heißt V die innere direkte Summe von W1 , . . . , Wr , geschrieben: V = W1 ⊕ . . . ⊕ Wr = r M Wj , j=1 wenn es zu jedem w ∈ V ein eindeutig bestimmtes r−tupel (w1 , . . . , wr ) ∈ W1 × . . . × Wr w = w1 + . . . + wr gibt mit . Hat man einen K−Vektorraum mit symmetrischer Bilinearform, so kann man von so einer Zerlegung noch mehr verlangen: Definition 9.4.2 : Sei V ein K−Vektorraum mit einer symmetrischen Bilinearform s , K ein beliebiger Körper, oder V ein C−Vektorraum mit Hermitescher Form s. Sind V1 , . . . , Vr Unterräume von V mit V = V1 ⊕ . . . ⊕ Vr , und gilt auch noch s(vj , vk ) = 0 für alle vj ∈ Vj , vk ∈ Vk mit j 6= k , so heißt V die orthogonale direkte Summe der Vj , j ∈ r , und wir schreiben V = V1 ⊥ ... ⊥ Vr . Definition 9.4.3 : Sei V ein K−Vektorraum und s eine symmetrische Bilinearform auf V . Dann nennen wir V0 := { v ∈ V | ∀ w ∈ V : s(v, w) = 0 } den Ausartungsraum von s. 2 Man sieht sofort: Folgerung 9.4.4 : Sei V ein K−Vektorraum mit symmetrischer Bilinearform s . Dann gilt: a) V0 ist ein Untervektorraum von V . b) s ist nichtausgeartet ⇐⇒ V0 = {0} 132 (wobei wir den Begriff “nichtausgeartet” in Def.6.2.1 nur für K = R definiert hatten, aber dort kann man auch einen beliebigen Körper nehmen.) 2 Direkt aus Satz 9.3.4 folgt Korollar 9.4.5 : Sei n ∈ N , s eine symmetrische Bilinearform auf dem Rn und W0 ihr Ausartungsraum. Dann gibt es Untervektorräume W+ und W− von Rn , so dass Rn = W+ ⊥ W− ⊥ W0 ist, und ∀ w ∈ W+ \ {0} : s(w, w) > 0 , ∀ w ∈ W− \ {0} : s(w, w) < 0 , ∀ w ∈ W0 ∀ v ∈ V : s(w, v) = 0 , und die Zerlegung ist orthogonal bezüglich s und dem kanonischen Skalarprodukt h , i. Beweis : Nach dem Satz 9.3.4 über die Hauptachsentransformation gibt es eine Basis B0 = (w1 , . . . , wm , wm+1 , . . . , wm+l , wm+l+1 , . . . , wn ) des Rn , so dass Em − − − MB0 (s) = 0 | | | + − − − −| | | | −El | | | | − − − − + | | | ist. Mit W+ W− f W := span(w1 , . . . , wm ) , := span(wm+1 , . . . , wm+l ) , := span(wm+l+1 , . . . , wn ) 133 0 − − − 0 sehen wir: f Rn = W+ ⊥ W− ⊥ W , ∀ w ∈ W+ \ {0} : s(w, w) > 0 , ∀w ∈ W− \ {0} : s(w, w) < 0 , und f ∀ v ∈ Rn : s(w, v) = 0 , ∀w ∈ W f ⊂ W0 , , wobei W0 der Ausartungsraum von s ist. Sei v ∈ W0 , dann also W ist v eine Linearkombination von B0 : v = n X mit αj ∈ R . αj w j j=1 Für alle j ∈ m + l gilt dann 0 = s(v, wj ) = n X αk s(wk , wj ) = ±αj k=1 (und zwar +αj für j ≤ m , −αj für j > m ) , also αj = 0 , also v = n X f αj w j ∈ W . j=m+l+1 f = W0 Also ist W . 2 Für einen beliebigen K−Vektorraum V , auch wenn K = R ist, hat man diesen Satz nicht, schon deshalb, weil man kein kanonisches Skalarprodukt hat. Wir beweisen immerhin den (9.4.6) Orthogonalisierungssatz : Sei V ein endlichdimensionaler Vektorraum über einem Körper K mit char K 6= 2 und s : V × V −→ K eine symmetrische Bilinearform. Dann gibt es eine Basis B = (v1 , . . . , vn ) von V mit s(vj , vk ) = 0 für j, k ∈ n mit j 6= k Für die durch q : V −→ K , 134 q(v) := s(v, v) . definierte quadratische Form heißt das: Es gibt α1 , . . . , αn ∈ K mit q(v) = α1 ξ12 + . . . + αn ξn2 für v = n X ξj vj . j=1 Beweis durch Induktion nach n := dim V : Für n = 0 oder 1 ist nichts zu beweisen. Sei nun n ∈ N , und für n sei die Behauptung richtig. Sei dim V = n + 1. Gilt q(v) = 0 für alle v ∈ V , so gilt wegen s(v, w) = 1 (q(v + w) − q(v) − q(w)) für alle v, w ∈ V : 2 s(v, w) = 0 für alle v, w ∈ V , und wir können jede Basis B von V nehmen. Anderenfalls gibt es ein v1 ∈ V mit q(v1 ) 6= 0 . Wir setzen W := { w ∈ W | s(v1 , w) = 0 } , das ist ein Untervektorraum von V , und wir behaupten: V = Kv1 ⊕ W . Dazu zeigen wir: Kv1 ∩ W = {0} : Sei v ∈ Kv1 ∩ W v = λv1 mit λ ∈ K , dann ist und 0 = s(v1 , v) = λs(v1 , v1 ) = λq(v1 ) , also λ = 0 , also v = 0 , und Kv1 + W = V : Sei v ∈ V v 0 := , dann setzen wir s(v1 , v) v1 s(v1 , v1 ) , dann ist v = v 0 + (v − v 0 ) mit v 0 ∈ Kv1 s(v1 , v − v 0 ) = s(v1 , v) − v − v0 ∈ W , und s(v1 , v) s(v1 , v1 ) = 0 , s(v1 , v1 ) also v ∈ Kv1 + W also . Sei s0 die Restriktion von s auf W × W . Dann gibt es wegen dim W = n eine Basis (v2 , . . . , vn+1 ) von W mit s0 (vj , vk ) = 0 für j, k ∈ {2, . . . , n + 1} mit j 6= k 135 , und wenn wir B := (v1 , . . . , vn+1 ) nehmen, haben wir eine Basis von V mit s(vj , vk ) = 0 für j, k ∈ n + 1 mit j 6= k . 2 Für Matrizen ergibt sich daraus das Korollar 9.4.7 : Zu jeder symmetrischen Matrix A ∈ M (n × n, K) , char K 6= 2 , gibt es ein S ∈ GL(n, K) mit α1 0 t ... S·A·S = , 0 αn wobei α1 , . . . , αn aber nicht eindeutig bestimmt sind. 2 Folgerung 9.4.8 : Wir überlegen uns, wie man den Orthogonalisierungssatz 9.4.6 für den Fall K = R benutzen kann. Man hat dann für j, k ∈ n : s(vj , vk ) = mit αj ∈ R , αj δjk und man kann die Elemente der Basis (v1 , . . . , vn ) so numerieren, dass αj > 0 für j = 1, . . . , m, αj < 0 für j = m + 1, . . . , m + l, αj = 0 für j = m + l + 1, . . . , n gilt, mit gewissen Zahlen m , l ∈ N0 . Wie im Beweis von Korollar 9.4.5 setzt man W+ := span(w1 , . . . , wm ) , W− := span(wm+1 , . . . , wm+l ) , f := span(wm+l+1 , . . . , wn ) , W dann hat man die bezüglich s orthogonale Zerlegung V (∗) = f W+ ⊥ W− ⊥ W ∀ w ∈ W+ \ {0} ∀ w ∈ W− \ {0} f∀v ∈ V ∀w ∈ W : : : mit s(w, w) > 0 , s(w, w) < 0 , s(w, v) = 0 , f ist der Ausartungsraum und wie im Beweis von 9.4.5 kann man zeigen: W V0 von s . Das Problem dabei ist, dass die Untervektorräume W+ und W− durch die Eigenschaft (∗) nicht eindeutig bestimmt sind, sondern davon 136 abhängen, welche Orthonormalbasis B = (v1 , . . . , vn ) von V wir gewählt haben. Nur der Ausartungsraum V0 ist unabhängig von der Basis. Der Satz von Sylvester sagt, dass wenigstens die Dimensionen von W+ und W− nicht von der Basis abhängen: (9.4.9) Trägheitsgesetz von Sylvester : Sei V ein endlichdimensionaler R−Vektorraum mit einer symmetrischen Bilinearform s. Hat man Zerlegungen V = V+ ⊥ V− ⊥ V0 = W+ ⊥ W− ⊥ V0 , wobei V0 der Ausartungsraum von s ist und ∀ v ∈ V+ \ {0} : s(v, v) > 0 , ∀ v ∈ W+ \ {0} : s(v, v) > 0 , ∀ v ∈ V− \ {0} : s(v, v) < 0 , ∀ v ∈ W− \ {0} : s(v, v) < 0 , dann gilt dim V+ = dim W+ , dim V− = dim W− . Beweis : Sei m := dim V+ , m0 := dim W+ , l := dim V− , l0 := dim W− . Nach Definition der direkten Summe, nach Satz 4.7.1 und Bemerkung 4.7.6 haben wir m + l = dim V − dim V0 = m0 + l0 . Es genügt also, l = l0 zu zeigen, dann folgt auch m = m0 . Angenommen, es gibt ein v ∈ V+ ∩ (W− + V0 ) , v 6= 0 , dann folgt s(v, v) > 0 und ∃ w− ∈ W− ∃ v0 ∈ V0 : v = w− + v0 , sicherlich w− 6= 0, denn sonst wäre s(v, v) = 0 , nicht > 0. Also gilt s(v, v) = s(w− , w− ) + 2 s(w− , v0 ) + s(v0 , v0 ) = s(w− , w− ) < 0 , Widerspruch. Also ist V+ ∩ (W− + V0 ) = 0 , wir haben nach Aufgabe (4.5) b): dim V+ + dim(W− + V0 ) = dim(V+ + W− + V0 ) , und wegen W− ∩ V0 = {0} ist, wieder nach Aufgabe (4.5) b) : dim(W− + V0 ) = dim W− + dim V0 , also dim V+ + dim W− + dim V0 ≤ dim V = n , 137 also m + l0 l 0 ≤ ≤ n − dim V0 n − m − dim V0 = , l . analog zeigt man l ≤ l0 , also ist l = l0 . 2 Bemerkung 9.4.10 : Hat man einen R−Vektorraum V mit dimR V = n , zwei Basen A und B von V , also die Transformationsmatrix S := MAB ( idV ) ∈ GL(n, R) , und • F ∈ EndR V , so gilt nach (4.4.17): MBB (F ) S −1 · MAA (F ) · S = , und daher: MAA (F ) und MBB (F ) haben die gleichen Eigenwerte, • eine symmetrische Bilinearform s auf V , so gilt nach dem Transformationssatz (6.3.6) : MB (s) t = S · MA (s) · S , MB (s) und MA (s) haben i.A. nicht die gleichen Eigenwerte, aber das Trägheitsgesetz von Sylvester sagt immerhin, dass sich die Vorzeichen der Eigenwerte und die Vielfachheit des Eigenwerts 0 nicht ändern. Das ist das nächste Korollar. − Natürlich: Ist die Transformationsmatrix S orthogonal, also t S = S −1 , so haben MB (s) und MA (s) die gleichen Eigenwerte. Korollar 9.4.11 : Sei n ∈ N , A ∈ M (n × n, R) symmetrisch und S ∈ GL(n, R) . Dann haben A und t S·A·S , mit Vielfachheit gezählt, die gleichen Anzahlen positiver und negativer Eigenwerte. Beweis : Sei s(x, y) := hx, Ayi für x, y ∈ Rn , dann ist A = MK (s) , wobei K die kanonische Basis von Rn ist, und t S · A · S die Matrix MB (s) für eine andere Basis B. Nach Folgerung 9.4.8 kann man mit A und mit t S · A · S Zerlegungen Rn = V+ ⊥ V− ⊥ V0 und Rn = W+ ⊥ W− ⊥ V0 138 konstruieren, so dass ∀ v ∈ V+ \ {0} : s(v, v) > 0 , ∀ v ∈ W+ \ {0} : s(v, v) > 0 , ∀ v ∈ V− \ {0} : s(v, v) < 0 , ∀ v ∈ W− \ {0} : s(v, v) < 0 , gilt, und nach Sylvester gilt dim V+ = dim W+ , dim V− = dim W− . Nach Satz 9.3.4 sind diese Zahlen gerade die Anzahlen der positiven bzw. negativen Eigenwerte (mit Vielfachheit gezählt) von MK (s) bzw. MB (s). 2 - Wir wollen uns zum Schluss dieses Kapitels noch einmal mit positiv definiten Matrizen beschäftigen und ein Kriterium beweisen, das man auch in der Analysis benutzen kann, um zu zeigen, dass die Hesse-Matrix positiv definit ist: (9.4.12) Definition : Sei n ∈ N , K ein Körper und A ∈ M (n × n, K). Für k ∈ n heißen die Matrizen a11 . . . a1k .. ∈ M (k × k, K) , Ak := ... . ak1 . . . akk also die Matrizen, die aus der linken oberen “Ecke” von A mit k Zeilen und Spalten bestehen, die Hauptminoren von A . (9.4.13) Hauptminoren-Kriterium für Definitheit: Für eine symmetrische Matrix A ∈ M (n × n, R)gilt: A positiv definit ⇐⇒ det Ak > 0 für alle k ∈ n . ” Nach dem Korollar 9.3.7 gibt es ein S ∈GL(n, R) mit α1 0 t ... S·A·S = mit 0 αn Beweis : “ =⇒ αj = hej ,t S · A · S · ej i = hS · ej , A · (S · ej )i > 0 , 139 denn A ist positiv definit, und für die kanonischen Basisvektoren ej ist auch S · ej 6= 0 . Also ist t det( S · A · S) = n Y αj > 0 , also j=1 det A · (det S)2 > 0 , also auch: (∗) det A > 0 . Es ist A = MK (s) für s : Rn × Rn −→ R , s(x, y) := hx, Ayi , also ist Ak = MK (sV ×V ) für Vk := span(e1 , . . . , ek ) ⊂ Rn , K k und auch sV ×V ist positiv definit. Also folgt nach (∗): k k det Ak > 0 für alle k ∈ n . “ ⇐= ” durch Induktion nach n : Für n = 1 ist die Behauptung sofort zu sehen. Sei n ∈ N , n ≥ 2, und für n − 1 sei die Behauptung richtig. Sei nun A ∈ M (n × n, R) symmetrisch mit (∗∗) det Ak > 0 für alle k ∈ n − 1 , dann ist die Matrix An−1 positiv definit nach Induktionsvoraussetzung. Nach Korollar 4.9.11 gibt es ein T ∈GL(n − 1, R), so dass α1 0 t ... T · An−1 · T = ist, mit αj > 0 für j ∈ n − 1 . 0 αn Setzen wir nun 0 . T | .. T 0 := ∈ GL(n, R) , so wird | 0 − − − + − 0 ... 0 | 1 α1 0 | β1 .. .. . | . t 0 0 T ·A·T = 0 =: B αn | βn−1 − − − + − β1 . . . βn−1 | βn | 140 mit β1 , . . . , βn ∈ R . Nach Voraussetzung (∗∗) ist det A = det An > 0, also auch det B = det A · (det T 0 )2 > 0 . Wir setzen γ1 .. | . | γn−1 − + − 0 | 1 | En−1 S := − − 0 ... mit γj := − βj αj , dann ist S ∈ GL(n, R), und (Sie rechnen es bitte nach): α1 0 n−1 ... X βj2 t S·B·S = mit α := β − n n αj αn−1 j=1 0 αn . Nun ist det A = det An > 0 , det B > 0 , also auch α1 · . . . · αn−1 · αn = det(t S · B · S) = det B · (det S)2 > 0 , α1 , . . . , αn−1 > 0 , also auch αn > 0 . B := (T 0 · S · e1 , . . . , T 0 · S · en ) gilt also Für die Vektoren aus der Basis hT 0 · S · ej , A · (T 0 · S · el )i = hej ,t S ·t T 0 · A · T 0 · S · el i + * α1 0 ... = ej , el = δjl αj , 0 αn also für x = n P ξj · T 0 Sej ∈ Rn \ {0} : j=1 hx, A · xi = n X ξj2 · αj > 0 , j=1 also ist A positiv definit. 2 141 (9.5) Aufgaben (9.1) a) Sei A ∈SO(3) und F : R3 −→ R3 , F (x) := A · x . Nach Theorem 9.1.13 gibt es eine Orthonormalbasis B = (v1 , v2 , v3 ) des R3 und ein α ∈ [0, 2π) , so dass 1 0 0 MBB (F ) = 0 cos α − sin α ist . 0 sin α cos α Sei A 6= E3 . Zeigen Sie, dass Rv1 und cos α dann eindeutig bestimmt sind. Tipp: Es ist tr A = 1 + 2 cos α nach Aufgabe (6.7) b). Rv1 heißt die Drehachse , α der Drehwinkel von F bzw. A . b) Zeigen Sie, dass die Matrizen A := 2 3 6 20 0 −15 1 1 3 −6 2 , −9 20 −12 b) a) 7 25 6 2 −3 12 15 16 in SO(3) liegen. Berechnen Sie Drehachse und Drehwinkel dieser Matrizen. (9.2) a) Für einen Ring (R, +, ·) hatten wir in (4.9.4) das Zentrum Z(R) definiert. Das geht aber auch für eine Gruppe (G, ·) : Man nennt Z(G) := { x ∈ G | ∀y ∈ G : x · y = y · x } das Zentrum von (G, ·) . a) Zeigen Sie, dass Z(G) ein Normalteiler von G ist. b) Zeigen Sie: Z(O(n)) = {En , −En } für n ∈ N . (9.3) Seien A, B ∈O(n) , n ungerade. Zeigen Sie: det((A − B)(A + B)) 142 = 0 . (9.4) Finden Sie zu A := 1 −4 2 −4 1 −2 ∈ M (3 × 3, R) 2 −2 −2 eine Matrix S ∈O(3) , so dass t S · A · S Diagonalform hat. (9.5) Zeigen Sie, dass U := 1 2 1+i 1+i −1 − i 1 + i zu U(2) gehört, und geben Sie eine Matrix S ∈ U(2) an, so dass t S · U · S Diagonalform hat. (9.6) Zu der symmetrischen Bilinearform s : R4 × R4 −→ R , s(a, b) := 2a1 b2 + 2a2 b1 + a1 b3 + a3 b1 − a2 b4 − a4 b2 − 2a3 b4 − 2a4 b3 für a = t (a1 , a2 , a3 , a4 ) , b = t (b1 , b2 , b3 , b4 ) ∈ R4 finde man eine Basis B des R4 , so dass α1 0 α2 ist, mit αj ∈ {1, −1, 0} . MB (s) = α3 0 α4 (9.7) Sei a ∈ Rn , kak = 1 . Zeigen Sie für sa : Rn −→ Rn , sa (x) := x − 2ha, xi a : a) sa (a) = −a , und sei Ha,0 := { x ∈ Rn | hx, ai = 0 } , dann gilt ∀ x ∈ Ha,0 : sa (x) = x . sa heißt deshalb Spiegelung des Rn an der Hyperebene Ha,0 . b) Die Matrix von sa bezüglich der kanonischen Basis K ist Sa := MKK (sa ) = En − 2 a ·t a , und es gilt Sa2 = En , t Sa = Sa , Sa ∈O(n)\SO(n) . c) Geben Sie die Matrix MKK (F ) der Spiegelung F des R3 an der Ebene E0;a,b := { λa + µb | λ, µ ∈ R } 143 mit a := t (2, 1, −2) , b := t (1, 1, 3) an. 144 §10 Klassische Gruppen 10.1 Einiges zur Topologie im Rn (10.1.1) Vorbemerkung : Im letzten Paragraphen haben wir einige Untergruppen von GL(n, K) , K = R oder C, und die algebraischen Eigenschaften ihrer Elemente (Diagonalisierbarkeit, Normalformen) kennengelernt. Damit ist die Theorie dieser Gruppen aber keineswegs zu Ende: Man kann aus diesen Gruppen metrische und damit topologische Räume machen. Wir wollen den Anfang dieser Theorie kennenlernen. Das gehört schon mehr zur Analysis, und deshalb setzen wir hier voraus, dass der Leser die grundlegenden Begriffe und Sätze aus der Theorie der metrischen Räume kennt. Man findet das in jedem Analysis-Lehrbuch. Einige Grundbegriffe wollen wir hier wiederholen, damit Sie sie nachschlagen können. Aber die Theorie der topologischen Räume können Sie an Hand dieser Kurzfassung nicht lernen: Definition 10.1.2 : Sei M eine Menge. Es gebe eine Abbildung d : M × M −→ R mit den Eigenschaften (M1) ∀ x, y ∈ M : (d(x, y) = 0 ⇐⇒ x = y) , (M2) ∀ x, y ∈ M : d(x, y) = d(y, x) , (M3) ∀ x, y, z ∈ M : d(x, z) ≤ d(x, y) + d(y, z) . Dann heißt M (genauer: das Paar (M, d)) ein metrischer Raum, mit Metrik d . 2 Bemerkung 10.1.3 : Jeder normierte K−Vektorraum V , mit Norm k k, wird ein metrischer Raum, wenn man die Metrik d : V × V −→ R durch d(x, y) := kx − yk für x, y ∈ V definiert. Definition 10.1.4 : Eine Menge T heißt ein topologischer Raum, wenn es eine Menge O von Teilmengen von T gibt mit den Eigenschaften: (T1) ∅ ∈ O und T ∈ O. (T2) Für eine FamilieS(Tj )j∈I von Mengen Tj ∈ O mit einer beliebigen Indexmenge I ist Tj ∈ O . j∈I 145 (T3) Für eine Familie (Tj )j∈n , n ∈ N , von endlich vielen Mengen Tj ∈ O n T ist Tj ∈ O. j=1 Die Mengen aus O heißen offene Mengen in T . 2 Bemerkung 10.1.5 : Jeder metrische Raum M mit Metrik d wird ein topologischer Raum (M, O), wenn man für eine Teilmenge T von M definiert: T ∈O ⇐⇒ ∀ x ∈ T ∃ ε > 0 : { y ∈ M | d(x, y) < ε } ⊂ T . Definition 10.1.6 : Sei (X, O) ein topologischer Raum. Eine Teilmenge A von M heißt abgeschlossen , wenn ihr Komplement {M A = M \ A offen ist. 2 In einem metrischen Raum (nicht in einem beliebigen topologischen Raum) kann man definieren, was eine konvergente Folge ist: Definition 10.1.7: Sei (M, d) ein metrischer Raum, x ∈ M und (xk )k∈N eine Folge von Elementen aus M . Dann sagt man: Die Folge (xk )k∈N konvergiert gegen x, in Zeichen: lim xk = x , k→∞ wenn gilt: ∀ ε > 0 ∃ k0 ∈ N ∀ k > k0 : d(xk , x) < ε . 2 Damit erhält man folgenden Satz, den wir häufig zum Nachweis benutzen, dass eine Teilmenge A eines metrischen Raums abgeschlossen ist: Satz 10.1.8: Sei M ein metrischer Raum. Eine Teilmenge A von M ist genau dann abgeschlossen, wenn gilt: Ist (xk )k∈N eine Folge von Elementen xk ∈ A, die gegen ein x ∈ M konvergiert, so liegt x schon in A. 2 Definition 10.1.9 : Seien (X, O) und (Y, O0 ) topologische Räume und 146 f : X −→ Y . f heißt stetig , wenn gilt −1 ∀ U ∈ O0 : f (U ) ∈ O . Gleichbedeutend damit ist: Für jede abgeschlossene Teilmenge A von Y ist −1 das Urbild f (A) abgeschlossen in X . Die Abbildung f heißt ein Homömorphismus, wenn sie bijektiv, stetig und auch f −1 : Y −→ X stetig ist. 2 Für metrische Räume benutzen wir meist den Satz 10.1.10 : Seien M und M 0 metrische Räume. Eine Abbildung f : M −→ M 0 ist genau dann stetig, wenn für jedes x ∈ M und jede Folge (xk )k∈N in M gilt lim xk = x k→∞ =⇒ lim f (xk ) = f (x) . k→∞ 2 Definition 10.1.11 : Sei X ein topologischer Raum und C ⊂ X. C heißt kompakt, wenn es zu jeder Familie (Uj )j∈I von offenen Mengen Uj (mit beliebiger Indexmenge I) und [ Uj C ⊂ j∈I bereits eine endliche Teilmenge J von I gibt mit [ C ⊂ Uj . j∈J 2 Für den Nachweis der Kompaktheit benutzen wir im Folgenden den Satz 10.1.12 : Sei V ein endlichdimensionaler normierter Vektorraum über R oder C, k k die Norm in V und C ⊂ V . Dann ist C genau dann kompakt, wenn C abgeschlossen ist und beschränkt. Letzteres soll heißen: Es gibt ein c ≥ 0 mit ∀ x ∈ C : kxk ≤ c . 2 Für kompakte Mengen hat man den folgenden Satz 10.1.13 (Satz vom Minimum und Maximum) : Sei C ein kom147 pakter topologischer Raum und f : C −→ R stetig. Dann gibt es x1 , x2 ∈ C mit ∀ x ∈ C : f (x1 ) ≤ f (x) ≤ f (x2 ) . 2 Bemerkung 10.1.14 : Hat man auf einem endlichdimensionalen K−Vektorraum V zwei verschiedene Normen k k1 und k k2 , so sind die durch d1 (x, y) := kx − yk1 und d2 (x, y) := kx − yk2 definierten Metriken verschieden. Die dadurch definierten offenen Mengen sind aber die gleichen: Definition 10.1.15: Sei V ein K−Vektorraum, mit zwei Normen k k1 und k k2 . Diese beiden Normen heißen äquivalent , wenn es Konstanten c, C ∈ R, c, C > 0, gibt mit (∗) ∀ x ∈ V : ckxk1 ≤ kxk2 ≤ Ckxk1 . Beispiel 10.1.16 : Im Rn haben wir die Maximum-Norm kxk∞ := max { |xj | | j ∈ n } und nach Folgerung 6.1.18 die euklidische Norm v uX u n 2 xj für x := t (x1 , . . . , xn ) . kxk2 := t j=1 Die beiden Normen sind äquivalent, denn es gilt √ kxk∞ ≤ kxk2 ≤ nkxk∞ . Folgerung 10.1.17 : Sei V ein K−Vektorraum mit zwei äquivalenten Normen k k1 und k k2 . Dann sind die durch k k1 und k k2 definierten offenen Mengen in V die gleichen. Beweis : Sei T ⊂ V offen bzgl. k k1 , also T ∈ O1 , und x ∈ T . Es gelte (∗) aus 10.1.15. Dann gibt es ein ε > 0 mit { y ∈ V | kx − yk1 < ε } ⊂ T . Mit ε0 := ε · c gilt dann 0 { y ∈ V | kx − yk2 < ε } ⊂ 148 1 y ∈ V | kx − yk1 < · c · ε c = also T ∈ O2 { y ∈ V | kx − yk1 < ε } ⊂ T , Ähnlich zeigt man : O2 ⊂ O1 . . 2 Was uns die Arbeit im Folgenden erleichtert: Es gilt Satz 10.1.18 : Je zwei Normen auf einem endlichdimensionalen K−Vektorraum V sind äquivalent. Beweis : a) Sei zunächst V = Rn . Es genügt zu zeigen, dass eine beliebige Norm k k äquivalent ist zur Maximum-Norm. n P (i) Sei (e1 , . . . , en ) die kanonische Basis. Für x = xj ej gilt dann j=1 kxk ≤ n X |xj |kej k ≤ Ckxk∞ mit C := j=1 n X kej k . j=1 (ii) Die “Einheitssphäre” S := { x ∈ Rn | kxk∞ = 1 } ist abgeschlossen und beschränkt im Rn mit k k∞ , also kompakt. Die Funktion f : Rn −→ R , f (x) := kxk ist wegen | kxk − kyk | ≤ kx − yk ≤ C · kx − yk∞ für x, y ∈ Rn eine stetige Funktion von Rn mit k k∞ nach R mit | |. Nach dem Satz vom Minimum und Maximum nimmt die Funktion f auf S ihr Minimum und ihr Maximum an, wir haben c := inf { kxk | x ∈ S } = min { kxk | x ∈ S } > 0 und M := max { kxk | x ∈ S } , also 0 < c ≤ M < ∞ . Sei nun y ∈ Rn \ {0} beliebig, dann ist also y ∈S , kyk∞ y k ≥ c , also kyk ≥ ckyk∞ . kyk∞ Letzteres gilt auch für y = 0. b) Sei nun V ein beliebiger endlichdimensionaler K− Vektorraum, mit zwei Normen k k und k k∗ . Wir haben dann einen R−Vektorraumisomorphismus k ϕ : Rn −→ V 149 . Für x ∈ Rn setzen wir kxkϕ := kϕ(x)k und kxk∗ϕ := kϕ(x)k∗ , auf diese Weise haben wir Normen auf dem Rn : Nach a) gibt es Konstanten c, C > 0, so dass für alle x ∈ Rn gilt ckxkϕ ≤ kxk∗ϕ ≤ Ckxkϕ . Da ϕ surjektiv ist, bedeutet das 2 ∀ y ∈ V : ckyk ≤ kyk∗ ≤ Ckyk . Auch das Folgende ist Ihnen sicher bekannt. Wir wiederholen es, weil wir es öfters brauchen: Definition 10.1.19 : Sei M ein metrischer Raum, mit Metrik d, und T eine Teilmenge von M . Dann ist T mit der eingeschränkten Metrik dT ×T : T × T −→ R , (x, y) 7−→ d(x, y) ein metrischer Raum. dT ×T heißt die von M auf T induzierte Metrik. 2 Satz 10.1.20 : Sei M ein metrischer Raum und T ⊂ M mit der von M induzierten Metrik. Dann sind die offenenen Mengen V in T genau die Mengen, zu denen es eine offene Menge U in M gibt mit V = U ∩T . 2 Definition 10.1.21 : Sei T ein topologischer Raum. T heißt (a) zusammenhängend, wenn ∅ und T die einzigen Teilmengen von T sind, die sowohl offen als auch abgeschlossen sind, (b) wegzusammenhängend, wenn es für alle x, y ∈ T einen Weg, d.h. eine stetige Abbildung f des Intervalls [0, 1] = { α ∈ R | 0 ≤ α ≤ 1 } nach T mit f (0) = x , f (1) = y gibt. 150 Bemerkung 10.1.22 : Ist der topologische Raum T wegzusammenhängend, so ist er zusammenhängend. 2 10.2 Die allgemeine lineare Gruppe Aus Definition 4.4.9 kennen wir die allgemeine lineare Gruppe GL(n, K) für K = R oder C, das war die Gruppe der invertierbaren Matrizen aus M (n × n, K) : Definition 10.2.1 : Für Matrizen A ∈ M (n × n, K) definieren wir die Operator-Norm als kAkop := sup { kA · vk2 | v ∈ Kn , kvk2 ≤ 1 } , wobei k k2 die euklidische Norm im Rn ist (aber im Hinblick auf Satz 10.1.8 ist es bei Fragen zu Konvergenz oder Stetigkeit egal, welche Norm wir im Rn wählen). Behauptung 10.2.2 : Die Matrizenmultiplikation µ∗ : M (n × n, K) × M (n × n, K) −→ M (n × n, K) ist stetig, wenn man auf M (n × n, K) die Topologie nimmt, die man durch die Operatornorm erhält. Beweis : Sei ε > 0 und seien A, B ∈ M (n × n, K) mit kAkop , kBkop < ε , dann gilt kA · Bkop = sup { kA · B · xk2 | kxk2 ≤ 1 } ≤ sup { kA · yk2 | kyk2 ≤ kBkop } = kBkop sup { kA · yk2 | kyk2 ≤ 1k } = kBkop kAkop < ε2 . Damit folgt die Stetigkeit von µ∗ in (0, 0), aber auch in einem beliebigen (A0 , B0 ), denn es folgt für kA − A0 kop < ε, kB − B0 kop < ε : kA · B − A0 · B0 kop = kA · (B − B0 ) + (A − A0 ) · B0 kop ≤ kAkop kB − B0 kop + kA − A0 kop kB0 kop ≤ (kA0 kop + ε)ε + εkB0 kop 2 Bemerkung 10.2.3 : Sei n ∈ N, dann gilt (i) GL(n, K) = { A ∈ M (n × n, K) | det A 6= 0 } , 151 . (ii) GL(n, K) ist offen in M (n × n, K) . Beweis : (i) wissen wir aus Folgerung 5.4.3 . (ii) Sei A = (ajk ) ∈ M (n × n, K) mit kAkop < ε , dann gilt auch ∀ j, k ∈ n : |ajk | < ε . Damit zeigt man, dass det : M (n × n, K) −→ K , (akj ) 7−→ X signσ · a1σ(1) · . . . anσ(n) σ∈Sn stetig ist, bezüglich k kop in M (n × n, K) und | | in K . Dann ist GL(n, K) nach (i) das Urbild der in K offenen Menge { y ∈ K | y 6= 0 } , also offen in M (n × n, K). 2 Behauptung 10.2.4: Die Matrizenmultiplikation µ : GL(n, K) × GL(n, K) −→ GL(n, K) , (A, B) 7−→ A · B , und die Inversion ι : GL(n, K) −→ GL(n, K) , A 7−→ A−1 sind stetig. Beweis : Die Restriktion µ der nach 10.2.2 stetigen Abbildung µ∗ : M (n × n, K) × M (n × n, K) −→ M (n × n, K) auf GL(n, K) × GL(n, K) ist tatsächlich eine Abbildung nach GL(n, K), da GL(n, K) eine Gruppe ist. Damit ist µ stetig. Zur Inversion: Nach Satz 5.3.4 haben wir für A ∈ GL(n, K): A−1 = (ckj ) mit ckj = (det A)−1 · (−1)k+j det A0jk , wobei A0jk die Matrix ist, die aus A durch Streichen der j−ten Zeile und k−ten Spalte entstanden ist. Da det und die Abbildung K∗ −→ K∗ , λ 7−→ λ−1 stetig sind, ist auch ι stetig. 2 152 Definition 10.2.5 : Eine Gruppe (G, ·), die zugleich ein topologischer Raum ist, heißt eine topologische Gruppe, wenn gilt µ : G × G −→ G , µ(g, h) := g · h für g, h ∈ G , ι : G −→ G , ι(g) := g −1 ist stetig, ist stetig. 2 Die Behauptung 10.2.4 zeigt also: Satz 10.2.6 : GL(n, K), mit der Topologie als Teilraum des metrischen Raums M (n × n, K), ist eine topologische Gruppe. 2 10.3 Untergruppen von GL(n, R) Definition 10.3.1 : Sei s : Rn × Rn −→ R eine (nicht notwendig symmetrische) bilineare Abbildung. Dann setzen wir OM (s) := { A ∈ M (n × n, R) | ∀ v, w ∈ Rn : s(A · v, A · w) = s(v, w) } Behauptung 10.3.2 : (i) OM (s) ist abgeschlossen in M (n × n, R). (ii) O(s) := OM (s)∩ GL(n, R) ist eine Untergruppe von GL(n, R). (iii) Sei B := MK (s) die darstellende Matrix von s bezüglich der kanonischen Basis K = (ej )j∈n , d.h. B = (s(ej , ek )). Dann gilt also s(v, w) = t v · B · w für v, w ∈ Rn . Es gilt dann A ∈ OM (s) ⇐⇒ B = tA · B · A . (iv) Wenn s nichtausgeartet ist, gilt OM (s) = O(s) . Beweis : (i) Wir zeigen zunächst, dass s : Rn × Rn −→ R stetig ist: Mit einer ähnlichen Rechnung wie im Beweis von 10.2.2 erhält man für B = MK (s) und v, w, v 0 , w0 ∈ Rn : |s(v, w) − s(v 0 , w0 )| ≤ kvk2 kBkop kw − w0 k2 + kv − v 0 k2 kBkop (kw0 − wk2 + kwk2 ) , 153 . woraus die Stetigkeit von s folgt. Sei nun (Ak )k∈N eine Folge aus OM (s) , die in M (n × n, R) gegen ein A konvergiert, dann konvergiert also s(v, w) = s(Ak v, Ak w) = s((Ak −A)v, Ak w)+s(Av, (Ak −A)w)+s(Av, Aw) gegen 0 + 0 + s(Av, Aw). Also ist mit Ak auch der Grenzwert A ∈ OM (s), und damit ist OM (s) abgeschlossen nach Satz 10.1.8. (ii) sieht man leicht. (iii) Es gilt A ∈ OM (s) genau dann, wenn ∀ v, w ∈ Rn : t vBw = t (Av)B(Aw) = t v t ABAw gilt, und das ist gleichbedeutend mit B = t ABA. (iv) s ist genau dann nichtausgeartet, wenn B invertierbar ist. Der Beweis dafür geht wie der Beweis von Satz 6.3.5, bei dem wir (unnötigerweise) vorausgesetzt hatten, dass s symmetrisch ist. Für nichtausgeartetes s haben wir also nach (iii) En = (B −1 ·t A · B) · A für alle A ∈ OM (s) , also ist jedes A ∈OM (s) invertierbar und gehört damit zu O(s) . 2 Beispiel 10.3.3 : Sei s(v, w) = t v · B · w mit Ep | 0 B = −− + −− 0 | −Eq mit p, q ∈ N0 , wobei Em die Einsmatrix aus M (m × m, R) bezeichnet. Dann heißt O(p, q) := O(s) eine pseudo-orthogonale Gruppe. Ein Spezialfall ist O(n) := O(n, 0) , das ist die uns aus Def. 9.1.6 bekannte orthogonale Gruppe. Dafür ist s das kanonische Skalarprodukt h , i. Beispiel 10.3.4 : Die symplektische Gruppe Sp(p, R) erhalten wir für n = 2p und die darstellende Matrix 0 | −Ep B := −− + −− . Ep | 0 154 Die Gruppe Sp(p, R) besteht aus den Blockmatrizen A | B M = −− + −− C | D mit Matrizen A, B, C, D ∈ M (p×p, R), die die folgenden Gleichungen erfüllen: t C · A −t A · C = 0 , t D · B −t B · D = 0 , t A · D −t C · B = Ep . Beispiel 10.3.5 : Normalteiler in GL(n, R) sind (i) GL(n, R)+ := { A ∈ GL(n, R) | det A > 0 } (ii) SL(n, R) := { A ∈ GL(n, R) | det A = 1 } SL(n, R) heißt spezielle lineare Gruppe . , . Beispiel 10.3.6 : Untergruppen von GL(n, R) sind auch (i) N := { A ∈ GL(n, R) | ∀ j, k ∈ n : (ajj = 1 ∧ (j > k =⇒ ajk = 0)) } , (ii) D := { A ∈ GL(n, R) | ∀ j 6= k : ajk = 0 } (iii) D · N = , { A ∈ GL(n, R) | ∀ j > k : ajk = 0 } . - Es gibt auch endliche Untergruppen von GL(n, R) : Beispiel 10.3.7 : ( ) n n X X Sn := A ∈ GL(n, R) | ajk ∈ {0, 1} ∧ ajk = ajk = 1 k=1 j=1 ist die Gruppe der Permutationen der kanonischen Basis (e1 , . . . , en ) des Rn . Sie ist isomorph zur in 2.2.10 definierten Gruppe (Sn , ◦). 10.4 Die Struktur von GL(n, R) In 4.9.4 hatten wir das Zentrum eines Ringes definiert. Das geht für Gruppen genau so: Definition 10.4.1 : Sei (G, ·) eine Gruppe. Dann heißt Z(G) := { g ∈ G | ∀ h ∈ G : g · h = h · g } das Zentrum von (G, ·) . 155 (10.4.2) Abkürzungen , die wir im Folgenden brauchen, sind R∗ := R \ {0} , R∗+ := { x ∈ R | x > 0 } , für a, b ∈ R , a < b : (a, b) := { x ∈ R | a < x < b } . Behauptung 10.4.3 : Z(GL(n, R)) = R∗ · En . Den Beweis führen wir mit folgendem Lemma zurück auf Satz 4.9.5 : Lemma 10.4.4 : GL(n, R) ist dicht in M (n × n, R), d.h. jedes A ∈ M (n × n, R) ist Grenzwert einer Folge (Ak )k∈N mit Ak ∈ GL(n, R). Beweis : Sei A ∈ M (n × n, R) und r := min { |λ| ∈ R | λ ist Eigenwert von A , λ 6= 0 } falls A von 0 verschiedene Eigenwerte hat, bzw. r := 1 sonst. Für alle s ∈ (0, r) ist dann A − sEn invertierbar. Es ist lim(A − sEn ) = A , s→0 also jedes A ∈ M (n×n, R) Grenzwert einer Folge von Matrizen aus GL(n, R). 2 Beweis von Behauptung 10.4.3 : Für A ∈ M (n × n, R) folgt aus ∀ B ∈ M (n × n, R) : A · B = B · A nach Satz 4.9.5 : A ∈ R · En . Nach Lemma 10.4.4 folgt dann für A ∈ Z(GL(n, R)) : A ∈ R∗ · En . 2 Behauptung 10.4.5 : Die Abbildung f : R∗+ × SL(n, R) −→ GL(n, R)+ , 1 (r, A) 7−→ r n A ist ein Homömorphismus und ein Gruppen-Homomorphismus. Beweis : Sei g : GL(n, R)+ −→ R∗+ × SL(n, R) , A 7−→ (det A, 156 1 1 (det A) n A) , dann gilt (g ◦ f )(r, A) = (r, A) und (f ◦ g)(A) = A . f und g sind also bijektiv, und aus den Formeln entnimmt man die Stetigkeit von f und g. f ist also ein Homömorphismus. Dass f ein Gruppenhomomorphismus ist, sieht man auch an der Definition von f . 2 Bemerkung 10.4.6 : GL(n, R) ist die disjunkte Vereinigung der beiden offenen Teilmengen GL(n, R)+ und GL(n, R)− := { A ∈ GL(n, R) | det A < 0 } Es gilt : GL(n, R)− = A0 ·GL(n, R)+ , wobei −1 | 0 A0 := −− + −− 0 | En−1 . . Aus dieser Gleichung folgt noch, dass GL(n, R)+ und GL(n, R)− homöomorph sind. 2 Schreibweise 10.4.7 : Sei n ∈ N und K ein Körper. Für die Diagonalmatrix A ∈ M (n × n, K) mit den Diagonalelementen a1 , . . . , an schreiben wir diag(a1 , . . . , an ) . Satz 10.4.8 (Cartan-Zerlegung) : Jedes A ∈ GL(n, R) lässt sich in eindeutiger Weise als Produkt A = C · P mit C ∈ O(n) und P ∈ PDS(n, R) schreiben, wobei mit PDS(n, R) = C ∈ GL(n, R) | t C = C , Spec(C) ⊂ R∗+ die Menge der positiv definiten symmetrischen Matrizen bezeichnet werde und Spec(C) die Menge aller Eigenwerte von C ist. Beweis : Wir zeigen zunächst die Existenz der Zerlegung. Es ist t A · A ∈PDS(n, R), denn für alle v ∈ Rn gilt ht A · A · v, vi = hA · v, A · vi = kA · vk22 ≥ 0 , 157 also sind alle Eigenwerte von t A · A nicht negativ. Sie sind sogar alle positiv, denn wegen det(t A · A) 6= 0 ist 0 kein Eigenwert. Mit Hauptachsentransformation (Satz 9.3.4, Teil (1)) finden wir ein H ∈ O(n) mit H −1 ·t A · A · H = diag(d1 , . . . , dn ) und dj > 0 . p Wir setzen nun λj := dj und P := H·diag(λ1 , . . . , λn ) · H −1 , dann gilt P ∈PDS(n, R), und die Matrix C := A · P −1 erfüllt t C · C = (t H)−1 · diag( 1 1 1 1 , . . . , ) ·t H ·t A · A · H · diag( , . . . , ) · H −1 λ1 λn λ1 λn = H · H −1 = En . Das beweist: C ∈O(n). Zum Nachweis der Eindeutigkeit nehmen wir an, dass wir zwei solche Zerlegungen A = C · P und A = C 0 · P 0 haben. Dann gilt t A · A = P 0 · (C 0 )−1 · C 0 · P 0 = (P 0 )2 und damit (∗) t A·A·P 0 = (P 0 )2 ·P 0 = P 0 ·t A·A . Man wähle nun ein Polynom f (X) ∈ R[X] mit f (dj ) = λj . Setzt man die Matrix t A · A in dieses Polynom f ein, so findet man f (t A · A) = H · diag(f (d1 ), . . . , f (dn )) · H −1 = P . Nach (∗) ist P 0 mit t A · A vertauschbar, also auch mit f (t A · A) für jedes Polynom f , und nach der letzten Gleichung dann auch mit P , es gilt also P · P 0 = P 0 · P . Nach Satz 7.3.9 sind P und P 0 simultan diagonalisierbar, mit den positiven Eigenwerten in der Diagonale. Wegen (P 0 )2 = t A · A = P 2 folgt daraus P = P 0 und schließlich C = C 0 . 2 Bemerkung 10.4.9 : PDS(n, R) ist keine Untergruppe von GL(n, R) und kein Untervektorraum von M (n × n, R) , aber natürlich ein Teilraum des 158 metrischen Raums GL(n, R)! Satz 10.4.10 : Die Abbildung Φ : O(n) × PDS(n, R) −→ GL(n, R) , (C, P ) 7−→ C · P ist ein Homöomorphismus. - Vor dem Beweis noch das Lemma 10.4.11 : O(n) ist kompakt. Beweis : Für C ∈ O(n) gilt kCk2op = sup kC · vk22 kvk2 ≤ 1 = sup { hC · v , C · vi | kvk2 ≤ 1 } = sup { hv, vi | kvk ≤ 1 } = 1 , also ist O(n) beschränkt in M (n × n, R). Nach Behauptung 10.3.2 ist O(n) = OM (s) für das kanonische Skalarprodukt s = h , i abgeschlossen in M (n×n, R). Also ist O(n) kompakt in M (n×n, R), und mit Satz 10.1.20 sieht man, dass O(n) auch kompakt als Teilmenge von GL(n, R) ist. 2 Beweis von Satz 10.4.10: Nach Satz 10.4.8 ist Φ bijektiv, und stetig nach Behauptung 10.2.4. Wir zeigen nun, dass das Urbild jeder abgeschlossenen Menge unter Φ−1 , also das Bild jeder abgeschlossenen Menge A ⊂ O(n)× PDS(n, R), abgeschlossen in GL(n, R) ist, dann haben wir auch die Stetigkeit von Φ−1 : Seien also (Cm )m∈N , (Pm )m∈N Folgen in O(n) bzw. PDS(n, R), so dass die Folge (Cm · Pm )m∈N =: (Gm )m∈N gegen ein C · P =: G ∈ GL(n, R) konvergiert, dann hat die Folge (Cm )m∈N wegen der Kompaktheit von O(n) einen Häufungspunkt C 0 ∈ O(n). Es gibt also eine Teilfolge (Cmk )k∈N , die gegen C 0 konvergiert. Wir setzen P 0 := (C 0 )−1 · G . (∗) Damit konvergiert −1 (Pmk )n∈N = (Cm · Gmk )n∈N k 159 gegen P 0 . Man sieht nun, dass die Menge der positiv semidefiniten symmetrischen Matrizen, also der A ∈ M (n × n, R) mit t A = A und ∀ v ∈ Rn : hv, A · vi ≥ 0 , abgeschlossen ist. Also ist P 0 positiv semidefinit, und sogar positiv definit wegen (∗) und C 0 , G ∈ GL(n, R), also auch det P 0 6= 0. Damit folgt dann P 0 ∈ PDS(n, R). Aus G = C ·P und G = C 0 · P 0 und der Eindeutigkeit der Cartan-Zerlegung folgt dann C 0 = C und P 0 = P . Damit folgt, dass C der einzige Häufungspunkt von (Cm )m∈N ist. Also konvergiert (Cm )m∈N gegen C und damit auch (Pm )m∈N gegen P . 2 Satz 10.4.12 : Sei A0 wie in Bemerkung 10.4.6 definiert. Dann gilt (i) O(n) ist die disjunkte Vereinigung von SO(n) = O(n) ∩ SL(n, R) und A0 · SO(n) . (Siehe auch Bemerkung 9.1.7.) Beide Teile sind offen und abgeschlossen in O(n) . ( Also ist O(n) nicht zusammenhängend. ) (ii) SO(n) ist wegzusammenhängend. Beweis : (i) folgt direkt aus A0 · SO(n) = { A ∈ O(n) | det A = −1 } , und: SL(n, R) = { A ∈ M (n × n, R) | det A = 1 } ist als Urbild unter der stetigen Abbildung det : M (n × n, R) −→ R der abgeschlossenen Menge {1} abgeschlossen in M (n × n, R) , also ist SO(n) abgeschlossen in O(n) , ebenso: A0 · SO(n) = { A ∈ O(n) | det A = −1 } 160 . SO(n) und A0 · SO(n) sind Komplemente voneinander in O(n), also auch offen in O(n). (ii) Sei C ∈ SO(n). Nach Korollar 9.1.15 gibt es ein S ∈ O(n), so dass Er −Es 0 t A 1 S·C ·S = , ... 0 Ak ist, mit Kästchen Aj = cos θj − sin θj sin θj cos θj für j ∈ {1, . . . , k} . Wegen C ∈ SO(n) ist s gerade. Wegen −1 0 cos π − sin π = 0 −1 sin π cos π hat t S · C · S die Form t S·C ·S = Er 0 A1 ... 0 Al mit r + 2l = n. Nun ist fθ : [0, 1] −→ SO(2) , t 7−→ cos(1 − t)θ − sin(1 − t)θ sin(1 − t)θ cos(1 − t)θ eine stetige Abbildung, also ein Weg, der cos θ − sin θ sin θ cos θ mit E2 verbindet. Also verbindet f : [0, 1] −→ SO(n) , t 7−→ 161 Er 0 fθ1 (t) .. 0 . fθl (t) in SO(n) die Matrix t S · C · S = S −1 · C · S mit En . Somit lässt sich auch C mit S · En · S −1 = En verbinden. SO(n) ist also wegzusammenhängend. 2 10.5 Die Struktur von GL(n, C) Bemerkung 10.5.1 : Für die komplexe allgemeine lineare Gruppe GL(n, C) := { A ∈ M (n × n, C) | det A 6= 0 } gehen viele Sätze ähnlich wie für GL(n, R). Man beachte aber, dass das kanonische Skalarprodukt im Cn durch hx, yi = n X xj · y j für x = (xj ) , y = (yj )j∈n j=1 gegeben ist. Auf Cn betrachtet man nicht Bilinearformen, sondern Sesquilinearformen s , siehe Definition 6.1.3. Bemerkung 10.5.2 : Sei s : Cn × Cn −→ C eine Sesquilinearform und UM (s) := { A ∈ M (n × n, C) | ∀ v, w ∈ Cn : s(A · v, A · w) = s(v, w) } Dann gelten für U(s) := UM (s)∩ GL(n, C) dieselben Aussagen wie in Behauptung 10.3.2, wobei man dort R durch C und “transponiert” durch “transponiert konjugiert komplex” zu ersetzen hat. Beispiel 10.5.3 : Analog zum reellen Fall erhält man die pseudounitären Gruppen U(p, q) , die komplexe symplektische Gruppe Sp(p, C) , und die Gruppe SL(n, C). Bemerkung 10.5.4 : Es gilt Z(GL(n, C)) = C∗ · En ( mit C∗ = C \ {0} ). Anders als in Bemerkung 10.4.6 gilt aber Behauptung 10.5.5 : GL(n, C) ist wegzusammenhängend. Beweis : Für A, H ∈ GL(n, C) ist z 7−→ det(zA + (1 − z)H) eine komplexe Polynomfunktion, die nicht das Nullpolynom ist, also nur endlich viele Nullstellen hat. { z ∈ C | det(zA + (1 − z)H) = 0 } ist daher abgeschlossen in C, und GL(n, C) ∩ { zA + (1 − z)H | z ∈ C } 162 . ist offen in GL(n, C) und (siehe Aufgabe (10.1)) wegzusammenhängend, also auch zusammenhängend. 2 Im Unterschied zu Satz 10.4.12 gilt hier: Satz 10.5.6 : U(n) ist zusammenhängend und kompakt. Beweis : (1) Sei A ∈ U(n). Dann haben wir ϕ1 , . . . , ϕn ∈ R und ein S ∈U(n) mit 0 eiϕ1 t ... S·A·S = eiϕn 0 nach Korollar 9.1.11. Dann ist f : [0, 1] −→ U(n) , ei(1−t)ϕ1 0 ... t 7−→ ei(1−t)ϕn 0 ein Weg in U(n), der t S · A · S mit En verbindet, und t 7−→ S · f (t) · S −1 verbindet A mit En . Also ist U(n) wegzusammenhängend und damit zusammenhängend. (2) Die Kompaktheit von U(n) zeigt man wie bei O(n), siehe auch Bemerkung 10.5.2. 2 Analog zu Satz 10.4.10 hat man auch in GL(n, C) eine Cartan-Zerlegung: Bemerkung 10.5.7 : Sei PDH(n, C) := { A ∈ GL(n, C) | A ist positiv definit und Hermitesch } dann ist die Abbildung Φ : U(n) × PDH(n, C) −→ GL(n, C) , (C, P ) 7−→ C · P ein Homöomorphismus. 2 163 , (10.6) Die Quaternionengruppen Bemerkung 10.6.1 : Außer M (n × n, R) und M (n × n, C) hat man auch die Menge der Matrizen mit Einträgen aus H, dem Schiefkörper der Quaternionen. Wir hatten ihn in Def. 4.9.7 eingeführt als u v H = ⊂ M (2 × 2, C) . u, v ∈ C −v u und festgestellt: H ist eine assoziative, nicht-kommutative Unteralgebra der R− Algebra (M (2 × 2, C), +, ·, ω) mit dimR H = 4 . Jedes Element aus H \ {0} besitzt bezüglich · ein Inverses. Wir sehen noch etwas genauer hin als in Abschnitt 4.9 : Definition und Behauptung 10.6.2 : Für q := setzen wir q := dann ist (1) u v −v u u −v v u ∈H , : H −→ H eine Involution, d.h. für p, q ∈ H gilt p · q = q·p , q = q . Für das in 4.9.7 definierte N (q) gilt dann q · q = N (q) · E2 woraus man q −1 = mit N (q) ∈ R , N (q) ≥ 0 , 1 ·q N (q) für q 6= 0 sieht. H ist eine echte Teilmenge von M (2 × 2, C). Es gilt (2) H = A ∈ M (2 × 2, C) | A · J = J · A , 0 1 mit J = und −1 0 164 A := a b c d für A = a b c d , a, b, c, d ∈ C . Beweis : (1) und (2) rechnet man leicht nach. Der Rest steht schon in 4.9.7. 2 Wir kommen nun zu n × n−Matrizen mit Elementen aus H . In unserer Schreibweise mit H ⊂ M (2×2, C) sind das dann Matrizen aus M (2n×2n, C), die aus Kästchen Cjk ∈ M (2 × 2, C) mit Cjk · J = J · Cjk für j, k ∈ n bestehen. Der Deutlichkeit halber werden wir hier etwas formaler: Definition und Satz 10.6.3 : Für n ∈ N sei `n die Abbildung, die n × n− Matrix (qjk ) ∈ M (n × n, H) die 2n × 2n−Matrix mit den 2 × 2−Kästchen qjk ∈ M (2 × 2, C) zuordnet, also q11 | . . . | −− + + .. `n : M (n × n, H) −→ M (2n × 2n, C) , (qjk ) 7−→ . −− + + qn1 | . . . | einer q1n −− .. . −− qnn Dann gilt: (a) Das Bild von M (n × n, H) unter `n ist `n (M (n×n, H)) = A ∈ M (2n × 2n, C) | A · Jn = Jn · A , wobei Jn die 2n × 2n− Matrix mit n Kästchen J in der Diagonale ist. (b) Die Abbildung `n ist ein injektiver R−Algebren-Homomorphismus. Beweis : (a) folgt aus (2) von 10.6.2, (b) folgt daraus, dass es egal ist, ob man zwei Matrizen elementweise multipliziert, oder kästchenweise. Man schreibe sich das mal hin, etwa für n = 2. 2 Wie für R oder C definiert man nun Definition 10.6.4 : Sei n ∈ N. Dann setzt man GL(n, H) := { A ∈ M (n × n, H) | A ist invertierbar } 165 . 2 Mit Satz 10.6.3 (b) erhält man den Satz 10.6.5 : Die Abbildung n o −1 GL(n, H) −→ A ∈ GL(2n, C) | A · Jn · A = Jn , A 7−→ `n (A) ist ein Gruppen-Isomorphismus. 2 Man möchte nun, wie bei R oder C, invertierbare Matrizen dadurch charakterisieren, dass ihre Determinante ungleich 0 ist. Nun haben wir Determinanten von Matrizen aus nicht-kommutativen Ringen nicht definiert, und man kann die Definitionen aus §5 nicht ohne weiteres übertragen: Für I J A := ∈ M (2 × 2, H) I J soll die Determinante 0 sein und nicht I · J − J · I = 2K. Wiederum hilft es, das Ganze in M (2n × 2n, C) zu betrachten: Definition 10.6.6 : Sei n ∈ N und A ∈ M (n × n, H). Dann setzen wir detC A := det(`n (A)) . Da `n ein Homomorphismus bezüglich der Multiplikation ist, und mit dem Determinanten-Multiplikationssatz erhalten wir den Teil (a) von Satz 10.6.7 : (a) Für A, B ∈ M (n × n, H) gilt detC (A · B) = (detC A)(detC B) . (b) GL(n, H) = { A ∈ M (n × n, H) | detC A 6= 0 } . Beweis : (b) Ist A invertierbar, so haben wir A−1 ∈ M (n × n, H) mit A · A−1 = E2n detC A · detC A−1 = 1 , , also also detC A 6= 0 . Ist A nicht invertierbar, so ist `n (A) ∈ M (2n × 2n, C) nicht invertierbar (siehe Aufgabe (10.5)), also detC A = 0 . 2 166 Wir brauchen nun den Satz, dass man jede Matrix aus M (n × n, H) durch Multiplikation mit Elementarmatrizen auf Diagonalform bringen kann. Der Beweis ist im Wesentlichen derselbe wie der von Satz 4.5.2. Wir wiederholen ihn aber, um zu sehen, dass man dabei auf das Kommutativgesetz für die Multiplikation verzichten kann. Zunächst als Wiederholung die Definition 10.6.8 : Sei n ∈ N. Für k, j ∈ n und (nun) λ ∈ H sei (I) falls λ 6= 0 ist: Sk (λ) := E2 0 .. . ... 0 0 .. . 0 0 ←− k − te Zeile , E2 0 0 λ 0 ... 0 E2 .. .. . . 0 E2 ↑ k−te Spalte. Es ist Sk (λ) ∈ M (n × n, H) , sogar Sk (λ) ∈GL(n, H) wegen Sk (λ) · Sk (λ−1 ) = Sk (λ−1 ) · Sk (λ) = E2n . E2 0 .. ... 0 . 0 E2 0 0 . . . 0 E2 0 . . . 0 λ 0 . . . 0 ←− k − te Zeile , E2 0 j . . .. .. (II) Qk (λ) := E 0 2 0 E2 0 0 E2 . . . . . . 0 E2 ↑ j−te Spalte. j j j Es ist Qk (λ) ∈ GL(n, H) wegen Qk (λ) · Qk (−λ) = Qjk (−λ) · Qjk (λ) = E2n . Bemerkung 10.6.9 : Wie in Hilfssatz 4.5.10 gilt: Für A ∈ M (n × n, H) ist • Sk (λ) · A die Matrix, in der die k-te Zeile von A von links (!) mit λ multipliziert ist, 167 • Qjk (λ)·A die Matrix, in der die von links mit λ multiplizierte j−te Zeile zur k−ten Zeile addiert ist. Satz 10.6.10 : Zu jedem A ∈ GL(n, H) gibt es ein Produkt B von Elementarmatrizen Qjk (λ) , λ ∈ H , j 6= k , und ein q ∈ H \ {0} mit A = B · Sn (q) . Beweis : Wir verwenden die Sprechweise aus Bemerkung 10.6.9: Sei A = (αkj ) ∈ GL(n, H). Falls α21 = 0 ist, gibt es ein k 6= 2 mit αk1 6= 0. Addition der k−ten Zeile zur zweiten ergibt eine Matrix (αkj ) mit α21 6= 0. Wir können also im Weiteren von α21 6= 0 ausgehen. −1 Addition des (E2 − α11 ) · α21 −fachen der zweiten Zeile zur ersten ergibt eine Matrix (αkj ) mit α11 = E2 . Man addiere das (−αk1 )−fache der ersten Zeile zur k−ten, k > 1, dann erhält man eine Matrix der Form E2 | ∗ ... ∗ −− + −− −− −− 0 | .. . | C 0 | wobei ∗ irgendetwas bedeutet, und C ∈ GL(n−1, H) ist. Wenn man fortfährt, erhält man eine obere Dreiecksmatrix, in der die ersten n − 1 Diagonalelemente gleich dem Einselement E2 von H sind, und das letzte gleich einem q ∈ H \ {0}. Durch Addition passender Vielfachen der k−ten Zeilen, k > 2, zu den Vorhergehenden erhält man eine Diagonalmatrix mit E2 in den Zeilen 1, . . . , n − 1 und αnn = q . Fasst man die verwendeten Matrizen Qjk (λ) zu einem Produkt C 0 zusammen, so folgt Sn (q −1 ) · C 0 · A = E2n und damit A = C 0−1 · Sn (q) , wobei auch B := C 0−1 ein Produkt von Elementarmatrizen vom Typ (II) ist. 2 Folgerung 10.6.11 : detC ist eine surjektive Abbildung von M (n × n, H) auf R+ = { β ∈ R | β ≥ 0 } . detC ist ein surjektiver Gruppenhomomorphismus von GL(n, H) auf (R∗+ , ·). Beweis : Nach Satz 10.6.10 haben wir für A ∈ GL(n, H): A = B · Sn (q) , 168 wobei B ein Produkt von Elementarmatrizen vom Typ (II) ist. Solche Matrizen haben die C−Determinante 1, und nach Satz 10.6.7 (a) ist auch detC B = 1 , also detC A = detC Sn (q) . u v mit u, v ∈ C , so ist Ist q = −v u detC (Sn (q)) = uu + vv = |u|2 + |v|2 > 0 , wobei jeder Wert aus R∗+ angenommen werden kann. Dass detC ein Gruppenhomomorphismus ist, folgt aus Satz 10.6.7 (a). Schließlich gilt nach Satz 10.6.7 (b) noch detC A = 0 ⇐⇒ A ∈ M (n × n, H) \ GL(n, H) . 2 Den Satz 10.6.10 haben wir vor allem bewiesen, um zu zeigen: Satz 10.6.12 : GL(n, H) ist wegzusammenhängend als Teilraum des 4ndimensionalen normierten R−Vektorraums M (2n × 2n, C). Beweis : Sei A ∈GL(n, H). Nach Satz 10.6.10 ist A = B · Sn (q) , wobei B ein Produkt von Elementarmatrizen vom Typ (II) und Sn (q) mit q ∈ H eine Elementarmatrix vom Typ (I) ist. Es reicht zu zeigen, dass man jede dieser Matrizen mit einem Weg in GL(n, H) mit dem Einselement E2n verbinden kann. Das Produkt dieser Wege verbindet dann A mit E2n : (a) Zunächst für die Matrizen Qjk (λ) vom Typ (II) : Die Abbildung ϕjk : [0, 1] −→ GL(n, H) , t 7−→ Qjk ((1 − t)λ) ist stetig und hat ϕjk (0) = Qjk (λ) , ϕjk (1) = E2n . (b) Nun für die Matrizen Sn (q) , q ∈ H : Es ist “anschaulich” klar, man kann es aber auch nachrechnen (siehe Aufgabe (10.6)): H \ {0} ist, wie R4 \ {0}, wegzusammenhängend. Es gibt also einen Weg ϕ0 : [0, 1] −→ H \ {0} mit ϕ0 (0) = q , ϕ0 (1) = E2 Dann setzen wir ϕn : [0, 1] −→ GL(n, H) , t 7−→ Sn (ϕ0 (t)) . 169 . Es ist dann ϕn (t) ∈ GL(n, H) , und ϕn (0) = Sn (q) , ϕn (1) = Sn (E2 ) = E2n . Und ϕn ist stetig. 2 Naheliegend ist die folgende Definition 10.6.13 : Für n ∈ N setzen wir SL(n, H) := { A ∈ GL(n, H) | detC A = 1 } . 2 Wie in Satz 10.6.5 erhält man Satz 10.6.14 : Die Abbildung o n −1 SL(n, H) −→ A ∈ SL(2n, C) | A · Jn · A = Jn , A 7−→ `n (A) ist ein Gruppen-Isomorphismus. 2 Den Satz 10.6.10 kann man für SL(n, H) statt GL(n, H) etwas modifizieren. Man berücksichtige dabei, dass für u v q = ∈ H = M (1 × 1, H) mit u, v ∈ C gilt : −v u detC q = |u|2 + |v|2 = N (q) : Satz 10.6.15 : Zu jedem A ∈ SL(n, H) gibt es ein Produkt B von Elementarmatrizen Qjk (λ) , λ ∈ H , j 6= k , und ein q ∈ H mit N (q) = 1 und A = B · Sn (q) . Beweis : Das folgt aus Satz 10.6.10 und dem Determinanten-Multiplikationssatz 10.6.7 (a) . 2 Satz 10.6.16 : SL(n, H) ist wegzusammenhängend. Beweis : Die Elementarmatrizen Qjk (λ) gehören zu SL(n, H), und das gilt auch für die Verbindungswege dieser Matrizen mit E2n , so wie wir sie in Teil (a) des Beweises von Satz 10.6.10 definiert hatten. Komplizierter ist das mit der Matrix Sn (q) : Wir hatten uns überzeugt, dass der in Teil (b) des 170 Beweises von 10.6.10 definierte Verbindungsweg ϕn in GL(n, H) liegt, aber er liegt nicht notwendig in SL(n, H). Wir suchen uns einen anderen Weg und benutzen dazu Polarkoordinaten im R4 (siehe etwa [K2]): Zu u v mit u, v ∈ C und N (q) = |u|2 + |v|2 = 1 q = −v u gibt es drei “Winkel” ψ1 , ψ2 , ψ3 mit −π < ψ1 ≤ π , − π π π π < ψ2 ≤ , − < ψ3 ≤ 2 2 2 2 und u = cos ψ1 cos ψ2 cos ψ3 +i sin ψ1 cos ψ2 cos ψ3 , v = sin ψ2 cos ψ3 +i sin ψ3 . Setzt man nun ϕ : [0, 1] −→ SL(n, H) , ϕ(t) := Sn (q(t)) mit q(t) := u(t) v(t) −v(t) u(t) , u(t) := cos(1−t)ψ1 cos(1−t)ψ2 cos(1−t)ψ3 +i sin(1−t)ψ1 cos(1−t)ψ2 cos(1−t)ψ3 , v(t) := sin(1 − t)ψ2 cos(1 − t)ψ3 + i sin(1 − t)ψ3 . so sieht man, dass ϕ stetig ist und in SL(n, H) verläuft, mit ϕ(0) = Sn (q) und ϕ(1) = E2n . (Anmerkung: Das ist im Grunde der Beweis, dass die Einheitssphäre im R4 wegzusammenhängend ist.) 2 10.7 Klassische Gruppen als Mannigfaltigkeiten Wir wollen sehen, dass gewisse klassische Gruppen Untermannigfaltigkeiten des n2 -dimensionalen R−Vektorraums M (n × n, R) sind. Die folgende Definition gehört natürlich in die Analysis, siehe etwa [Fo3]: Definition 10.7.1 : Seien k, d ∈ N. Eine Teilmenge M ⊂ Rk heißt eine d−dimensionale Untermannigfaltigkeit, wenn es zu jedem Punkt a ∈ M eine offene Teilmenge U ⊂ Rk mit a ∈ U und stetig differenzierbare Funktionen f1 , . . . , fk−d : U −→ R gibt, so dass gilt (a) M ∩ U = { x ∈ U | f1 (x) = . . . = fk−d (x) = 0 } , 171 (b) Rg ∂(f1 , . . . , fk−d ) (a) = k − d . ∂(x1 , . . . , xk ) Dabei bezeichnet ∂(f1 , . . . , fk−d ) = ∂(x1 , . . . , xk ) ∂f1 ∂f1 ... ∂x1 ∂xk .. .. . . ∂fn−k ∂fn−k ... ∂x1 ∂xk die Funktionalmatrix von f = (f1 , . . . , fn−k ). Beispiel 10.7.2 : Sei D offen in Rk , dann ist D eine k−dimensionale Untermannigfaltigkeit von Rk . Beweis : In der Def. 10.7.1 kann man U := D nehmen. fj für j ∈ ∅ braucht man nicht zu definieren. 2 Beispiel 10.7.3 : Nach Bemerkung 10.2.3 ist GL(n, K) offen in M (n×n, K), also ist GL(n, R) eine Untermannigfaltigkeit der Dimension n2 , GL(n.C) eine Untermannigfaltigkeit der Dimension 2n2 über R . Definition 10.7.4 : Seien U, V ⊂ Rn offene Mengen. Eine Abbildung F : U −→ V heißt ein Diffeomorphismus , falls F bijektiv ist und sowohl F als auch F −1 stetig differenzierbar sind. 2 Zum Nachweis, dass eine Menge M eine Untermannigfaltigkeit ist, verwenden wir den Satz 10.7.5 : Sei Wk ⊂ Rn der k−dimensionale Untervektorraum Wk := { (x1 , . . . , xn ) ∈ Rn | xk+1 = . . . = xn = 0 } . Eine Teilmenge M ⊂ Rn ist genau dann eine k−dimensionale Untermannigfaltigkeit, wenn es zu jedem a ∈ M eine offene Teilmenge U ⊂ Rn mit a ∈ U und einen Diffeomorphismus F : U −→ V 172 auf eine offene Menge V ⊂ Rn gibt, so dass gilt F (M ∩ U ) Wk ∩ V = . 2 Hilfssatz 10.7.6 : Sei G eine Untergruppe von GL(n, K) , K = R oder C. Wenn es offene Mengen U1 ⊂ M (n × n, K) mit En ∈ U1 und U0 ⊂ M (n × n, K) mit 0 ∈ U0 , einen Diffeomorphismus ψ : U0 −→ U1 und einen R−Untervektorraum V von M (n × n, K) gibt mit ψ −1 (G ∩ U1 ) = U0 ∩ V und ψ(0) = En , so ist G eine Untermannigfaltigkeit von M (n × n, K) der Dimension dimR V. Beweis : (a) Wir setzen k := dimR V m := n2 für K = R , , m := 2n2 für K = C . Ist (v1 , . . . , vk ) eine Basis von V und (e1 , . . . , em ) die kanonische Basis von Rm ∼ = M (n × n, K) , so ist durch ρ : V −→ Wk , vj 7−→ ej eine lineare Abbildung von V auf Wk = { (x1 , . . . , xm ) ∈ Rm | xk+1 = . . . = xm = 0 } definiert, die sich zu einem Vektorraum-Isomorphismus ρ : M (n × n, K) −→ Rm fortsetzen lässt. ρ ist dann ein Diffeomorphismus, es gibt eine offene Menge U 0 ⊂ Rm mit ρ(U0 ∩ V ) = U 0 ∩ Wk . ρ ◦ ψ −1 : U1 −→ U 0 ist ein Diffeomorphismus mit ρ ◦ ψ −1 (G ∩ U1 ) = U 0 ∩ Wk 173 . (b) Sei nun g ∈ G beliebig. Die Abbildung ψg : M (n × n, K) −→ M (n × n, K) , ψg (h) := g · h ist ein Diffeomorphismus von M (n × n, K) auf sich, also ist Ug := { g · h | h ∈ U1 } eine offene Teilmenge von M (n × n, K) mit g ∈ Ug , und ϕ := ρ ◦ ψ −1 ◦ ψg−1 : Ug −→ M (n × n, K) ist ein Diffeomorphismus mit ϕ(Ug ∩ G) = U 0 ∩ Wk . Nach Satz 10.7.5 ist G eine k−dimensionale Untermannigfaltigkeit von M (n × n, K). 2 Satz 10.7.7 : SL(n, K) := { A ∈ M (n × n, K) | det A = 1 } ist in GL(n, K) eine Untermannigfaltigkeit der Dimension n2 − 1 2(n2 − 1) für für K = R , bzw. K = C . Beweis : Für A = (akj ) ∈ M (n × n, K) und k, j ∈ n setzen wir dkj , tkj : M (n × n, K) −→ K , dkj (A) := det A0kj , tkj (A) := akj , wobei A0kj die in 5.3.1 definierte Matrix ist, die aus A durch Streichen der k−ten Zeile und j−ten Spalte entsteht. Entwicklung von det A nach der 1.Zeile von A liefert also (1) det A = n X (−1)1+j t1j (A)·d1j (A) , j=1 für alle A ∈ M (n × n, K). Es ist d11 (En ) = 1, und da d11 (als Polynomfunktion mehrerer Variablen) stetig ist, ist (2) U1 := { A ∈ M (n × n, K) | d11 (A) 6= 0 } 174 eine offene Menge in M (n × n, K) mit En ∈ U1 . Für alle A ∈ U1 gilt (3) t11 (A) = d11 (A)−1 det A − n X ! (−1)1+j t1j (A) · d1j (A) . j=2 Die Abbildung ψ 0 : M (n × n, K) −→ M (n × n, K) , det A a12 . . . a1n a11 . . . a1n a2n .. .. 7−→ a21 a22 . . .. . .. . an1 . . . ann an1 an2 . . . ann , bei der a11 durch det A ersetzt wird, ist differenzierbar. Sie bildet U1 in sich ab, denn es gilt d11 (ψ 0 (A)) = d11 (A) . Nach (3) kann man für A ∈ U1 das Element a11 = t11 (A) aus ψ 0 (A) berechnen, man hat also zu ψ 0 die inverse Abbildung b a12 . . . a1n a21 a22 . . . a2n ψ 0−1 : U1 −→ U1 , B := .. .. 7−→ . . an1 an2 . . . ann n P −1 1+j d11 (B) (b − j=2 (−1) a1j d1j (B)) a12 . . . a1n a21 a22 . . . a2n 7−→ .. .. . . an1 an2 . . . ann und diese Abbildung ist auch differenzierbar. Also ist ψ 0 U1 ein Diffeomorphismus von U1 auf U1 . Da U1 offen ist, ist auch U0 := { A − En | A ∈ U1 } offen, und enthält die 0 ∈ M (n × n, K) . Die Abbildung ψ : U0 −→ U1 , A 7−→ ψ 0−1 (En + A) ist ein Diffeomorphismus mit (4) ψ −1 (SL(n, K) ∩ U1 ) = { A ∈ U0 | t11 (A) = 0 } , 175 denn für A ∈ SL(n, K) ∩ U1 gilt det A = 1 und d11 (A) 6= 0 , ψ −1 (A) = ψ 0 (A) − En also und t11 (ψ 0 (A) − En ) = 0 , und für A ∈ U0 mit t11 (A) = 0 gilt ψ(A) = ψ 0−1 (En + A) ∈ U1 , t11 (En + A) = 1 , und nach Definition von ψ 0 heißt das det(ψ 0−1 (En + A)) = 1 . Also ist ψ(A) ∈ U1 ∩ SL(n, K) . Damit ist (4) bewiesen, wir haben ψ −1 (SL(n, K) ∩ U1 ) = U0 ∩ V mit V := { A ∈ M (n × n, K) | a11 = 0 } , und das ist ein R−Untervektorraum von M (n × n, K) der Dimension n2 − 1 (für K = R) bzw. 2n2 − 2 (für K = C ) . Nach Hilfssatz 10.7.6 folgt die Behauptung. 2 Hilfssatz 10.7.8 : Sei F ∈ M (n × n, K) invertierbar. Dann ist G := B ∈ M (n × n, K) | t B · F · B = F eine Untergruppe von GL(n, K) , V := A ∈ M (n × n, K) | t A · F + F · A = 0 ist ein Untervektorraum von M (n × n, K), und G ist eine Untermannigfaltigkeit der Dimension dimR V . Beweis : Dass G Untergruppe von GL(n, K) und V Untervektorraum von M (n × n, K) ist, rechnet man nach. Den Rest zeigt man mit Hilfssatz 10.7.6: U0 := { A ∈ M (n × n, K) | det(En − A) 6= 0 } ist eine offene Teilmenge von M (n × n, K) mit 0 ∈ U0 , und U1 := { B ∈ M (n × n, K) | det(En + B) 6= 0 } 176 ist offen mit En ∈ U1 . Die Abbildungen σ : U0 −→ M (n × n, K) , A 7−→ (En + A) · (En − A)−1 , B 7−→ −(En − B) · (En + B)−1 τ : U1 −→ M (n × n, K) , sind differenzierbar, da sie stetig partiell differenzierbar sind. Wir zeigen nun: (∗) σ(U0 ) ⊂ U1 , τ (U1 ) ⊂ U0 , σ ◦ τ = idU1 , τ ◦ σ = idU0 , damit folgt dann, dass σ als Abbildung von U0 auf U1 ein Diffeomorphismus ist. Der Beweis von (∗) ist einfach Bruchrechnung für Matrizen: Für alle A ∈ U0 gilt En + σ(A) = (En − A) · (En − A)−1 + (En + A) · (En − A)−1 = 2 · (En − A)−1 , also det(En + σ(A)) = 2n det(En − A)−1 6= 0 , also σ(A) ∈ U1 , und es ist En −σ(A) = (En −A)·(En −A)−1 −(En +A)·(En −A)−1 = −2A·(En −A)−1 , also A = −(En − σ(A)) · (En + σ(A))−1 = τ (σ(A)) . Andererseits gilt für alle B ∈ U1 : det(En + B) 6= 0 und σ(τ (B)) = σ(−(En − B) · (En + B)−1 ) = (En − (En − B) · (En + B)−1 ) · (En + (En − B) · (En + B)−1 )−1 = (En +B −(En −B))·(En +B)−1 ·(En +B)·(En +B +(En −B))−1 = (2B)·(2En )−1 = B . Damit ist (∗) bewiesen. Wir behaupten nun: (∗∗) G ∩ U1 = σ(V ∩ U0 ) , damit folgt dann die Behauptung aus Hilfssatz 10.7.7. Beweis von (∗∗): Sei A ∈ U0 . Dann gilt σ(A) ∈ G t ⇐⇒ ((En + A)(En − A)−1 ) · F · (En + A)(En − A)−1 = F t ⇐⇒ (En − A)−1 · (En +t A) · F · (En + A) · (En − A)−1 = F ⇐⇒ (En +t A) · F · (En + A) = (En −t A) · F · (En − A) ⇐⇒ F +t A · F + F · A +t A · F · A = F −t A · F − F · A +t A · F · A ⇐⇒ 2(t A · F + F · A) = 0 t ⇐⇒ A·F +F ·A = 0 ⇐⇒ A∈V . 177 Damit und mit (∗) ist (∗∗) bewiesen. 2 Für F kann man nun passende Matrizen einsetzen: Für F := En erhält man im Fall K = R: Satz 10.7.9 : O(n) ist eine Untermannigfaltigkeit von GL(n, R) der n(n − 1) Dimension . 2 Beweis : Für das V aus Hilfssatz 10.7.8 erhält man V = A ∈ M (n × n, R) | t A = −A , also die Menge der schiefsymmetrischen reellen n × n−Matrizen. Eine Basis bilden die Matrizen Ekj − Ejk das sind für k > j k, j ∈ n , , n(n − 1) Basiselemente. (Dabei war 2 Ekj = (δkr · δjs )(r,s)∈n×n .) 2 Satz 10.7.10 : Sei O(n, C) := { A ∈ M (n × n, C) | t A · A = En } , so ist O(n, C) eine Untermannigfaltigkeit von GL(n, C) der Dimension n(n − 1) über R. Beweis : Ähnlich wie in Satz 10.7.9 ist V = A ∈ M (n × n, C) | t A = −A , und das ist ein Vektorraum der Dimension n(n − 1) über C, also 2 dimR V = n(n − 1) . 2 Bemerkung 10.7.11 : In Beispiel 10.3.3 hatten wir für p, q ∈ N0 mit p + q = n die pseudo-orthogonalen Gruppen O(p, q) = A ∈ M (n × n, R) | t A · Fp,q · A = Fp,q 178 mit Fp,q Ep | 0 := −− + −− 0 | −Eq . Fp,q ist in M (n × n, R) invertierbar, man kann also F := Fp,q in Hilfssatz 10.7.8 einsetzen und erhält Satz 10.7.12 : Für n ∈ N und p, q ∈ N0 mit p + q = n sei O(p, q) = A ∈ M (n × n, R) | t A · Fp,q · A = Fp,q . Dann ist O(p, q) eine Untermannigfaltigkeit von GL(n, R) der Dimension n(n − 1) . 2 Beweis : Hier ist V = A ∈ M (n × n, R) | t A · Fp,q = −Fp,q · A . Für A = (akj ) ∈ V gilt damit akk = 0 für k ∈ n , und für k, j ∈ n mit k 6= j : akj = −ajk akj = ajk , , falls k, j ∈ p oder k, j ∈ n \ p , falls (k > p ∧ j ≤ p) oder (k ≤ p ∧ j > p) . Das bedeutet (wie bei den schiefsymmetrischen Matrizen in Satz 10.7.9 ), n(n − 1) dass man genau die Elemente unterhalb der Diagonale frei wählen 2 kann, also n(n − 1) , dim V = 2 und nach Hilfssatz 10.7.8 ist O(p, q) eine Untermannigfaltigkeit der Dimenn(n − 1) sion . 2 2 Bemerkung 10.7.13 : Sei s eine nicht-ausgeartete symmetrische Bilinearform auf dem Kn . Dann gibt es nach Korollar 9.2.6 eine Basis B = (b1 , . . . , bn ) von Kn , so dass MB (s) = (s(bk , bj )) = (λj δkj ) 179 eine Diagonalmatrix ist, wobei alle λj 6= 0 sind, da s nichtausgeartet ist. Es 1 gibt also µj ∈ C mit µ2j = . λj (a) Sei K = C. Für A = (a1 , . . . , an ) mit aj := µj bj MA (s) = (s(ak , aj )) = En ist . Betrachten wir nun die Gruppe der Matrizen MAA (f ) aller“bezüglich s orthogonalen Abbildungen” des Cn , d.h. der f ∈ HomC (Cn , Cn ) mit s(f (v), f (w)) = s(v, w) für alle v, w ∈ Cn , so sehen wir, dass das die Gruppe O(n, C) ist, die wir in Satz 10.7.11 definiert hatten. (b) Sei K = R . Dann gibt es nach (9.3.4), und da s nichtausgeartet ist, eine Basis A = (a1 , . . . , an ) von Rn , so dass MA (s) = (s(ak , aj )) = Fp,q ist. Die Gruppe der Matrizen MAA (f ) aller f ∈ HomR (Rn , Rn ) mit ∀ v, w ∈ Rn : s(f (v), f (w)) = s(v, w) ist hier die in 10.3.3 definierte Gruppe O(p, q). (c) Hat man nun eine beliebige Basis C von Kn und f ∈ HomK (Kn , Kn ), so gilt MCC (f ) = T · MAA (f ) · T −1 mit einer Transformationsmatrix T ∈ GL(n, K), die von f nicht abhängt. Die Gruppe der Matrizen MCC (f ) aller bezüglich s orthogonalen Abbildungen des Kn auf sich ist also gleich T · O(n, C) · T −1 bzw. T · O(p, q) · T −1 . Nun ist für festes T ∈GL(n, K) die Abbildung M (n × n, K) −→ M (n × n, K) , A 7−→ T · A · T −1 ein Diffeomorphismus. Also ist die Gruppe der Matrizen aller bezüglich s orthogonalen Abbildungen bei jeder Basis eine Untermannigfaltigkeit von GL(n, K) der Dimension n(n − 1) für K = C , 180 bzw. n(n − 1) 2 für K = R . 2 Bemerkung 10.7.14 : Sei s eine schiefsymmetrische Bilinearform auf dem Kn , also s(v, w) = −s(w, v) für alle v, w ∈ Kn , so zeigen Sie in Aufgabe dass 0 −1 − (s(ak , aj )) = (10.7), dass es eine Basis (ak )k∈n von Kn gibt, so 1 | 0 | − + 0 ... + − − −| | 0 1 | | −1 0 | | − − − −| 0 0 ... 0 ist. Ist zusätzlich s nichtausgeartet, so hat man keine Zeilen, in denen nur n Kästchen Nullen stehen, und p = 2 |− − | 0 | −1 | − − − −| 1 | 0 | − −| in der Diagonale. Dann ist also n = 2p gerade, und wenn man die Basiselemente anders numeriert, kann man erreichen, dass 0 | Ep (s(ak , aj )) = Jp := − + − −Ep | 0 mit 0 ∈ M (p × p, K) wird. Wie in Bemerkung 10.7.13 (c) kann man sich überlegen, dass ein Basiswechsel die Dimension der Untermannigfaltigkeit 181 nicht ändert; wir können also annehmen, dass (ak )k∈n die kanonische Basis des Kn ist. Dann ist die Gruppe { B ∈ GL(n, K) | ∀ a, b ∈ Kn : s(B · a, B · b) = s(a, b) } gleich der in Hilfssatz 10.7.8 definierten Gruppe G, mit F := Jp . Für K = R kennen wir diese Gruppe aus Beispiel 10.3.4 : Es ist die symplektische Gruppe Sp(p, R). Das geht aber auch für K = C: Satz 10.7.15 : Die symplektische Gruppe Sp(p, K) = A ∈ GL(2p, K) | t A · Jp · A = Jp ist eine Untermannigfaltigkeit der Dimension 2(2p2 + p) für K = C bzw. 2p2 + p für K = R von GL(2p, K). Beweis : In Hilfssatz 10.7.8 müssen wir dimR V für V := A ∈ M (n × n, K) | t A · Jp = −Jp · A berechnen. Schreibt A1 A = − A3 für n = 2p man sich A als Kästchenmatrix | A2 + − mit Aj ∈ M (p × p, K) für j ∈ 4 | A4 auf, so bedeutet A ∈ V : t − A3 | t A1 − + − −t A4 | t A2 = −A3 | −A4 − + − A1 | A2 , und das gilt genau dann, wenn A3 = t A3 , A2 = t A2 , A4 = −t A1 ist. A2 und A3 kann man also beliebig aus K−Vektorräumen der Dimension p(p + 1) wählen, und A1 ∈ M (p × p, K) beliebig. Also ist 2 dimK V = 2 · p(p + 1) + p2 = 2p2 + p . 2 182 2 Nach den orthogonalen und symplektischen Gruppen fehlen uns nur noch die unitären Gruppen: Bemerkung 10.7.16 : Sei K = C, dann betrachten wir für F ∈ GL(n, C) die Gruppe . G := B ∈ M (n × n, C) | t B · F · B = F Wie in Hilfssatz 10.7.8 zeigt man, dass G eine Untergruppe von GL(n, C) ist, dass V := A ∈ M (n × n, C) | t A · F + F · A = 0 ein R−Untervektorraum von M (n × n, C) ist, und dass G eine Untermannigfaltigkeit von GL(n, C) der Dimension dimR V ist. Für F = En wird G = U(n) die in 9.1.6 definierte unitäre Gruppe. Andere Gruppen erhält man mit der Matrix Fp,q aus Bemerkung 10.7.11: Definition und Satz 10.7.17 : Für n ∈ N und p, q ∈ N0 mit p + q = n sei U(p, q) := B ∈ M (n × n, C) | t B · Fp,q · B = Fp,q , dann ist U(p, q) eine Untermannigfaltigkeit von GL(n, C) der Dimension n2 über R . Speziell gilt das für U(n) = U(n, 0) = U(0, n) . Beweis : Zu berechnen ist dimR V von V = A ∈ M (n × n, C) | t A · Fp,q = −Fp,q · A . Wir setzen A als Kästchenmatrix der Form A1 | B1 A = − + − t B2 | A2 an, mit A1 ∈ M (p × p, C) , A2 ∈ M (q × q, C) und B1 , B2 ∈ M (p × q, C), dann ist A ∈ V gleichbedeutend mit t A1 | −B2 −A1 | −B1 − + − = −− + −− , also mit t t B1 | −t A2 B2 | A2 183 A1 = −t A1 , A2 = −t A2 , B1 = B2 . Man kann B2 ∈ M (p × q, C) beliebig wählen, dimR M (p × q, C) = 2pq . Sei A1 = (akj ) , dann bedeutet A1 = −t A1 : akj = −ajk für k 6= j und Re akk = 0 , also ist dimR A1 ∈ M (p × p, C) | A1 = −t A1 = p+2· p(p − 1) = p2 2 . Insgesamt wird dimR V = p2 + q 2 + 2pq = (p + q)2 = n2 . 2 Definition 10.7.18 : Eine Lie-Gruppe ist eine Mannigfaltigkeit G , die auch eine Gruppe ist, so dass die Multiplikation µ : G × G −→ G , (g, h) 7−→ g · h und das Invertieren ι : G −→ G , g 7−→ g −1 differenzierbar sind. 2 Folgerung 10.7.19 : Die Gruppen GL(n, K) sind Mannigfaltigkeiten, und zwar offene Teilmengen des n2 − ( für K = C : 2n2 − ) dimensionalen R−Vektorraums M (n × n, K). Für g, h ∈ GL(n, K) gilt tkj (g · h) = n X tkl (g) · tlj (h) und l=1 tkj (g −1 ) = (−1)k+j (det g)−1 djk (g) , also sind die n2 Komponenten der Funktionen µ und ι differenzierbare Funktionen der 2n2 bzw. n2 Variablen tkj (g) ( und tkj (h) ). Also sind µ und ι 184 differenzierbar, also sind die GL(n, K) Lie-Gruppen. Die Restriktionen differenzierbarer Abbildungen auf Untermannigfaltigkeiten sind wieder differenzierbar, also folgt aus den in 10.7 bewiesenen Sätzen: Satz 10.7.20 : Alle Gruppen SL(n, K) , O(n, C) , O(p, q) , Sp(p, K) und U(p, q) sind Lie-Gruppen. 2 (10.8) Aufgaben (10.1) Zeigen Sie: Für jedes α ∈ R ist fα : [0, 1] −→ C , t 7−→ t + iα sin πt ein Weg in C , der 0 und 1 verbindet, und außer 0 und 1 haben diese verschiedenen Wege keine Punkte gemeinsam, d.h. es gilt fα ((0, 1)) ∩ fβ ((0, 1)) = ∅ für α 6= β . Beweisen Sie damit, dass es für A, H ∈GL(n, C) einen Weg f in M (n × n, C) gibt, der A mit H verbindet und keinen Punkt der endlichen Menge { z ∈ C | det(zA + (1 − z)H) = 0 } trifft. (10.2) (a) Seien V1 und V2 normierte K−Vektorräume, mit Normen k k1 bzw. k k2 . Zeigen Sie: Eine lineare Abbildung F : V1 −→ V2 ist genau dann stetig, wenn es ein M ∈ R , M ≥ 0, gibt mit (∗) ∀ x ∈ V1 : kF (x)k2 ≤ M ·kxk1 . kF kop = sup { kf (x)k2 | kxk1 ≤ 1 } ist die kleinstmögliche Zahl M , für die (∗) gilt. (b) Sei V = C ∞ ([0, 1]) der Vektorraum der beliebig oft differenzierbaren Funktionen von [0, 1] nach R , mit kf k := sup { |f (x)| | x ∈ [0, 1] } . Sei D : V −→ V die Differentiation, also D(f ) := f 0 die Ableitung von f ∈ V . Zeigen Sie, dass D nicht stetig ist. 185 (10.3) (Zur Gruppe O(1, 1) :) (a) Sei A ∈O(1, 1), d.h. A ∈GL(2, R) und es gelte: 1 0 1 0 2 t t (∗) ∀ v, w ∈ R : (A·v)· ·A·w = v· ·w , 0 −1 0 −1 dann ist (∗) gleichbedeutend mit 1 0 1 0 t A· ·A = oder auch 0 −1 0 −1 1 0 1 0 t A· = · A−1 0 −1 0 −1 . (b) Für A ∈O(1, 1) gilt det A ∈ {±1}. Setzt man SO(1, 1) := { A ∈ O(1, 1) | det A = 1 } O− (1, 1) := { A ∈ O(1, 1) | det A = −1 } , , so ist O(1, 1) die disjunkte Vereinigung von SO(1, 1) und O− (1, 1) . Es ist 2 a b 2 SO(1, 1) = . a −b = 1 b a Aus a2 − b2 = 1 folgt a2 ≥ 1 , also a ≥ 1 oder a ≤ −1 . Wir setzen 2 a b + 2 a − b = 1, a ≥ 1 . SO (1, 1) := b a Zeigen Sie, dass es zu jedem A ∈SO+ (1, 1) ein t ∈ R gibt mit cosh t sinh t A = , sinh t cosh t und dass die Matrizen A ∈SO+ (1, 1) genau die Matrizen aus O(1, 1) sind, die sich durch einen Weg mit E2 verbinden lassen. (c) Zeigen Sie, dass die Abbildung cosh t sinh t + R −→ SO (1, 1) , t 7−→ sinh t cosh t ein Isomorphismus der Gruppe (R, +) auf die Gruppe (SO+ (1, 1), ·) ist, und SO+ (1, 1) ist ein kommutativer Normalteiler in O(1, 1). 186 (10.4) Sei p ∈ N und Sp(p, R) die in 10.3.4 definierte symplektische Gruppe, dann haben wir mit der Matrix 0 | −Ep B := −− + −− Ep | 0 die durch s(x, y) := t x · B · y definierte Bilinearform s auf R2p . Zeigen Sie für dieses s : (a) Für alle x, y ∈ R2p gilt s(x, x) = 0 und s(x, y) = −s(y, x) . (b) Für a ∈ R2p und α ∈ R heißt σa,α : R2p −→ R2p , x 7−→ x − αs(a, x)a eine symplektische Transvektion . Zu a gibt es ein a2 ∈ R2p mit s(a, a2 ) = 1 . Ergänzen wir (a, a2 ) durch Vektoren a3 , . . . , a2p ∈ span(a, a2 )⊥ zu einer Basis (a, a2 , . . . , a2p ) des R2p , so ist die Matrix von σa,α bezüglich dieser Basis: 1 −α | | 0 0 1 | Sa,α := −− −− −− + −− 0 | E2p−2 (c) Für festes a ∈ R2n \ {0} ist α 7−→ Sa,α ein injektiver Gruppenhomomorphismus von (R, +) in die Gruppe (Sp(p, R), ·). (d) Für alle α ∈ R , a ∈ R2p ist det Sa,α = 1 , und E2p − Sa,α ist nilpotent. (10.5) Zeigen Sie für A ∈ M (n×n, H): Ist `n (A) invertierbar in M (2n×2n, C), so ist A invertierbar. 187 (10.6) Beweisen Sie, dass H \ {0} wegzusammenhängend ist. Hinweis: Zeigen Sie, ähnlich wie im Beweis von Satz 10.6.16, dass man jedes r · α ∈ H mit r > 0 und N (α) = 1 durch einen Weg in H \ {0} verbinden kann mit E2 . (10.7) Sei K ein Körper, char K 6= 2 , n ∈ N , V ein K−Vektorraum und s : V × V −→ K bilinear und antisymmetrisch, also ∀ v, w ∈ V : s(v, w) = −s(w, v) . Sei B = (b1 , . . . , bn ) eine Basis von V und MB (s) := (s(bk , bj ))(k,j)∈n×n Zeigen Sie, dass es eine Basis A von V J | − + ... + | MA (s) = | − 0 . gibt mit 0 − −| J | − −| 0 ... 0 0 1 . −1 0 Anleitung: Zeigen Sie zunächst: Es gibt eine Basis A0 von V mit 0 1 | −1 0 | 0 MA0 (s) = − − + − 0 | B mit Kästchen J = mit einer schiefsymmetrischen Matrix B ∈ M ((n−2)×(n−2), K) , also t B = −B. Führen Sie dazu an MB (s) gleichzeitig elementare Zeilenund die entsprechenden Spaltenumformungen aus. Sei T das Produkt der Elementarmatrizen Qjk (λ) und Sk (λ) für die Zeilenumformungen, dann ist auch T · MB (s) ·t T schiefsymmetrisch , also ist auch B schiefsymmetrisch, und man kann Induktion machen. (Die Aufgabe ist eine Präzisierung von Aufgabe (5.3). ) 188 Empfehlenswerte Literatur zur Linearen Algebra : [Fi] Gerd Fischer : Lineare Algebra, eine Einführung für Studienanfänger. 18.Auflage, Springer 2014. [SG] Hannes Stoppel, Birgit Griese : Übungsbuch zur Linearen Algebra. 8.Auflage, Springer 2015. [HW] Bertram Huppert, Wolfgang Willems : Lineare Algebra, 2., überarbeitete und erweiterte Auflage, Vieweg+Teubner 2010. [Ko] Max Koecher : Lineare Algebra und analytische Geometrie. 4.Auflage, Springer Berlin 1997. [KM] H.-J.Kowalsky, G.O.Michler : Lineare Algebra. 12., überarbeitete Auflage, De Gruyter Lehrbuch, Berlin 2008. [RW] M.Roczen und H.Wolter, W.Pohl, D.Popescu, R.Laza: Lineare Algebra individuell, Online Ver. 0.62, 20.3.2010. zur Analysis : [K1] Konrad Königsberger: Analysis 1, 6.Auflage, Springer-Lehrbuch 2004. [K2] Konrad Königsberger: Analysis 2, 5.Auflage, Springer-Lehtbuch 2004. [Fo1] Otto Forster : Analysis 1, 12. Auflage, Springer 2016. [Fo2] Otto Forster : Analysis 2, 10.Auflage, Springer 2013. [Fo3] Otto Forster : Analysis 3, 7.Auflage, Springer 2012. [He] Harro Heuser : Lehrbuch der Analysis, Teil 1. 17.Auflage, Springer 2009. zur Algebra : [Bo] Siegfried Bosch : Algebra, 6.Auflage, Springer-Lehrbuch 2006. [Hei] Wolfgang Hein : Einführung in die Struktur- und Darstellungstheorie der klassischen Gruppen, Springer 1990. [HN] Joachim Hilgert, Karl-Hermann Neeb : Lie-Gruppen und Lie-Algebren, Vieweg 1991. [Ja] Nathan Jacobson : Basic Algebra I, 2nd edition, Dover Publications 2009. [Ja] Jens Carsten Jantzen : Lineare Algebra und Analytische Geometrie III,Vorlesungsskript, Universität Hamburg W.S. 1986/87. [KM] Chr.Kapfinger, K.Meyberg : Algebra, 3.Auflage, Springer Spektrum 2013. 189 Verzeichnis der Definitionen Abkürzungen: e : einer, eines , v : von A D abgeschlossene Menge 146 ähnliche Matrizen 39 äquivalente Normen 148 äußere Algebra 98 äußeres Produkt 89 alternierende k−fach lineare Abbildung 95 alternierender Tensor 89 Ausartungsraum 132 Dachprodukt 98 darstellende Matrix e. Hermiteschen Form 19 definit, positiv 6 definit, positiv semi- 6 diagonalisierbar 34 diagonalisierbar,simultan 49 Diffeomorphismus 172 direkte Summe, orthogonale 132 Drehachse 142 Drehung 107 Drehwinkel 142 Dreieck, sphrisches 24 Dreiecksungleichung 10 B bilinear 82 Bilinearform, symmetrische 6 Breite, geographische 28 E C Eigenraum 36 Cartan-Zerlegung 157 Eigenvektor 33 Cauchy-Schwarzsche Ungleichung 9 Eigenwert 33, 38 Cayley-Hamilton, Satz v. 53 elementarsymmetrische Funktion 130 charakteristisches Polynom 37,38 Entfernung auf der Erde 27 Cosinus-Sätze im sphärischen euklidische Norm 148 Dreieck 27 euklidischer Vektorraum 6 190 F J -fach linear 93 Fitting, Lemma v. 61 Form, Hermitesche 5 Funktion, elementarsymmetrische 130 Jacobi-Identität 22 Jordansche Normalform 73 K G Gram-Schmidt, Orthogonalisierungssatz v. 16 Grassmann-Identität 22 H Hauptachsentransformation 123 Hauptminor 139 -enkriterium 139 Hauptraum 60 Hermitesche Form 5 Hermitesche Matrix 19 Hesse-Matrix 128 Homöomorphismus 147 Hyperebene, Spiegelung an 143 I induzierte Metrik 150 Intervall 7 Involution 164 Isometrie 102 191 kanonisches Skalarprodukt 7 Kompakte Teilmenge 147 Komplement, orthogonales 30 komplementäre Matrix 54 komplexe symplektische Gruppe 162 Komplexifizierung 88 kontravarianter Tensor 94 konvergente Folge 146 kovarianter Tensor 94 L Länge, geographische 28 Legendre-Polynom 15 Lie-Algebra 23 Lie-Gruppe 184 M P Matrix, darstellende 19 Parallelogrammgleichung 11 Matrix, Hermitesche 19 Polynom, charakteristisches 37, 38 Matrix, symmetrische 20 positiv definit 6 Maximum-Norm 148 positiv definite Metrik 145 symmetrische Matrix 128 metrischer Raum 145 positiv orientiert 24 Minimalpolynom 57 positiv semidefint 6 Minimum und Maximum,Satz v. 147 pseudo-orthogonale Gruppe 154 Monom 88 pseudo-unitäre Gruppe 162 multilineare Abbildung 94 pythagoras, Satz des 11 N Q nichtausgeartet 13 nilpotent 60 normierter Vektorraum 11 quadratische Form 126 Quaternionengruppen 164 R O Raum, metrischer 145 offene Menge 146 Raum, topologischer 145 Operator-Norm 151 orientiert, positiv 24 orthogonal 13 Orthogonalbasis 15 orthogonale direkte Summe 152 orthogonale Gruppe 104 orthogonale lineare Abbildung 102 orthogonale Matrix 104 orthogonales Komplement 30 Orthogonalisierungssatz für symmetrische Bilinearformen 134 Orthogonalsystem 15 Orthonormalbasis 15 Ortonormalisierungssatz v. Gram-Schmidt 16 Orthonormalsystem 15 192 S noch T Seite im sphärischen Dreieck 25 Transformationssatz für selbstadjungierter Endomorphismus 116 darstellende Matrizen 21 senkrecht 12 Transvektion, symplektische 187 Sesquilinearform 5 simultan diagonalisierbar 49 Sinus-Satz im sphärischen Dreieck 27 U Skalarprodukt 6 - , kanonisches 7 - , Standard- 7 Ungleichung, Cauchy-Schwarzsche 9 spezielle lineare Gruppe 155 unitäre Gruppe 104 spezielle orthogonale Gruppe 104 unitäre lineare Abbildung 102 sphärisches Dreieck 25 unitäre Matrix 104 Spiegelung 107 unitärer Vektorraum 6 - an Hyperebene 143 universelle Eigenschaft 86 Spur 31,38 Untermannigfaltigkeit 171 stetige Funktion 147 Summe, orthogonale direkte 132 Sylvestersches Trägheitsgesetz 137 V symmetrische Bilinearform 6 symmetrische k−fach lineare Abbildung 95 symmetrische Matrix 20 Vektorprodukt 21 symmetrischer Tensor 89 Vielfachheit e.Nullstelle 43 symmetrisches Produkt 99 Vieta, Wurzelsatz v. 130 symplektische Gruppe 154 Vorzeichenregel 130 symplektische Gruppe, komplexe 162 symplektische Transvektion 187 W T Tensor 84 Tensor, reiner 98 Tensoralgebra 96 Tensorprodukt 84 topologische Gruppe 153 topologischer Raum 145 Trägheitsgesetz von Sylvester 137 193 wegzusammenhängend 150 Winkel im sphärischen Dreieck 26 Winkel zwischen Vektoren 12 Wurzelsatz von Vieta 130 Z Zentrum e.Gruppe 142,155 zusammenhängend 150