Hans-Peter Gittel Lineare Algebra (für Informatiker/Grundschullehrer) Sommersemester 2014 Universität Leipzig, Institut für Mathematik Version vom 9. Juli 2014 Es wird keinerlei Gewähr für die Richtigkeit und Vollständigkeit der hier vorliegenden Mitschrift gegeben. Diese Mitschrift wurde ursprünglich von Roy Mennicke mit Hilfe von LATEX 2ε im Wintersemester 2003/2004 gesetzt. Die jeweils aktuellste Version ist erhältlich unter: http://www.math.uni-leipzig.de/∼gittel/LinAlg14.html Inhaltsübersicht 1 Algebraische Grundbegriffe 1 2 Algebraische Strukturen in Zahlbereichen 11 3 Vektorräume und lineare Abbildungen 25 4 Matrizen und lineare Gleichungssysteme 55 5 Euklidische Vektorräume 87 6 Eigenwerttheorie 107 iii Inhaltsverzeichnis 1 Algebraische Grundbegriffe 1.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.0.0.1 Beispiel: . . . . . . . . . . . . . 1.1.0.0.2 Beispiel: . . . . . . . . . . . . . 1.1.1 Grundlegende Bezeichnungen . . . . . . . . . . . 1.2 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.0.0.1 Definition einer Relation: . . . 1.2.1 Wichtige Relationen . . . . . . . . . . . . . . . . 1.2.1.0.1 Äquivalenzrelation: . . . . . . . 1.2.1.0.2 Ordnungsrelation: . . . . . . . . 1.2.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . 1.2.3 Satz über Äquivalenzklassen . . . . . . . . . . . . 1.2.3.0.3 Folgerung: . . . . . . . . . . . . 1.2.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . 1.3 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Definition (Gruppenaxiome) . . . . . . . . . . . . 1.3.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . 1.3.3 Eindeutigkeit von neutralen und inversen Element 1.3.4 Abbildung von Gruppen . . . . . . . . . . . . . . 1.3.4.1 Beispiel . . . . . . . . . . . . . . . . . . 1.4 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.0.1.1 Bemerkung: . . . . . . . . . . . 1.4.0.1.2 Beispiele: . . . . . . . . . . . . 1.4.0.2 Bezeichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . in (G, ∗) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 2 4 4 4 5 5 5 5 6 7 7 7 7 8 8 9 9 9 9 10 10 2 Algebraische Strukturen in Zahlbereichen 2.1 Permutationen . . . . . . . . . . . . . . . 2.1.0.0.1 Behauptung: . . 2.1.1 Definitionen . . . . . . . . . . . . . 2.1.1.1 Eigenschaften von τ . . . 2.2 Ring der ganzen Zahlen . . . . . . . . . . 2.2.1 Definition eines Rings . . . . . . . 2.2.1.0.1 Satz: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 11 11 12 12 12 13 13 v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 2.2.3 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . Definition des größten gemeinsamen Teilers . . . . . . . . . 2.2.3.0.1 Beispiel: . . . . . . . . . . . . . . . . . . 2.2.4 Euklidischer Algorithmus in der einfachen Form . . . . . . 2.2.4.0.1 Beispiel: . . . . . . . . . . . . . . . . . . 2.2.4.0.2 Behauptung: . . . . . . . . . . . . . . . 2.2.4.0.3 Folgerung: . . . . . . . . . . . . . . . . . 2.2.5 Anwendung (Konstruktion von endlichen Körpern) . . . . 2.2.5.0.1 Beispiel: . . . . . . . . . . . . . . . . . . 2.2.5.0.2 Satz über die Existenz endlicher Körper: Körper der komplexen Zahlen . . . . . . . . . . . . . . . . . . . . 2.3.1 Einführung der komplexen Zahlen . . . . . . . . . . . . . . 2.3.1.0.1 Geometrische Darstellung: . . . . . . . . 2.3.2 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . . 2.3.2.1 Bestimmung von z −1 . . . . . . . . . . . . . . . . 2.3.2.1.1 Folgerung: . . . . . . . . . . . . . . . . . 2.3.2.1.2 Beispiel: . . . . . . . . . . . . . . . . . . 2.3.2.2 Division . . . . . . . . . . . . . . . . . . . . . . . 2.3.2.2.1 Beispiel: . . . . . . . . . . . . . . . . . . 2.3.3 Geometrische Deutung der Rechenoperationen in C . . . . 2.3.3.1 Trignometrische Darstellung komplexer Zahlen . 2.3.3.1.1 Beispiel: . . . . . . . . . . . . . . . . . . 2.3.3.1.2 Beispiel: . . . . . . . . . . . . . . . . . . 2.3.4 Konvergenzbegriff in C . . . . . . . . . . . . . . . . . . . . 2.3.4.1 Definitionen . . . . . . . . . . . . . . . . . . . . . 2.3.4.1.1 Folgerung: . . . . . . . . . . . . . . . . . 2.3.4.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . 2.3.4.2.1 Bemerkung: . . . . . . . . . . . . . . . . 2.3.5 Komplexe Reihen . . . . . . . . . . . . . . . . . . . . . . . 2.3.5.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 13 13 14 14 14 14 15 15 15 15 15 16 16 16 17 17 18 18 18 19 20 20 22 22 22 23 23 23 23 23 3 Vektorräume und lineare Abbildungen 3.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Definition des Vektorraums . . . . . . . . . . . . . . . . . 3.1.1.0.1 Verknüpfung von Vektoren: . . . . . . . 3.1.1.0.2 Verknüpfung von Skalaren und Vektoren: 3.1.1.1 Bemerkungen . . . . . . . . . . . . . . . . . . . . 3.1.1.2 Folgerungen . . . . . . . . . . . . . . . . . . . . . 3.1.1.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . 3.1.2.0.1 Folgerung: . . . . . . . . . . . . . . . . . 3.1.2.0.2 Unterraumkriterium: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 25 25 25 26 26 26 26 28 28 28 2.3 3.2 3.3 3.4 3.1.2.0.3 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 3.1.2.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2.1.1 Beispiele: . . . . . . . . . . . . . . . . . . . . . . 3.1.3 Operationen mit Unterräumen . . . . . . . . . . . . . . . . . . . . . 3.1.3.0.1 Durchschnitt: . . . . . . . . . . . . . . . . . . . . 3.1.3.0.2 Summe: . . . . . . . . . . . . . . . . . . . . . . . 3.1.3.0.3 Beispiele: . . . . . . . . . . . . . . . . . . . . . . 3.1.3.0.4 Behauptung: . . . . . . . . . . . . . . . . . . . . 3.1.3.0.5 Folgerung: . . . . . . . . . . . . . . . . . . . . . . Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Definition der linearen Unabhängigkeit . . . . . . . . . . . . . . . . 3.2.1.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Charakterisierung der linearen Abhängigkeit . . . . . . . . . . . . . 3.2.2.1 Weitere Folgerungen . . . . . . . . . . . . . . . . . . . . . 3.2.3 Definition eines Erzeugendensystems . . . . . . . . . . . . . . . . . 3.2.3.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.4 Eigenschaften einer Basis . . . . . . . . . . . . . . . . . . . . . . . . 3.2.4.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 3.2.4.0.2 Satz über die Existenz einer Basis: . . . . . . . . 3.2.4.0.3 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 3.2.4.1 Wieviele Elemente hat eine Basis? . . . . . . . . . . . . . 3.2.4.1.1 Austauschlemma: . . . . . . . . . . . . . . . . . . 3.2.4.1.2 Ergänzung zum Austauschlemma: . . . . . . . . . 3.2.4.1.3 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 3.2.4.1.4 Austauschsatz von Steinitz (1913): . . . . . . . . 3.2.4.2 Wichtige Folgerungen aus dem Austauschsatz . . . . . . . Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Weitere wichtige lineare Abbildung . . . . . . . . . . . . . . . . . . 3.3.3.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 3.3.4 Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.5 Bestimmung von linearen Abbildungen . . . . . . . . . . . . . . . . 3.3.6 Dimensionsformel für lineare Abbildungen . . . . . . . . . . . . . . 3.3.6.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . Affine Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Eigenschaften affiner Unterräume . . . . . . . . . . . . . . . . . . . 3.4.1.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 3.4.1.0.2 Beispiele: . . . . . . . . . . . . . . . . . . . . . . 3.4.1.0.3 Satz über die Gleichheit von affinen Unterräumen: 3.4.1.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1.1.1 Parameterdarstellung von A = a0 + U: . . . . . . 3.4.2 Parallele Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . 29 29 29 30 30 30 31 31 31 32 32 32 33 34 34 34 35 35 35 36 36 36 37 37 37 38 43 43 44 45 45 46 47 49 50 50 50 50 51 51 52 52 52 3.4.3 3.4.2.0.1 Definition: . 3.4.2.1 Beispiele . . . . . . . Erzeugung affiner Unterräume 3.4.3.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Matrizen und lineare Gleichungssysteme 4.1 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Definition einer Matrix . . . . . . . . . . . . . . . . . . . . . . 4.1.1.0.1 Spezialfälle: . . . . . . . . . . . . . . . . . . 4.1.1.0.2 Bemerkung: . . . . . . . . . . . . . . . . . . 4.1.2 Operationen mit Matrizen . . . . . . . . . . . . . . . . . . . . 4.1.3 Zusammenhang zwischen linearen Abbildungen und Matrizen 4.1.3.0.1 Darstellungssatz: . . . . . . . . . . . . . . . 4.1.3.1 Interpretation der Matrizenoperationen . . . . . . . . 4.1.3.2 Spezialfälle . . . . . . . . . . . . . . . . . . . . . . . 4.1.3.3 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . 4.1.3.3.1 Beispiel: . . . . . . . . . . . . . . . . . . . . 4.1.3.3.2 Anwendung: . . . . . . . . . . . . . . . . . . 4.2 Rangbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Definition des Rangs einer Matrix . . . . . . . . . . . . . . . . 4.2.1.0.1 Definition: . . . . . . . . . . . . . . . . . . . 4.2.1.0.2 Satz: . . . . . . . . . . . . . . . . . . . . . . 4.2.1.0.3 Bemerkung: . . . . . . . . . . . . . . . . . . 4.2.1.0.4 Hilfssatz: . . . . . . . . . . . . . . . . . . . 4.2.1.0.5 Bedeutung des Hilfssatzes: . . . . . . . . . . 4.2.1.0.6 Beispiel: . . . . . . . . . . . . . . . . . . . . 4.2.2 Elementare Umformungen von Matrizen . . . . . . . . . . . . 4.2.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . 4.2.2.0.2 Eigenschaft: . . . . . . . . . . . . . . . . . . 4.2.2.0.3 Anwendung: . . . . . . . . . . . . . . . . . . 4.2.2.1 Behauptungen . . . . . . . . . . . . . . . . . . . . . 4.3 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1.0.1 Fragen: . . . . . . . . . . . . . . . . . . . . 4.3.2 Struktur der Lösungsräume . . . . . . . . . . . . . . . . . . . 4.3.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . 4.3.3 Lösbarkeitskriterium . . . . . . . . . . . . . . . . . . . . . . . 4.3.4 Dimension des Lösungsraumes . . . . . . . . . . . . . . . . . . 4.3.4.0.1 Folgerungen: . . . . . . . . . . . . . . . . . 4.3.5 Gaußscher Algorithmus zum Lösen linearer Gleichungssysteme 4.3.5.0.1 Bemerkung: . . . . . . . . . . . . . . . . . . 4.3.5.0.2 Beispiel: . . . . . . . . . . . . . . . . . . . . 4.3.6 Numerische Lösung linearer Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 53 54 54 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 55 55 55 55 56 59 59 60 61 61 62 62 62 62 62 62 63 63 64 64 65 65 65 65 66 67 67 68 68 69 70 70 71 71 73 73 74 4.4 4.3.6.0.1 Idee: . . . . . . . . . . . . . . . . . . . . . . . . . 74 4.3.6.0.2 Bemerkung: . . . . . . . . . . . . . . . . . . . . . 74 4.3.6.1 Wahl von P . . . . . . . . . . . . . . . . . . . . . . . . . . 74 4.3.6.1.1 Konvergenzsatz: . . . . . . . . . . . . . . . . . . . 76 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.4.0.1.1 Zur Erinnerung: . . . . . . . . . . . . . . . . . . . 76 4.4.1 Definition einer Determinante . . . . . . . . . . . . . . . . . . . . . 76 4.4.1.0.1 Beispiele: . . . . . . . . . . . . . . . . . . . . . . 77 4.4.2 Eigenschaften von Det(A) . . . . . . . . . . . . . . . . . . . . . . . 77 4.4.2.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 79 4.4.2.1.1 Determinante einer oberen Dreiecksmatrix: . . . . 80 4.4.2.1.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 81 4.4.3 Multiplikationssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 4.4.3.0.1 Determinante einer regulären (invertierbaren) Matrix: 82 4.4.3.0.2 Ergänzung: . . . . . . . . . . . . . . . . . . . . . 83 4.4.4 Adjungierte Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.4.4.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 83 4.4.4.1 Laplacesche Entwicklungssatz (Laplace 1749-1827) . . . . 83 4.4.4.1.1 Anwendung: . . . . . . . . . . . . . . . . . . . . . 84 4.4.4.1.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 84 4.4.4.2 Definition der adjungierten Matrix . . . . . . . . . . . . . 84 4.4.4.2.1 Satz: . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.4.4.2.2 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 85 4.4.4.2.3 Anwendung: . . . . . . . . . . . . . . . . . . . . . 85 5 Euklidische Vektorräume 5.1 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1 Definition des Skalarprodukts . . . . . . . . . . . . . . . . . . . . . 5.1.1.0.1 Bemerkungen: . . . . . . . . . . . . . . . . . . . . 5.1.1.0.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 5.1.2 Euklidische Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 5.1.2.0.2 Spezialfall: . . . . . . . . . . . . . . . . . . . . . 5.1.3 Cauchy-Schwarzsche Ungleichung . . . . . . . . . . . . . . . . . . . 5.1.3.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.3.1.1 Geometrische Deutung des Standardskalarprodukts 5.1.4 Kriterium für lineare Unabhängigkeit in Euklidischem Vektorraum . 5.2 Orthogonale Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 5.2.1.0.2 Entwicklung nach Orthonormalbasis: . . . . . . . 5.2.2 Orthogonale Unterräume . . . . . . . . . . . . . . . . . . . . . . . . 5.2.2.0.1 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . 87 87 87 88 88 88 88 88 89 89 in R2 : 91 92 93 93 93 93 94 94 5.2.2.1 5.2.2.2 5.3 Eigenschaften von M ⊥ . . . . . . . . . . . . . . . . Folgerungen . . . . . . . . . . . . . . . . . . . . . . 5.2.2.2.1 Beispiel: . . . . . . . . . . . . . . . . . . . 5.2.3 Konstruktion einer Orthonormalbasis . . . . . . . . . . . . . 5.2.3.0.1 Folgerung: . . . . . . . . . . . . . . . . . . 5.2.3.0.2 Beispiel: . . . . . . . . . . . . . . . . . . . Orthogonale Abbildungen und Matrizen . . . . . . . . . . . . . . . 5.3.0.0.1 Motivation: . . . . . . . . . . . . . . . . . 5.3.0.0.2 Definition: . . . . . . . . . . . . . . . . . . 5.3.1 Eigenschaften orthogonaler Abbildungen . . . . . . . . . . . 5.3.2 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . 5.3.2.0.1 Definition: . . . . . . . . . . . . . . . . . . 5.3.2.0.2 Charakterisierung orthogonaler Matrizen: 5.3.2.0.3 Folgerung: . . . . . . . . . . . . . . . . . . 5.3.2.1 Bestimmung aller Elemente von O(2) . . . . . . . . 5.3.2.1.1 Satz: . . . . . . . . . . . . . . . . . . . . . 5.3.2.1.2 Bemerkung: . . . . . . . . . . . . . . . . . 5.3.2.1.3 Zusammenfassung. . . . . . . . . . . . . . 6 Eigenwerttheorie 6.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . 6.1.0.0.1 Fragen: . . . . . . . . . . . . . . . . . . 6.1.0.0.2 Definition: . . . . . . . . . . . . . . . . . 6.1.0.0.3 Bemerkung: . . . . . . . . . . . . . . . . 6.1.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.3 Diagonalisierbare Matrizen . . . . . . . . . . . . . . . . . . 6.1.3.0.1 Definition: . . . . . . . . . . . . . . . . . 6.1.3.0.2 Folgerung: . . . . . . . . . . . . . . . . . 6.1.3.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . 6.1.4 Eigenschaften von Eigenvektoren . . . . . . . . . . . . . . 6.1.4.0.1 Satz: . . . . . . . . . . . . . . . . . . . . 6.1.4.1 Folgerungen . . . . . . . . . . . . . . . . . . . . . 6.1.4.2 Verfahren zur Diagonalisierbarkeit von A ∈ Rn×n 6.1.4.2.1 Bemerkung: . . . . . . . . . . . . . . . . 6.2 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . 6.2.0.0.1 Satz: . . . . . . . . . . . . . . . . . . . . 6.2.0.0.2 Definition: . . . . . . . . . . . . . . . . . 6.2.0.0.3 Folgerung: . . . . . . . . . . . . . . . . . 6.2.0.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Grundlegendes über Polynome . . . . . . . . . . . . . . . . 6.2.1.0.1 Folgerung: . . . . . . . . . . . . . . . . . 6.2.1.0.2 Beispiel: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 96 97 98 99 99 100 100 101 101 102 102 103 103 104 104 104 105 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 107 107 108 108 108 108 109 110 110 110 111 111 111 112 113 113 113 113 113 113 114 115 115 6.2.2 6.3 Anwendung auf charakteristisches Polynom . . . . . . . . . . . . . . 116 6.2.2.0.1 Darstellung des charakteristischen Polynoms: . . 116 6.2.2.0.2 Zusammenhang zwischen mk und den geometr. Vielfachheiten nk 116 6.2.2.0.3 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 117 6.2.3 Bemerkung zu komplexen Eigenwerten einer MatrixA ∈ Rn×n . . . 117 6.2.4 Eigenwerte orthogonaler Matrizen A ∈ Rn×n . . . . . . . . . . . . . 117 6.2.4.0.1 Interpretation: . . . . . . . . . . . . . . . . . . . 119 6.2.4.0.2 Allgemein: . . . . . . . . . . . . . . . . . . . . . . 120 Hauptachsentransformation symmetrischer Matrizen . . . . . . . . . . . . . 120 6.3.1 Eigenschaften symmetrischer Matrizen A ∈ Rn×n . . . . . . . . . . 121 6.3.1.0.1 Folgerung: . . . . . . . . . . . . . . . . . . . . . . 122 6.3.1.0.2 Hauptachsensatz: . . . . . . . . . . . . . . . . . . 122 6.3.1.1 Schema zur Durchführung der Hauptachsentransformation symmetrischer Ma 6.3.1.2 Beispiel zur Hauptachsentransformation . . . . . . . . . . 124 6.3.2 Anwendung der Hauptachsentransformation bei Kurven zweiter Ordnung125 6.3.2.0.1 Definition: . . . . . . . . . . . . . . . . . . . . . . 125 6.3.2.1 Klassifikation: . . . . . . . . . . . . . . . . . . . . . . . . . 126 6.3.2.2 Normalformen von Kurven 2. Ordnung . . . . . . . . . . . 126 6.3.2.2.1 Beispiel einer Kurve 2. Ordnung: . . . . . . . . . 127 Literaturverzeichnis [1] Beutelspacher, A.: Lineare Algebra. Vieweg 1995 [2] Eisenreich, G.: Lineare Algebra und Analytische Geometrie. Akademie-Verlag 1989 [3] Fischer, G.: Lernbuch Lineare Algebra und Analytische Geometrie. Springer 2012 [4] Jänich, K.: Lineare Algebra. Springer 1993 [5] Kreußler, B. und Pfister, G.: Mathematik für Informatiker. Springer 2009 [6] Manteuffel, K., Seiffart, E. und K. Vetters: Lineare Algebra. Teubner 1989 [7] Walter, R.: Einführung in die Lineare Algebra. Vieweg 1990 [8] Witt, K.-U.: Lineare Algebra für die Informatik. Springer 2013 xiii Kapitel 1 Algebraische Grundbegriffe 1.1 Einleitung In der Schulgeometrie ging es oft um Lagebeziehungen von ebenen Figuren, Fragen nach bestimmten Schnittpunkten, Geraden und ähnliches wurden behandelt. 1.1.0.0.1 Beispiel: Schnittpunkt S zweier gegebener Geraden g1 , g2 . Es gibt zwei Möglichkeiten den Schnittpunkt zu bestimmen. 1) Lösung durch Konstruktion (Zeichnung). Die Geraden werden soweit verlängert, bis sie sich schneiden. 2) Einführung eines rechtwinkligen Koordinatensystems: 1 Gerade g1 wird beschrieben durch die Gleichung: y = x , 2 Gerade g1 wird beschrieben durch die Gleichung: y = 2x − 3 , S = (xS , yS ) bestimmt sich dann durch zwei Gleichungen für zwei Unbekannte. S liegt auf g1 und g2 , somit gilt: 1 yS = xS 2 yS = 2xS − 3 1 xS = 2xS − 3 , 2 also xS = 2, yS = 1 Damit haben wir das geometrische Problem in ein algebraisches überführt, welches mittels analytischen Hilfsmitteln gelöst wurde. 1 2 KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE g2 y g1 1 0 S x 1 Umgekehrt: Kann man jedes algebraische Problem geometrisch deuten? Bei der Behandlung vielfältiger Anwendungen stößt man bei der mathematischen Modellierung auf Gleichungen welche „linear“ sind, das heißt die Unbekannten treten in den Gleichungen höchstens in der ersten Potenz auf. 1.1.0.0.2 Beispiel: Eine Getränkefabrik stellt durch Mischung eines Grundstoffes mit zwei Zusatzstoffen Z1 , Z2 die Endprodukte P1 , P2 und P3 her. Durch Zumischung von 4l Z1 und 3l Z2 zum Grundstoff ergeben sich 100l P1 . Durch Zumischung von 2l Z1 und 5l Z2 erhält man 100l P2 . Durch Zumischung von 1l Z1 und 2l Z2 erhält man 100l P3 . Folglich braucht man für x1 hlI P1 , x2 hl P2 und x3 hl P3 : b1 = 4x1 + 2x2 + x3 l Zusatzstoff Z1 b2 = 3x1 + 5x2 + 2x3 l Zusatzstoff Z2 I hl – Hektoliter (System von 2 linearen Gleichungen) 1.1. EINLEITUNG 3 Verschiedene Fragestellungen: 1) Es werden 7hl P1 , 8hl P2 und 13hl P3 benötigt. Wieviel Liter Zusatzstoffe werden verwendet? Antwort: Durch Einsetzen in die beiden Gleichungen erhält man b1 = 57 und b2 = 87. 2) Es stehen 80l Z1 und 90l Z2 zur Verfügung. Wieviel Hektorliter der Endprodukte P1 , P2 und P3 kann man damit herstellen? Aus den beiden Gleichungen folgt ein lineares Gleichungssystem: 80 = 4x1 + 2x2 + x3 90 = 3x1 + 5x2 + 2x3 (1.1.0.1) Gegenstand der linearen Algebra: Untersuchung solcher linearen Gleichungssysteme auf Lösbarkeit sowie Aussagen über Struktur der Lösungsmenge tätigen. Was ist die Lösung des linearen Gleichungssystems (1.1.0.1)? 3 Werte für x1 , x2 und x3 , so dass beide Gleichungen erfüllt sind. Zum Beispiel: x1 = 14, x2 = 0, x3 = 24 27 5 x1 = , x2 = − , x3 = 31II 2 2 aber auch Die Lösung für das lineare Gleichungssystem (1.1.0.1) ist ein geeordnetes TripelIII (x1 , x2 , x3 ) von reellen Zahlen x1 , x2 , x3 , so dass die Gleichungen erfüllt sind. Da es auf die Reihenfolge und Position der Koeffizienten und Absolutglieder im linearen Gleichungssystem ankommt, kann man es durch folgendes Schema charakterisieren: 4 2 1 80 A := und b := 3 5 2 90 (Koeffizientenmatrix) (Absolutglied(vektor)) von (1.1.0.1) Zur Untersuchung der Lösungsstruktur bei linearen Gleichungssystem benutzen wir Matrizen. Dabei spielen solche wichtigen Strukturen wie Gruppe, Körper und Vektorraum eine entscheidende Rolle. II III Diese Werte sind allerdings ökonomisch unsinnig. Eine Lösung ist beispielsweise (14, 0, 24), jedoch (0, 14, 24) nicht. 4 KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE 1.1.1 Grundlegende Bezeichnungen Symbol Bedeutung Definition x∈M x 6∈ M ∅ |M| P(M) A⊆B x ist Element der Menge M x ist kein Element von M leere Menge Mächtigkeit der Menge M Potenzmenge von M A ist Teilmenge von B (B ist Obermenge von A) A ist echte Teilmenge von B Durchschnitt von A und B Vereinigung von A und B Differenz von A und B (Komplement von B in A kartesisches Produkt von A und B M enthält x M enthält nicht x Menge, die kein Element enthält Anzahl der Elemente von M P(M) := {A|A ⊆ M} Für alle x ∈ A gilt x ∈ B Symbol Bedeutung Definition N N0 Menge aller natürlichen Zahlen Menge aller nichtnegativen ganzen Zahlen Menge aller ganzen Zahlen Menge aller rationalen Zahlen Menge aller reellen Zahlen Menge aller nichtnegativen reellen Zahlen Menge aller n-Tupel reeller Zahlen Menge aller komplexen Zahlen N := {1, 2, 3, . . .} N0 := N ∪ {0} A⊂B A∩B A∪B A\B A×B Z Q R R+ Rn C 1.2 A ⊆ B, A 6= B A ∩ B := {x|x ∈ A und x ∈ B} A ∪ B := {x|x ∈ A oder x ∈ B} A \ B := {x|x ∈ A und x 6∈ B} zusätzlich A ⊇ B) A × B := {(a, b)|a ∈ A, b ∈ B} Z := {. . . , −2, −1, 0, 1, 2, . . .} Q := {x | x = pq , p ∈ Z, q ∈ N} R+ := {x ∈ R | x ≥ 0} Rn := R × . . . × R C := {z = a + ib | a, b ∈ R} Relationen Der mathematische Begriff der Relation ist eine Verallgemeinerung von Alltagsbeziehungen. 1.2.0.0.1 Definition einer Relation: Eine Relation R auf einer Menge M ist definiert durch R ⊆ M × M. Man schreibt für (x, y) ∈ R auch xRy. 1.2. RELATIONEN 1.2.1 5 Wichtige Relationen Sei R ⊆ M × M, dann heißt die Relation R auf der Menge M i) reflexiv falls xRx für alle x gilt ii) transitiv, falls aus xRy, yRz folgt: xRz iii) symmetrisch, falls aus xRy folgt: yRx iv) antisymmetrisch, falls aus xRy, yRx folgt: x = y Hierbei ist x, y, z ∈ M. 1.2.1.0.1 Äquivalenzrelation: Die Äquivalenzrelation ist eine Verallgemeinerung von „=“ auf M. Sie ist eine Relation, die reflexiv, transitiv und symmetrisch ist. 1.2.1.0.2 Ordnungsrelation: Eine Ordnungsrelation ist eine Relation, die reflexiv, transitiv und antisymmetrisch ist. 1.2.2 Beispiele 1) Sei M die Menge der Informatik-Studenten des 1. Semesters. x, y ∈ M. xRy bedeute dabei x und y besuchen die gleiche Übungsgruppe. 2) Sei M die Menge der Geraden der Ebene. xRy ⇔ Gerade x ist parallel zur Geraden y (in Zeichen: x k y) 3) Sei M = N, xRy ⇔ x ≤ y. R = {(x, y) ∈ N × N | x ≤ y} = {(1, 2), (1, 3), . . . , (4, 4), (4, 5), . . .} Bei den Relationen in 1) und 2) handelt sich um Äquivalenzrelationen. Die Relation in 3) ist eine Ordnungsrelation auf N. Sie ist damit nicht symmetrisch. 4) R3 = {(x, y) ∈ Z × Z | 3 teilt y − x} = {(x, y) ∈ Z2 | 3|(y − x)} = {(1, 1), (1, 4), (1, 7), . . . , (4, −2), (4, 1), (4, 4), . . .} Behauptung: R3 ist Äquivalenzrelation auf Z Beweis: Es müssen die drei Eigenschaften gezeigt werden. • Reflexivität: xR3 x, weil x − x = 0 und durch 3 teilbar ist. 6 KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE • Transivität: Sei xR3 y, yR3 z, d. h. y − x = 3m und z − y = 3n mit m, n ∈ Z z − x = z − x + (y − y) = (z − y) + (y − x) = 3n + 3m = 3(n + m) (n + m ∈ Z) also 3|z − x ⇒ xR3 z • Symmetrie: Sei xR3 y, d.h. y − x = 3m ⇒ x − y = 3(−m) ⇒ yR3x 5) RI = {(A, B) ∈ ℘(M) × ℘(M)|A ⊆ B} (Inklusionsrelation) Behauptung: RI ist eine Ordnungsrelation auf ℘(M) Beweis: • Reflexivität: A ⊆ A nach Definition von „⊆“ (⇒ A RI A)) • Transivität: A ⊆ B, B ⊆ C laut Definition von „⊆“ folgt A ⊆ C • Antisymmetrie: A ⊆ B, B ⊆ A ⇔ A = B (Folgerung aus Definition von „⊆“) 1.2.3 Satz über Äquivalenzklassen Sei R eine Äquivalenzrelation auf der Menge M und [x]R := {y ∈ M | yRx} die Äquivalenzklasse von x ∈ M bezüglich R (x heißt dann Repräsentant von [x]R ). Dann gilt für x1 , x2 ∈ M: a) [x1 ]R = [x2 ]R ⇔ x1 Rx2 ⇔ (x1 , x2 ) ∈ R Beweis: • (⇒): Sei [x1 ]R = [x2 ]R . Weil x1 Rx1 ist x1 ∈ [x1 ]R = [x2 ]R . Nach Definiton bedeutet das: x1 Rx2 . • (⇐): Sei x1 Rx2 . Für ein beliebiges y ∈ [x1 ]R gilt yRx1 Wegen Transivität ist yRx2 , also y ∈ [x2 ]R . Das bedeutet: [x1 ]R ⊆ [x2 ]R . Wegen der Symmetrie von R ist x2 Rx1 und somit [x2 ]R ⊆ [x1 ]R . Damit folgt [x1 ]R = [x2 ]R . b) [x1 ]R ∩ [x2 ]R = ∅ ⇔ x1 nicht in Relation zu x2 ⇔ (x1 , x2 ) ∈ /R Behauptung ist gleichbedeutend mit [x1 ]R ∩ [x2 ]R 6= ∅ ⇔ x1 Rx2 Dabei ist (⇐) schon durch Teil 1) bewiesen. Sei [x1 ]R ∩ [x2 ]R 6= ∅, so gibt es y ∈ M mit y ∈ [x1 ]R ∩ [x2 ]R . Also yRx1 und yRx2 . Wegen Symmetrie und Transivität von R folgt daraus x1 Rx2 . 1.3. GRUPPEN 7 1.2.3.0.3 Folgerung: Zwei Äquivalenzklassen sind entweder gleich oder disjunkt (durchschnittsfremd). Die verschiedenen Äquivalenzklassen bilden eine Zerlegung (Partition) der gegebenen Menge M, denn jede Klasse ist nichtleer und jedes Element von M liegt in genau einer Klasse. 1.2.4 Beispiele 1) Einteilung der Studenten in Übungsgruppen 2) Parallelitätsrelation zwischen Geraden liefert die Äquivalenzklassen „Richtung“ 4) R3 auf Z liefert die Zerlegung von Z in [0]3 := {x ∈ Z | 3|x − 0} = {x ∈ Z | x = 3m, m ∈ Z} = [3]3 [1]3 := {x ∈ Z | 3|x − 1} = {x ∈ Z | x = 3m + 1, m ∈ Z} = [4]3 [2]3 := {x ∈ Z | 3|x − 2} = {x ∈ Z | x = 3m + 2, m ∈ Z} = [5]3 Diese Klassen heißen Restklassen von Z mod 3 (modulo 3). Z = [0]3 ∪ [1]3 ∪ [2]3 Analog gilt für Rm , m ∈ N \ {1}, definiert durch xRm y ⇔ m|x − y die Zerlegung von Z in die Restklassen 1.3 mod m: [0]m , [1]m , . . . , [m − 1]m Gruppen Wir betrachten jetzt Mengen M zusammen mit darauf erklärten Verknüpfungen (Operationen): ∗: M ×M →M 1.3.1 Definition (Gruppenaxiome) Sei G 6= ∅ und ∗: G × G → G eine Verknüfung auf G, dann heißt (G, ∗) eine Gruppe, falls G1 (a ∗ b) ∗ c = a ∗ (b ∗ c) für alle a, b, c ∈ G gilt (Assoziativität), G2 es e ∈ G gibt mit a ∗ e = e ∗ a = a für alle a ∈ G (Existenz eines neutralen Elements), G3 es zu jedem a ∈ G ein b ∈ G gibt mit a ∗ b = b ∗ a = e (Existenz eines inversen Elements). (G, ∗) heißt kommutative bzw. abelsche Gruppe, wenn zusätzlich gilt G4 a ∗ b = b ∗ a für alle a, b ∈ G (Kommutativität). 8 KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE 1.3.2 Beispiele 1) (Z, +) bildet eine additive abelsche Gruppe mit dem neutralen Element e = 0 und dem inversen Element −a zu a (a + (−a) = 0). Ebenso (R, +), (Q, +). 2) (R \ {0}, ·) bildet eine multiplikative abelsche Gruppe mit dem neutralen Element e = 1 und dem inversen Element a1 zu a. Ebenso (Q \ {0}, ·). 3) Sei G die Menge der Drehungen der Ebene, welche ein gegebenes Quadrat Q in sich überführen. (Es sind nur Drehungen Dα um Winkel α um den Mittelpunkt O des Quadrats interessant.) D C α O A B n o G = D0 , D± π2 , D±π , D± 3π , D±π , D± 5π , . . . 2 2 ∗ ist hier die Hintereinanderausführung der Drehungen. (G, ∗) ist eine abelsche Gruppe mit dem neutralen Element e = D0 und dem inversen Element D−α zu Dα . Wegen Dα = Dα+2kπ mit k ∈ Z ist G gegeben durch n o G = D0 , D π2 , Dπ , D 3π 2 1.3.3 Eindeutigkeit von neutralen und inversen Element in (G, ∗) 1) Es gibt nur ein Element aus G, das G2 erfüllt. Denn gelte für e′ ∈ G : a ∗ e′ = e′ ∗ a = a für alle a ∈ G. Mit a = e folgt dann e ∗ e′ = e′ ∗ e = e. Andererseits ergibt sich aus G2 (mit a = e′ ): e′ ∗ e = e ∗ e′ = e′ . ⇒ e = e′ 2) Es gibt nur ein inverses Element zu a ∈ G. Sei a ∗ b = b ∗ a = e und a ∗ b′ = b′ ∗ a = e. b′ = b′ ∗ e = b′ ∗ (a ∗ b) = (b′ ∗ a) ∗ b = e ∗ b = b G2 G1 G2 1.4. KÖRPER 1.3.4 9 Abbildung von Gruppen Seien (G, ∗) und (H, #) Gruppen und f : G → H. Dann heißt f Homomorphismus, falls f (a ∗ b) = f (a)#f (b) Erläuterung: Homomorphismus überträgt Verknüpfung der Urbilder auf die Bilder. Ist f zusätzlich bijektiv, so heißt f Isomorphismus, und die Gruppen G und H heißen isomorph. 1.3.4.1 Beispiel Wir betrachten die Menge Zm = {[0]m , [1]m , . . . , [m − 1]m } der Restklassen modulo m ∈ N. Auf Zm kann man die Addition repräsentantenweise erklären. [a]m + [b]m := [a + b]m a, b ∈ Z Alle Rechengesetze von (Z, +) übertragen sich auf (Zm , +). Somit ist (Zm , +) eine additive abelsche Gruppe. Z.B: ist (Z4 , +) ist durch folgende Additionstafel gegeben: + [0] [1] [2] [3] [0] [0] [1] [2] [3] [1] [1] [2] [3] [0] [2] [2] [3] [0] [1] [3] [3] ([a] := [a]4 ) [0] [1] [2] o n π 3π , ◦ aus Beispiel 3. Folgerung: (Z4 , +) ist isomorph zur Gruppe D 0 , D 2 , Dπ , D 2 | {z } Konstruiere eine isomorphe Abbildung f : Z4 → G G f ([a]4 ) = Da π2 für a = 0, 1, 2, 3 f ([a]4 + [b]4 ) = f ([a + b]4 ) = D(a+b) π2 = Da π2 ◦ Db π2 1.4 Körper Ein Körper besteht aus einer Menge K, auf der zwei Verknüpfungen + und · definiert sind, so dass K1 (K, +) eine abelsche Gruppe mit neutralem Element 0 ist K2 (K \ {0}, ·) eine abelsche Gruppe ist K3 (a + b) · c = a · c + b · c für alle a, b, c ∈ K gilt. (Distributivität) 1.4.0.1.1 Bemerkung: Ausführliche Angabe der Körperaxiome in Analysisvorlesung, Abschnitt 2.2. 10 KAPITEL 1. ALGEBRAISCHE GRUNDBEGRIFFE 1.4.0.1.2 1.4.0.2 Beispiele: R, Q sind Körper, Z ist dagegen kein Körper. Bezeichung • Bezüglich der Addition ist neutrales Element 0, und (−a) das inverse Element zu a. • Bezüglich der Multiplikation ist neutrales Element 1, und a−1 das inverse Element zu a. Kapitel 2 Algebraische Strukturen in Zahlbereichen 2.1 Permutationen Die Menge N der natürlichen Zahlen bildet weder bezüglich + noch bezüglich · eine Gruppe. N ist nur abgeschlossen bezüglich dieser Operationen, d.h. a + b, a · b ∈ N für alle a, b ∈ N. Jedoch betrachtet man auf der endlichen Menge Nn = {1, 2, 3, . . . , n} ⊂ N eine wichtige Klasse von Abbildungen, und zwar die bijektiven Abbildungen π : Nn → Nn . π heißt Permutation von 1, 2, . . . , n und die Menge aller solcher Abbildungen bildet eine Gruppe, die Gruppe der Permutationen oder auch symmetrische Gruppe Sn genannt. Schreibweise: 1 2 3 4 5 6 7 π: 3 1 4 7 5 6 2 D.h. π(1) = 3, π(4) = 7, π(6) = 6 2.1.0.0.1 Behauptung: Es gibt genau n! Permutationen von 1, . . . , n; d.h.: |Sn | = n!, n Q k (sprich: n Fakultät) wobei n! = n · (n − 1) · . . . · 2 · 1 = 1 · 2 · . . . · n = k=1 Beweis: Eine Permutation π ist eindeutig festgelegt durch die Angabe π(1), . . . , π(n). • Für die Wahl von π(1) gibt es n Möglichkeiten. • Für die Wahl von π(2) gibt es (n − 1) Möglichkeiten, falls π(1) festgelegt ist. • Für die Wahl von π(3) gibt es (n − 2) Möglichkeiten, falls π(1), π(2) festgelegt sind. • Für die Wahl von π(n − 1) gibt es 2 Möglichkeiten, falls π(1), . . . , π(n − 2) festgelegt sind. • Für die Wahl von π(n) gibt es 1 Möglichkeit, falls π(1), . . . , π(n − 1) festgelegt sind. Insgesamt ergeben sich n · (n − 1) · (n − 2) · . . . · 2 · 1 = n! Möglichkeiten. 11 12 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN 2.1.1 Definitionen i) Ein Paar (i, j) ∈ Nn × Nn heißt Fehlstand von π, falls i < j und π(i) > π(j). (π(i) und π(j) stehen in Inversion zueinander.) ii) • Ist die Anzahl der Fehlstände gerade, so heißt π gerade und sig(π) = +1. • Ist die Anzahl der Fehlstände ungerade, so heißt π ungerade und sig(π) = −1. sig(π) heißt Signum oder Vorzeichen von π. iii) Eine Permutation, in der nur die Position von 2 Elementen vertauscht ist, d.h. es gibt i, j ∈ Nn , i < j mit τ (i) = j, τ (j) = i und τ (k) = k für k 6= i, k 6= j, heißt Transposition. τ= 2.1.1.1 1 ... i− 1 i i+ 1 ... j −1 j ... n 1 ... i− 1 j i+ 1 ... j −1 i ... n Eigenschaften von τ 1) τ −1 = τ , m.a.W.I : τ · τ = τ 2 = idNn 2) sig(τ ) = −1II , denn • τ (i) = j steht in Inversion zu i + 1 , . . . , j − 1 =τ (i+1) =τ (j−1) • τ (j) = i steht in Inversion zu i + 1, . . . , j − 1 Außerdem steht τ (i) und τ (j) in Inversion. Die Anzahl der Inversionen von τ ist gleich 2(j − 1 − i) + 1, also ungerade. 3) sig(τ · π) = −sig(π), denn die Anzahl der Inversionen π ändert sich um eine ungerade Anzahl nach Anwendung von τ . 2.2 Ring der ganzen Zahlen (Z, +) bildet abelsche Gruppe, aber Z bildet keinen Körper, sondern nur Ring. Man kann aber aus Z eine wichtige Klasse von Körpern gewinnen und zwar durch Anwendung des Euklidischen Algorithmus (Euklid, 365 – 300 v. Chr.). I II m.a.W. – mit anderen Worten Die Transposition ist damit ungerade. 2.2. RING DER GANZEN ZAHLEN 2.2.1 13 Definition eines Rings Ein Ring besteht aus einer Menge R, auf der zwei Verknüpfungen + und · definiert sind, so dass R1 (R, +) eine abelsche Gruppe mit neutralen Element 0 ist, R2 (a · b) · c = a · (b · c) für alle a, b, c ∈ R gilt (Assoziativität der Multiplikation). R3 (a + b) · c = aċ + b · c, a · (b + c) = a · b + a · c für alle a, b, c ∈ R gilt (Distributivität). Sei Zm = {[0]m , [1]m , . . . , [m − 1]m } die Menge der Restklassen modulo m ∈ N \ {1}. Dann gilt folgender Satz (Division mit Rest): 2.2.1.0.1 q, r ∈ Z: Satz: Sei a ∈ Z, b ∈ Z \ {0}. Dann gibt es eindeutig bestimmte Zahlen a = qb + r mit 0 ≤ r < |b| (2.2.1.1) Beweis: beispielsweise über vollständige Induktion nach |b|. 2.2.2 Folgerungen aus (2.2.1.1) 1) [a]b = [r]b , Schreibweise: a ≡ r mod b („a ist kongruent r modulo b“) Beispiele: • 13 ≡ 1 mod 4, weil 13 = 3 · 4 + 1 • 13 ≡ 3 mod 5, weil 13 = 2 · 5 + 3 2) Sei m ∈ N, so gilt m | a und m | b ⇔ m | b und m | r. 2.2.3 Definition des größten gemeinsamen Teilers Ein g ∈ N heißt größter gemeinsamer Teiler von a, b ∈ Z g = ggT(a, b), falls 1) g | a und g | b 2) Für jedes n ∈ N mit n | a und n | b gilt n | g 2.2.3.0.1 Beispiel: gemeinsamer Teiler von 24 und 42: 1, 2, 3, 6 ⇒ ggT(24, 42) = 6 14 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN 2.2.4 Euklidischer Algorithmus in der einfachen Form Gegeben: Zwei ganze von Null verschiedene Zahlen a und b Gesucht: Größter gemeinsamer Teiler d von a und b. 1) Setze a0 = a und a1 = b 2) Führe nach dem folgenden Schema solagen Divisionen mit Rest aus, bis ein Rest Null entsteht. a0 = q0 a1 + a2 a1 = q1 a2 + a3 .. . am−2 = qm−2 am−1 + am am−1 = qm−1 am mit mit mit 0 < a2 < |a1 | 0 < a3 < |a2 | .. . 0 < am < |am−1 | 3) Dann ist d = am der gesuchte größte gemeinsame Teiler. 2.2.4.0.1 Beispiel: Gesucht: ggT(156, 65) i aj−1 aj qj−1 2.2.4.0.2 d = am . Beweis: 1 2 3 156 65 26 65 26 13 2 2 2 ⇒ ggT(156, 65) = 13 Behauptung: Der Euklidische Algorithmus liefert d := ggT(a, b), und zwar 1) Der Algorithmus bricht nach endlich vielen Schritten ab, denn |a1 | > a2 > a3 > . . . > am > 0 und ak ∈ N 2) am |am−1 , am |am−2 , . . . , am |a1 und am |a0 , d. h. am ist Teiler von a und b. 3) Sei n ∈ N und n|a und n|b, so teilt n die Zahlen a0 , a1 , a2 , . . . , am . 2.2.4.0.3 Folgerung: d = ggT(a, b) hat folgende Darstellung d = am = am−2 − qm−2 am−1 = −qm−2 am−3 + (1 + qm−2 qm−3 )am−2 = ... = ka0 + la1 = ka + lb mit k, l ∈ Z 2.3. KÖRPER DER KOMPLEXEN ZAHLEN 2.2.5 15 Anwendung (Konstruktion von endlichen Körpern) Wir definieren in Zm analog zur repräsententenweisen Addition eine Multiplikation durch [a]m · [b]m = [a · b]m . Wir untersuchen, ob Zm einen Körper bildet. Zunächst gibt es in Zm ein neutrales Element [1]m bezüglich der Multiplikation. Frage: Gibt es [a]−1 m für jedes a ∈ {1, . . . , m − 1}? 2.2.5.0.1 Beispiel: Multiplikationstafel von Z3 · [0] [1] [2] [0] [0] · · [1] · [1] [2] [2] · [2] [1] d.h. ([2]3 )−1 = [2]3 2.2.5.0.2 Satz über die Existenz endlicher Körper: Ist p ∈ N eine Primzahl (d.h. p ist nur durch 1 und p teilbar), so ist Zp ein Körper mit genau p Elementen. Beweis: Sei a ∈ {1, . . . , p − 1}, so ist ggT(a, p) = 1, weil p Primzahl. Nach Folgerung 2.2.4.0.3 zum Euklidischen Algorithmus gilt: 1 = ka + lp mit k, l ∈ Z, d.h. [1]p = [ka]p + [lp]p = [ka]p + [0]p = [ka]p = [k]p [a]p . Also [k]p = ([a]p )−1 . 2.3 Körper der komplexen Zahlen Versucht man die Gleichung x2 + 1 = 0 zu lösen, so ist das im Körper R nicht möglich. Deshalb√führte schon im 16. Jahrhundert der italienische Mathematiker Bombellli das Symbol −1 ein, für das L. Euler (1707 – 1783) i schrieb. Damit lässt es sich wie gewohnt rechnen, wenn man für (a, b) ∈ R × R Addition und Multiplikation so definiert, dass ein Körper C entsteht. 2.3.1 Einführung der komplexen Zahlen Erkläre für geordnete Paare (a, b) reeller Zahlen a, b eine Addition und Multiplikation: (a1 , b1 ) + (a2 , b2 ) = (a1 + a2 , b1 + b2 ) (a1 , b1 ) · (a2 , b2 ) = (a1 a2 − b1 b2 , a1 b2 + a2 b1 ) Spezielle Paare: 16 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN 1) (a, 0) ∈ R × {0} wird mit der reellen Zahl a identifiziert (⇒ R ⊂ C). 2) i = (0, 1) heißt imaginäre Einheit und es gilt i2 = i · i = (0, 1) · (0, 1) = (0 · 0 − 1 · 1, 0 · 1 + 1 · 0) = (−1, 0) = −1 . Daraus ergibt sich die algebraische Normalform einer komplexen Zahl z: z = (a, b) = (a, 0) + (0, b) = a + (b, 0) · (0, 1) = a + bi, a, b ∈ R √ Dann heißt a = Rez der Realteil, b = Im z der Imaginärteil und |z| = a2 + b2 der absolute Betrag von z. 2.3.1.0.1 Geometrische Darstellung: von z ∈ C in der Gaußschen Zahlenebene: (C.F. Gauß: 1777 – 1855) Im z ✻ z = (a, b) = a + bi b |z | a 2.3.2 ✲ Re z Rechenregeln Also: Rechnen mit komplexen Zahlen bedeutet Rechnen mit Ausdrücken der Form a + bi, (a, b ∈ R) wobei die üblichen Rechenregeln für reelle Zahlen benutzt und i2 = −1 beachtet werden. 2.3.2.0.1 Beispiel: (1 + 2i)(2 + 3i) = 2 + 4i + 3i + 6i2 = 2 − 6(−1) + 3i + 6i = −4 + 7i Da sich die Rechenregeln aus R unter Beachtung von i2 = −1 auf C übertragen, gelten für die Addition und Multiplikation die Kommutativ-, Assoziativ- und Distributivgesetze. Bezüglich der Addition ist das • neutrale Element in C das Element 0 = (0, 0). • inverse Element zu z das Element −z = (−a, −b). 2.3. KÖRPER DER KOMPLEXEN ZAHLEN 17 Bezüglich der Multiplikation ist das • neutrale Element in C das Element 1 = (1, 0). • inverse Element zu z das Element? 2.3.2.1 Bestimmung von z −1 Sei z ∈ C \ {0}. Dazu bilden wir die konjugiert komplexe Zahl z zu z = a + bi, und zwar durch z := a − bi, (Rez = Rez, Im z = −Im z) Im z ✻ b z = a + bi |z | a ✲ Re z |z | −b ❄ z = a − bi Es gilt weiterhin: zz = (a + bi)(a − bi) = a2 − (bi)2 = a2 − b2 i2 = a2 − b2 (−1) = a2 + b2 = |z|2 Es handelt sich um eine Gleichung in R. 2.3.2.1.1 Folgerung: 1 (zz) = 1, (falls |z| = 6 0 ⇔ z 6= 0) |z|2 1 1 = 1 ⇒ z −1 = 2 z für z 6= 0 ⇒z 2z |z| |z| Andere Schreibweisen für z −1 : 18 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN 1) z −1 a b 1 (a − ib) = 2 − 2 i= = 2 2 2 a +b a +b a + b2 a b ,− 2 2 2 a +b a + b2 2) “Reellmachen” des Nenners: z −1 = 2.3.2.1.2 1 1·z z = = 2 z z·z |z| (Erweitern des Bruches 1 mit z) z Beispiel: 1 − 0.5i 1 − 0.5i 1 = = 2 1 + 0.5i (1 + 0.5i)(1 − 0.5i) 1 − 0.25i2 4 2 1 − 0.5i = − i = 0.8 − 0.4i = 1.25 5 5 (1 + 0.5i)−1 = 2.3.2.2 Division Bei der Quotientenbildung 2.3.2.2.1 z1 rechnen wir: z2 z1 · 1 z2 = z1 · z1 z2 z2 = . z2 z2 |z2 |2 Beispiel: 4 + 7i (4 + 7i)(1 + i) 4 + 7i + 4i + 7i2 −3 + 11i 3 11 = = = = − − i 1−i (1 − i)(1 + i) 12 − i2 2 2 2 2.3. KÖRPER DER KOMPLEXEN ZAHLEN 2.3.3 19 Geometrische Deutung der Rechenoperationen in C 1) Addition Im z ✻ z1 b1 ✒ z1 + z2 ❥ ✶ a2 ❥ b2 ✲ a1 Re z z2 ❄ −−−−−−−−→ −−−−−−−−→ Die Addition ist die übliche Vektoraddition der Ortsvektoren (0, 0)(a1, b1 ) und (0, 0)(a2 , b2 ). Oder genauer: Konstruiere das Parallelogramm mit den Eckpunkten 0, z1 , z2 . Sein 4. Eckpunkt ist z1 + z2 . 2) Subtraktion Analog zur Additon: z1 − z2 = z1 + (−z2 ) 3) Multiplikation Im z ✻ z |z | φ ✲ Re z 20 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN 2.3.3.1 Trignometrische Darstellung komplexer Zahlen Schreibt man mit einem φ ∈ R Re z = |z| cos φ, Im z = |z| sin φ so ergibt sich die trignometrische Normalform z = |z|(cos φ + i sin φ) φ = arg z heißt ein Argument von z und ist bis auf ganzzahlige Vielfache von 2π bestimmt. |z| = √ Beispiel: z = 3 + 3i √ 32 + 32 = 3 2, Da Re z, Im z > 0 entfällt φ = arg z, 5π 4 Im z 3 sin φ = = =1 cos φ Re z 3 π 5π ⇒ φ = + 2kπ oder φ = + 2kπ, 4 4 tan φ = + 2kπ. Im z ✻ (3 + 3i) 3 | 2.3.3.1.1 a Re z b Im z = , sin φ = = |z| |z| |z| |z| ⇒ z = a + ib = |z| cos φ + i|z| sin φ = |z|(cos φ + i sin φ) |z cos φ = φ= π 4 ✲ 3 Re z k∈Z 2.3. KÖRPER DER KOMPLEXEN ZAHLEN 21 √ π π 3 + 3i = 3 2 cos + i sin 4 4 Weiter zur Multiplikation (Verwendung von Additionstheoremen für die WinkelfunktionenIII ): z1 z2 = |z1 | (cos φ1 + i sin φ1 ) |z2 | (cos φ2 + i sin φ2 ) = |z1 ||z2 | [(cos φ1 cos φ2 − sin φ1 sin φ2 ) + i (sin φ1 cos φ2 + sin φ2 cos φ1 )] = |z1 ||z2 | [cos(φ1 + φ2 ) + i sin(φ1 + φ2 )] Im z z1 z2 |z1 ||z2 | z2 |z2 | φ2 z1 |z1 | φ1 φ1 + φ2 Re z 4) Division (z2 6= 0) z1 z1 z2 1 |z1 | (cos φ1 + i sin φ1 ) |z2 | (cos φ2 − i sin φ2 ) = = z2 z2 z2 |z2 |2 |z1 | = (cos(φ1 − φ2 ) + i sin(φ1 − φ2 )) |z2 | Multiplikation (Division) komplexer Zahlen bedeutet dann Multiplikation (Division) der Beträge und Addition (Subtraktion) der Argumente. Insbesondere gilt die folgende Formel III siehe Vorlesung Analysis, Tafelwerk o.ä. 22 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN von Moivre für Potenzen einer komplexen Zahl z: z 2 = (|z|(cos φ + i sin φ))2 = |z|2 (cos 2φ + i sin 2φ) .. . n z = |z|n (cos(nφ) + i sin(nφ)) , n ∈ N 2.3.3.1.2 Beispiel: =−1 =0 π 6 π z }| { z }| { ( 3 − i)6 = 26 cos − + i sin − = 64 cos(−π) +i sin(−π) = −64 6 6 √ 2.3.4 Konvergenzbegriff in C Mit dem Betrag | · | einer komplexen Zahl ist ein Abstandsbegriff zwischen z1 , z2 ∈ C festgelegt. Damit ergibt sich die ε-Umgebung Uε (a) = {z ∈ C ||z − a| < ε } von a ∈ C als Innneres der Kreisfläche mit Mittelpunkt a und Radius ε > 0. 2.3.4.1 Definitionen i) Eine Abbildung ∈ ∈ N → C n 7→ an heißt komplexe Zahlenfolge. ii) Eine Zahlenfolge (an ) ⊂ C konvergiert gegen a ∈ C (limn→∞ an = a) genau dann, wenn limn→∞ |an − a| = 0 gilt, d.h. zu jedem ε > 0 muss ein Index n0 = n0 (ε) existieren, so dass |an − a| < ε für alle n ≥ n0 erfüllt ist. Im z Uε (a) = {z ∈ C ||z − a| < ε } a ε an Re z 2.3. KÖRPER DER KOMPLEXEN ZAHLEN 23 2.3.4.1.1 Folgerung: Da beim Übergang zu komplexen Zahlenfolgen |·| nur als Betrag komplexer Zahlen zu lesen ist, übertragen sich alle Rechenregeln und Konvergenzkriterien wörtlich mit Ausnahme solcher, in denen Ordnungsrelationen zwischen den Folgegliedern eine Rolle spielen (z.B. keine Monotonie!). 2.3.4.2 Beispiele lim 4 + 2i n2 n4 + 2i 4n + 2in2 0 + 2i n→∞ n a) lim = = lim = 2i, = 3i 3i n→∞ n2 − 3i n→∞ n2 1 − 2 1 − 0 1 − lim 2 n n n→∞ b) limn→∞ z n = 0 für z ∈ C, |z| < 1, denn ∈R z}|{ lim |z| n = 0 und |z|n = |z n | = |z n − 0|. n→∞ 2.3.4.2.1 Bemerkung: Dabei gilt folgende Beziehung: lim an = a in C n→∞ ⇔ lim Re an = Re a und lim Im an = Im a in R n→∞ n→∞ da |an − a|2 = (Re (an − a))2 + (Im (an − a))2 . 2.3.5 Komplexe Reihen Mit dem obigen Grenzwertbegriff kann man auch unendliche Reihen mit komplexen Koeffizienten betrachten, inbesondere Potenzreihen P (z) := ∞ X n=0 an (z − z0 )n , für z0 , z ∈ C mit an ∈ C. Hat P (z) einen Konvergenzradius ρ > 0, so konvergiert diese Potenzreihe für alle z ∈ Uρ (z0 ) (Konvergenzkreis). 2.3.5.1 Beispiele a) Geometrische Reihe: Für z ∈ C, |z| < 1 gilt ∞ n X X 1−0 1 1 − z n+1 k k = = , z = lim z = lim n→∞ n→∞ 1 − z 1 − z 1 − z k=0 k=0 sonst Divergenz. Diese Potenzreihe hat Konvergenzradius ρ = 1. b) Die Potenzreihen für exp, sin, cos, sinh, cosh IV haben Konvergenzradius ρ = ∞. Folglich können diese Funktionen für alle komplexen Argumente erklärt werden. IV siehe Vorlesung Analysis 24 KAPITEL 2. ALGEBRAISCHE STRUKTUREN IN ZAHLBEREICHEN Kapitel 3 Vektorräume und lineare Abbildungen 3.1 Vektorräume 3.1.1 Definition des Vektorraums Ein Vektorraum besteht aus einer Menge V von Elementen, die wir Vektoren nennen, und die folgenden Gesetzen genügt: 3.1.1.0.1 Verknüpfung von Vektoren: Es gibt eine Verknüpfung + auf V , die je zwei Vektoren v und w einen Vektor v + w ∈ V zuordnet, so dass für alle u, v, w ∈ V die folgenden Eigenschaften erfüllt sind: • Assoziativtät u + (v + w) = (u + v) + w • Existenz des Nullvektors Es gibt einen Vektor, den wir mit 0 bezeichnen, mit folgender Eigenschaft v+0=v • Existenz negativer Vektoren Zu jedem Vektor v gibt es einen Vektor, den wir −v nennen, mit v + (−v) = 0 • Kommutativität u+v =v+u 25 26 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN 3.1.1.0.2 Verknüpfung von Skalaren und Vektoren: Für jeden Vektor v ∈ V und jedes Skalar λ ∈ R ist ein Vektor λ · v ∈ V definiert (das Objekt λ · v (für das wir auch kurz λv schreiben) soll also ein Element von V sein). Diese Bildung des skalaren Vielfachen ist so, dass für alle λ, µ ∈ R und für alle Vektoren v, w ∈ V die folgenden Eigenschaften gelten: • Assoziativität (λ · µ) · v = λ · (µ · v) • Vielfachbildung mit 1 • Distributivität 1·v =v (λ + µ) · v = λ · v + µ · v λ · (v + w) = λ · v + λ · w 3.1.1.1 Bemerkungen 1) Kurz kann man einen Vektorraum V dadurch charakterisieren, dass (V, +) eine additive abelsche Gruppe bildet und dass auf V zusätzlich eine Vielfachbildung mit Skalaren λ ∈ R erklärt ist, welche den obigen Gesetzen genügt. 2) Genauer ist V ein reeller Vektorraum oder auch ein Vektorraum über dem Körper R. Allgemein: Vektorraum über einem Körper K (Hier wird R durch K ersetzt.) 3) Aus den Eigenschaften von Gruppen (siehe Abschnitt 1.3.3) folgt die Eindeutigkeit des Nullelements 0 ∈ V (v + 0 = 0 + v = v für alle v ∈ V ), sowie die Eindeutigkeit des negativen Vektors −v zu v (v + (−v) = (−v) + v = 0). Schreibweise: v + (−w) =: v − w 3.1.1.2 Folgerungen 0 · v = 0 für alle v ∈ V (−1) · v = −v für alle v ∈ V 3.1.1.3 Beispiele 1) In der Ebene zeichnen wir einen Ursprung O aus und identifizieren jeden Punkt P mit der Verschiebung (Translation), welche O auf P abbildet. Vektoren sind die Translationen. 3.1. VEKTORRÄUME 27 P P 0 Addition von Vektoren ist die Hintereinanderausführung von Translationen. v1 + v2 v2 v1 0 Das λ-fache ist die Verschiebung um das λ-fache (Streckung). λv1 0 v1 2) Prototyp eines Vektorraums Rn = {(x1 , x2 , . . . , xn ) | xi ∈ R} mit (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) und λ(x1 , . . . , xn ) = (λx1 , . . . , λxn ), λ∈R 3) Menge F aller reellen Funktionen, d.h. aller Abbildungen f : R → R (Vektoren sind Funktionen) (f + g)(x) := f (x) + g(x) für x ∈ R (λf )(x) := λ · f (x) für λ, x ∈ R 28 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN 3.1.2 Untervektorräume Frage: Sind Teilmengen U ⊆ V wieder Vektorräume? Im Allgemeinen nicht, denn +:U ×U →V ⊇U Zum Beispiel im R2 : v1 + v2 ∈ /U v2 v1 U 0 Eine Teilmenge U ⊆ V heißt Untervektorraum, kurz Unterraum des Vektorraums V , falls U mit den in V gegebenen Verknüpfungen selbst wieder ein Vektorraum ist. 3.1.2.0.1 Folgerung: {0} und V sind Unterräume von V . Allgemein gilt das 3.1.2.0.2 Unterraumkriterium: U ⊆ V ist Unterraum von V genau dann, wenn 1) U 6= ∅ 2) für u1 , u2 ∈ U ist u1 + u2 ∈ U 3) für u ∈ U, λ ∈ R ist λu ∈ U Beweis: (⇒) Notwendigkeit der 3 Bedingungen klar nach Definition des Unterraums. (⇐) Hinlänglichkeit der 3 Bedingungen: Assoziativ-, Kommutativ- und Distributivgesetze und 1 · v = v gelten in V , also auch in U ⊆ V . Nach den Bedingungen 2), 3) führen + und · nicht aus U hinaus. Weiterhin ist 0 = 0 · u ∈ U nach Bedingung 3) und −u = (−1) · u ∈ U nach Bedingung 3) für u ∈ U. 3.1. VEKTORRÄUME 3.1.2.0.3 3.1.2.1 29 Bemerkung: Die Bedingung 1) kann ersetzt werden durch 0 ∈ U. Beispiele 1) R3 ⊇ E = {(x1 , x2 , 0) | x1 , x2 ∈ R} ist Unterraum von R3 2) R2 : Sei L ⊆ R2 die Lösungsmenge der Gleichung 4x + 3y = 0, d.h. L = {(x, y) | 4x + 3y = 0}. L ist Unterraum von R2 . 3) F ⊇ F′ = {f : R → R | f (−1) = 0, f (16π) = 0} ist Unterraum von F . Kein Unterraum wäre beispielsweise F ⊇ F′ = {f : R → R | f (−1) = 8, f (16π) = 0}. 4) Sind U1 , U2 Unterräume von V , so ist U1 ∩ U2 wieder Unterraum von V , denn 0 ∈ U1 , 0 ∈ U2 ⇒ 0 ∈ U1 ∩ U2 ⇒, so dass Bedingung 1) erfüllt ist. Ebenso sind die Bedingungen 2) und 3) des Unterraumkriteriums erfüllt. 5) Seien v1 , . . . , vn ∈ V . Dann ist Pm λi vi i=1 }| { z lin(v1 , . . . , vm ) = {v ∈ V | v = λ1 v1 + λ2 v2 + . . . + λm vm , λi ∈ R} die Menge aller Linearkombinationen von v1 , . . . , vm und heißt lineare Hülle von v1 , . . . , vm . Behauptung: Lm = lin(v1 , . . . , vm ) ist Unterraum von V , denn 0 = 0 · v1 + . . . + 0 · vm ∈ Lm Damit ist Bedingung 1) des Unterraumkriteriums erfüllt. (λ1 v1 + . . . + λm vm ) + (µ1 v1 + . . . + µm vm ) = (λ1 + µ1 )v1 + . . . + (λm + µm )vm ∈ Lm Damit ist Bedingung 2) des Unterraumkriteriums erfüllt. λ(λ1 v1 + . . . + λm vm ) = (λλ1 )v1 + . . . + (λλm )vm ∈ Lm Damit ist Bedingung 3) des Unterraumkriteriums erfüllt. 3.1.2.1.1 Beispiele: 1) lin{(1, 0, 0), (1, 2, 1)} = {x ∈ R3 | x = (x1 , x2 , x3 ) = λ(1, 0, 0) + µ(1, 2, 1), λ, µ ∈ R} = {(x + µ, 2µ, µ) | λ, µ ∈ R} 30 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN 2) lin{(1, 0), (0, 1)} = {x ∈ R2 | x = (x1 , x2 ) = λ(1, 0) + µ(0, 1)} = {(λ, µ) | λ, µ ∈ R} = R2 3) Lösungsmenge L = {(x, y) | 4x + 3y = 0} ⊆ R2 4 4 4 L= x, − x x ∈ R = x 1, − x ∈ R = lin 1, − 3 3 3 1, − 43 L 3.1.3 Operationen mit Unterräumen 3.1.3.0.1 Durchschnitt: Unmittelbar aus dem Unterraumkriterium 3.1.2.0.2 ergibt sich: Sei V ein Vektorraum und U1 , U2 Unterräume zu V . Dann ist U1 ∩ U2 ein Unterraum. U2 U1 0 3.1.3.0.2 Summe U1 , U2 ⊂ R2 Summe: Im Allgemeinen ist U1 ∪ U2 kein Unterraum. Als „Ersatz“ dient die U1 + U2 = {v ∈ V | v = u1 + u2 mit ui ∈ U} Nach Unterraumkriterium ist U1 + U2 wieder ein Unterraum, denn 1) 0 = 0 + 0, 0 ∈ U1 , 0 ∈ U2 3.1. VEKTORRÄUME 31 e ) falls u1 , u e1 ∈ U1 , u2 , u e2 ∈ U2 2) (u1 + u2 ) + (e u1 + u e2 ) = (u1 + u e ) + (u + u | {z 1} | 2 {z 2} ∈U1 ∈U2 3) λ(u1 + u2 ) = λu1 + λu2 |{z} |{z} ∈U1 3.1.3.0.3 ∈U2 Beispiele: • {0} + U = U • U +V =V • U + U = U, denn u1 + u2 ∈ U für u1 , u2 ∈ U also U + U ⊆ U. Andererseits ist u = u + 0 ∈ U + U ⇒ U ⊆ U + U. 3.1.3.0.4 Behauptung: U1 + U2 ist die Menge L aller Linearkombinationen, die man aus Elementen von U1 ∪ U2 bilden kann. Beweis: 1) u1 + u2 ist Linearkombination zweier Elemente u1 ∈ U1 ⊆ U1 ∪ U2 und u2 ∈ U2 ⊆ U1 ∪ U2 ⇒ U1 + U2 ⊆ L. 2) Sei v ∈ L. So gibt es v1 , . . . , vm ∈ U1 ∪ U2 , so dass v = λ1 v1 + λ2 v2 + . . . + λm vm | {z } P m i=1 mit λi ∈ R. λi vi O.B.d.A.I sei v1 , . . . , vr ∈ U1 , vr+1 , . . . , vm ∈ U2 . ⇒v= r X λi vi + |i=1{z } ∈U1 also v ∈ U1 + U2 . 3.1.3.0.5 II m X λj vj j=r+1 | {z ∈U2 II } Folgerung: lin(v1 , . . . , vm ) = lin(v1 , . . . , vr ) + lin(vr+1 , . . . , vm ) für 1 ≤ r ≤ m − 1 I II O.B.d.A. – Ohne Beschränkung der Allgemeinheit wegen der Unterraum-Eigenschaft von Ui 32 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN 3.2 Basis und Dimension 3.2.1 Definition der linearen Unabhängigkeit Sei v1 , . . . , vm ∈ V und V ein Vektorraum. Man nennt v1 , . . . , vm linear unabhängig, falls zwischen ihnen nur die triviale Nullrelation gibt, d.h. aus λ1 v1 + λ2 v2 + . . . + λm vm = 0 folgt λi = 0 für i = 1, . . . , m. Andernfalls heißen v1 , . . . , vm linear abhängig. In diesem Fall gibt es ein λj 6= 0, j ∈ {1, . . . , m}, so dass 0 = λ1 v1 + . . . + λm vm . 3.2.1.1 Beispiele 1) v1 = (1, 2), v2 = (1, 1), v3 = (7, 7) v3 7 6 5 4 3 2 1 v1 v2 1 2 3 4 5 6 7 v1 , v2 , v3 sind linear abhängig in R2 , denn 0 · v1 + 7 · v2 + (−1) · v3 v1 , v2 sind jedoch linear unabhängig, denn sei λ1 v1 + λ2 v2 = (λ1 + λ2 , 2λ1 + λ2 ) = (0, 0) so folgt λ1 + λ2 = 0 2λ1 + λ2 = 0 ⇒ λ1 = 0, λ2 = 0 3.2. BASIS UND DIMENSION 33 2) f1 (x) = 2, f2 (x) = x, f3 (x) = 2.5x, f4 (x) = x4 für x ∈ R Dann sind f1 , f2 , f3 , f4 linear abhängig in F := {f | f : R → R}, denn 0 · f1 (x) + 2.5f2 (x) + (−1)f3 (x) + 0 · f4 (x) = 0 für x ∈ R m. a. W.III f3 = 2.5f2 f1 , f2 , f4 sind linear abhängig, denn sei λ1 f1 (x) + λ2 f2 (x) + λ4 f4 (x) = 0 für alle x ∈ R 2λ1 + λx + λ4 x4 = 0 speziell: x = 0 ⇒ λ1 = 0 x = ±1 ⇒ 2λ1 ± λ2 + λ4 = 0 3.2.2 λ2 + λ4 = 0 −λ2 + λ4 = 0 ⇒ λ4 = 0, λ2 = 0. Charakterisierung der linearen Abhängigkeit Die Vektoren v1 , . . . , vm ∈ V sind linear abhängig genau dann, wenn es (mindestens) ein vj , j ∈ {1, . . . , m} gibt, mit vj ∈ lin{v1 , . . . , vj−1 , vj+1, . . . , vm }. Beweis: (⇒) Seien v1 , . . . , vm linear abhängig, so gibt es λj 6= 0 mit λ1 v1 + . . . + λj vj + . . . + λm vm = 0 vj = − λj−1 λj+1 λm λ1 v1 − . . . − vj−1 − vj+1 − . . . − vm λj λj λj λj ⇒ vj ∈ lin(v1 , . . . , vj−1, vj+1 , . . . , vm ). (⇐) Sei vj ∈ lin(v1 , . . . , vj−1 , vj+1, . . . , vm ), d.h. vj = m X µi vi mit µi ∈ R ⇒ i = 1, i 6= j m X µi vi + (−1)vj = 0. i = 1, i 6= j D.h. es gibt eine nichttriviale Nullrelation zwischen v1 , . . . , vm . Zum Beispiel in 1): v3 = (7, 7) = 7 · v2 + 0 · v1 also v3 ∈ lin{v1 , v2 }, aber v1 lässt sich nicht aus v2 , v3 linear kombinieren. III m. a. W. – mit anderen Worten 34 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN 3.2.2.1 Weitere Folgerungen 1) Enthält {v1 , . . . , vm } den Nullvektor, so sind v1 , . . . , vm linear abhängig. 2) v1 ist linear unabhängig ⇔ v1 6= 0. 3) v1 , v2 sind linear unabhängig genau dann, wenn keine der beiden Vektoren ein Vielfaches des anderen ist. 3.2.3 Definition eines Erzeugendensystems Man nennt {v1 , . . . , vm } ein Erzeugendensystem von V , falls V = lin(v1 , . . . , vm ). Sind zusätzlich v1 , . . . , vm linear unabhängig, so heißt {v1 , . . . , vm } eine Basis von V . 3.2.3.1 Beispiele Im Rn bildet die Menge {e1 , . . . , en } eine Basis, wenn e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , ei = (0, . . . , |{z} 1 , . . . , 0), . . . , en = (0, . . . , 1). i-te Stelle • R1 e1 0 1 • R2 x2 e2 0 e1 x1 Diese Basis heißt kanonische Basis von Rn und e1 , . . . , en die Einheitsvektoren. • {e1 , . . . , en } ist Erzeugendensystem, denn für jedes x ∈ Rn gilt x = (x1 , . . . , xn ) = x1 (1, 0, . . . , 0) + x2 (0, 1, . . . , 0) + . . . + xn (0, . . . , 0, 1) = n X i=1 d.h. Rn = lin(e1 , . . . , en ). xi ei 3.2. BASIS UND DIMENSION 35 • e1 , . . . , en sind linear unabhängig, denn aus λ1 , e1 + . . . + λn en = (λ1 , . . . , λn ) = 0 folgt λ1 = λ2 = . . . = λn = 0. Auch {e1 , . . . , en , (1, 1, . . . , 1)} ist Erzeugendensystem von Rn , denn x= n X i=1 xi ei + 0 · (1, 1, . . . , 1) für jedes x ∈ Rn . Aber: {e1 , . . . , en , (1, 1 . . . , 1)} ist keine Basis, weil (1, 1, . . . , 1) = e1 + . . . + en . 3.2.4 Eigenschaften einer Basis 3.2.4.0.1 Folgerung: Jeder Vektor v ∈ V lässt sich eindeutig als Linearkombination von Elementen einer Basis von V darstellen. Beweis: durch Koeffizientenvergleich (Übungsaufgabe) 3.2.4.0.2 Satz über die Existenz einer Basis: Sei V = lin(v1 , . . . , vm ), so besitzt V eine Basis oder V = {0}. Beweis: 1) Sind v1 , . . . , vm linear unabhängig, so ist v1 , . . . , vm eine Basis. 2) Andernfalls gibt es vj , j ∈ {1, . . . , m}, so dass vj ∈ lin(v1 , . . . , vj−1, vj+1 , . . . , vm ). Bm−1 := Bm \ {vj } Dann ist V = lin(Bm−1 ), denn für beliebiges v ∈ V gilt v= m X λi vi i=1 Außerdem ist vj = m X µk vk k = 1, k 6= j ⇒ v = (λ1 + λj µ1 )v1 + . . . + (λj−1 + λj µj−1 )vj−1 + (λj+1 + λj µj+1)vj+1 + . . . + (λm + λj µm )vm V ⊆ lin(Bm−1 ) ⊆ lin(Bm ) = V 36 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN 3) Sind die Vektoren aus Bm−1 linear abhängig, so verfahre wie im 2. Schritt. 4) Das Verfahren endet nach endlich vielen Schritten, weil |Bm | = m m − 1 = |Bm−1 | > Endergebnis ist eine Menge Bn , n ∈ N von linear unabhängigen Vektoren mit V = lin(Bn ) (also eine Basis von V ) oder mit B1 = {w}, w ∈ Bm und B1 linear abhängig. (V = lin{0} = {0}) ⇒w=0 3.2.4.0.3 Bemerkung: Der Beweis zeigt, dass eine Basis ein Erzeugendensystem ist, welches nicht mehr verkürzt werden kann. 3.2.4.1 Wieviele Elemente hat eine Basis? 3.2.4.1.1 Austauschlemma: Sei B = {v1 , . . . , vm } eine Basis von V . Dann gibt es zu jedem w ∈ V, w 6= 0 ein v ∈ B, so dass B ′ = (B \ {v}) ∪ {w} wieder eine Basis besitzt. Beweis: Wegen V = lin(v1 , . . . , vm ) besitzt w die Darstellung w= m X (3.2.4.1) λj vj j=1 Weil w 6= 0, muss ein λj 6= 0 sein, beispielsweise λk 6= 0 mit k ∈ {1, . . . , m}. Wir setzen v = vk und überprüfen B ′ auf Basiseigenschaften: 1) B ′ ist Erzeugendensystem von V , denn aus (3.2.4.1) folgt: m X 1 vk = w − λj vj λk j = 1, j 6= k ∈ lin(B ′ ) V = lin(v1 , . . . , vm ) ⊆ lin(B ′ ) ⊆ V. ⇒ 2) B ′ ist linear unabhängig, denn sei µ0 w + m X µj vj = 0. j = 1, j 6= k 3.2. BASIS UND DIMENSION a) µ0 = 0 ⇒ m X 37 µj vj = 0 · vk = 0 ⇒ µ1 = 0, µ2 = 0, . . . , µm = 0 j = 1, j 6= k wegen linearen Unabhängigkeit von v1 , . . . , vm . b) µ0 6= 0 Unter Verwendung von (3.2.4.1) ist (µ1 + λ1 µ0 )v1 + . . . + (µk−1 + λk−1 µ0 )vk−1 + µ0 λk vk + . . . + (µm + λm µ0 )vm = 0 Das ist nichttriviale Nullrelation der Elemente aus B im Gegensatz zu linearen Unabhängiggkeit. Somit kann der Fall 2b) nicht eintreten. 3.2.4.1.2 Ergänzung zum Austauschlemma: Als v kann jeder Vektor vj genommen werden, für den in (3.2.4.1) das λj 6= 0 ist. 3.2.4.1.3 Beispiel: R3 = lin(e1 , e2 , e3 ), w = (7, −4, 0) 6= 0, so gilt w = 7e1 − 4e2 + 0e3 In Basis {e1 , e2 , e3 } kann w gegen e1 bzw. gegen e2 getauscht werden. 3.2.4.1.4 Austauschsatz von Steinitz (1913): Sei B = {v1 , . . . , vn } eine Basis von V und w1 , . . . , wm linear unabhängige Vektoren. Dann gibt es n − m Vektoren aus B, o.B.d.A. vm + 1, . . . , vn , so dass {w1 , . . . , wm , vm+1 , . . . , vn } wieder eine Basis von V bildet. D.h., in B können v1 , . . . , vm durch w1 , . . . , wm ausgetauscht werden. Beweis: (über vollständige Induktion nach m) • Induktionsanfang: m = 1: Aussage des Austauschlemmas • Induktionsvorraussetzung: Sei Aussage richtig für m − 1 linear unabhängige Vektoren. • Induktionsbehauptung: Dann gilt Satz auch für eine Menge C = {w1 , . . . , wm } von linear unabhängigen Vektoren. 38 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN • Induktionsschluss Auf C ′ = C \ {wm } können wir (IV) anwenden. Folglich ist B ′ = {w1 , . . . , wm−1 , vm , . . . , vn } eine Basis von V . Einbauen von wm in B ′ durch Anwendung des Austauschlemmas. Beachte wm 6= 0, da C linear unabhängig ist. ⇒ (B ′ \ {v}) ∪ {wm } ist wieder Basis mit v ∈ B ′ . Dabei kann v ∈ {vm , . . . , vn } gewählt werden, denn in der Darstellung wm = µ1 w1 + . . . + µm−1 wm−1 + λm vm + . . . + λn vn können nicht alle λi = 0 sein, sonst wm = µ1 w1 + . . . + µm−1 wm−1 im Widerspruch zur linearen Unabhängigkeit von C. Ergänzung zum Austauschlemma ergibt die Behauptung. 3.2.4.2 Wichtige Folgerungen aus dem Austauschsatz 1) Jede Menge C = {w1 , . . . , wm } von linear unabhängigen Vektoren kann zu einer Basis von V ergänzt werden (Basisergänzungssatz ). Dabei gilt |C| = m ≤ n = |B|. 2) Alle Basen von V haben die gleiche Anzahl von Elementen. Diese Zahl heißt Dimension des Vektorraums V (dim V ). Beweis: Aus Folgerung 1. ergibt sich für 2 Basen B1 , B2 : |B2 | ≤ |B1 | (B = B1 , C = B2 ) |B1 | ≤ |B2 | (B = B2 , C = B1 ). und Zum Beispiel: Rn = lin(e1 , . . . , en ) e1 , . . . , en Basis ⇒ dim Rn = n. 3.2. BASIS UND DIMENSION 39 3) Sei dim V = n, so hat jede Menge C linear unabhängige Vektoren höchstens n Elemente. Ist |C| = n, so bildet C eine Basis von V . Gegenbeispiel: In F := {f | f : R → R} gibt es für jedes k ∈ N genau k linear unabhängige Elemente, beispielsweise p1 (x) = x, p2 (x) = x2 , . . . , pk (x) = xk , x ∈ R. Überprüfung auf lineare Unabhängigkeit: Sei k X i=1 λi pi (x) = k X i=1 λi xi = 0 für alle x ∈ R ⇔ x(λ1 + x(λ2 + x(λ3 + . . . + x(λk−1 + xλk ) . . .) = 0 | {z } k−1 Klammern ⇒ λ1 + x(λ2 + . . . + x(λk−1 + xλk ) . . .) = 0 für alle x ∈ R. Mit x = 0 folgt: λ1 = 0 ⇒ x(λ2 + . . . + xλk ) . . .) = 0 für alle x ∈ R ⇒ λ2 = 0, . . . , λk = 0. D.h., in F gibt es Mengen linear unabhängiger Elemente beliebiger Anzahl. Somit kann F keine endliche Dimension haben. (Schreibweise: dim F = ∞) 4) Seien U1 , U2 zwei Unterräume des Vektorraums V mit U1 ⊆ U2 . Dann gilt dim U1 ≤ dim U2 . dim U1 = dim U2 ⇔ U1 = U2 . 5) Dimensionsformel: dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 ) Beweis: a) Wir wählen Basis {v1 , . . . , vm } von U0 := U1 ∩ U2 ⊆ V und ergänzen diese zu Basen B1 := {v1 , . . . , vm , vm+1 , . . . , vk } von U1 B2 := {v1 , . . . , vm , wm+1 , . . . , wl } von U2 . Mit C := B1 ∪ B2 = {v1 , . . . , vk , wk+1 , . . . , wl } gilt |C| = |B1 | + |B2 | − |B1 ∩ B2 | = k + l − m = dim U1 + dim U2 − dim U0 . 40 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN b) Wir zeigen C ist eine Basis von U1 + U2 . b1) Wir haben U1 + U2 = lin B1 + lin B2 = lin C ⇒ C ist Erzeugendensystem von U1 + U2 . b2) Zur linearen Unabhängigkeit betrachten wird die Nullrelation k X λi vi + − | λi vi = i=1 {z ∈U1 } l X µj wj j=m+1 | {z ∈U2 Folglich gilt die Darstellung µj wj = 0 (3.2.4.2) j=m+1 i=1 k X l X ∈ U1 ∩ U2 = lin(v1 , . . . , vm ). } µm+1 wm+1 + . . . + µl wl = α1 v1 + · · · + αm vm . Wegen linearer Unabhängigkeit von B2 muss α1 = α2 = . . . = αm = 0, µm+1 = . . . = µl = 0 sein. Damit lautet (3.2.4.2): λ1 v1 + λ2 v2 + . . . + λk vk = 0. Wegen linearer Unabhängigkeit von B1 muss λ1 = λ2 = . . . = λk = 0 sein, also (3.2.4.2) kann nur trivial sein und C ist Basis. Spezialfall: Ist U1 + U2 = V und U1 ∩ U2 = {0}, so heißen U1 und U2 komplementäre Unterraum (Bezeichnung: U1 ⊕ U2 als direkte Summe von U1 und U2 ). dim U1 + dim U2 = dim V. Beispiele: i) Im R2 sind je 2 verschiedene eindimensionale Unterraum komplementär, z.B. lin ((1, 1)) ⊕ lin ((1, 2)) = R2 3.2. BASIS UND DIMENSION 41 x2 lin((1, 2)) 7 lin((1, 1)) 6 5 4 3 2 1 1 2 3 4 5 6 7 x1 ii) Im R3 ist jeder zweidimensionale Unterraum U1 komplementär zu jedem Unterraum U2 = lin(v) mit v ∈ / U1 . x3 v x2 U1 U2 x1 6) Allgemein gilt: Jeder Unterraum U1 des Vektorraums V besitzt einen komplementären Unterraum. 42 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN Beweis: a) Sei U1 ein Unterraum mit der Basis B1 := {v1 , . . . , vm }. Ergänze diese zu einer Basis B := {v1 , . . . , vm , vm+1 , . . . , vn } von V . Setze U2 := lin{vm+1 , . . . , vn }. Dann gilt: U1 + U2 = lin B1 + lin{vm+1 , . . . , vn } = lin B = V. b) Zu zeigen U1 ∩ U2 = {0}. Sei v ∈ U1 ∩ U2 , so gilt v = λ1 v1 + . . . + λm vm ∈ U1 und v = λm+1 vm+1 + . . . + λn vn ∈ U2 . Das liefert λ1 v1 + . . . + λm vm −λm+1 vm+1 − . . . − λn vn = v + (−v) = 0. | {z }| {z } =v =−v Wegen linearen Unabhängigkeit von B kann diese Nullrelation nur trivial sein, also λi = 0 für alle i = 1, . . . , n ⇒ v = 0. Bedeutung: Eindeutige Zerlegung jedes Vektors v ∈ V bezüglich komplementärer Unterraum (s. Übungsaufgabe). Zum Beispiel: v = (−3, 0) = λ1 (1, 1) + λ2 (1, 2) ⇔ −3 = λ1 + λ2 0 = λ1 + 2λ2 (−3, 0) = −6(1, 1) + 3(1, 2) ⇒ λ2 = 3 λ1 = −6 3.3. LINEARE ABBILDUNGEN 43 x2 U1 lin((1, 2)) U 2 7 lin((1, 1)) 6 5 4 3 2 1 v -3 3.3 -2 -1 1 2 3 4 5 6 7 x1 Lineare Abbildungen Wir untersuchen hier „strukturerhaltende“ Abbildungen zwischen Vektorräumen und Fragestellungen wie • Wann sind zwei Vektorräume im wesentlichen gleich? • Durch welche Daten ist ein Vektorraum eindeutig bestimmt? 3.3.1 Definitionen Seien V und W Vektorräume über R. Eine Abbildung f : V → W heißt lineare Abbildung oder Homomorphismus, wenn für alle v, v ′ ∈ V und alle λ ∈ R gilt: Additivität: Homogenität: f (v + v ′ ) = f (v) + f (v ′) , f (λv) = λf (v) . Die Menge aller Homomorphismen von V nach W wird mit Hom(V, W ) bezeichnet. Eine lineare Abbildung f : V → W heißt Isomorphismus, wenn sie bijektiv, Endomorphismus, wenn V = W und Automorphismus, wenn sie bijektiv und V = W ist. Wir bezeichnen den Teil von W , welcher von f erfaßt wird, mit Bild(f ) := {w ∈ W | es gibt v ∈ V mit f (v) = w} , 44 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN und außerdem sei Kern(f ) := {v ∈ V | f (v) = 0} = f −1 ({0}) . 3.3.2 Eigenschaften 1) f (0) = 0, denn f (0) = f (0 · v) = 0 · f (v) = 0 mit v ∈ V Hom. 2) f ist surjektiv ⇔ Bild(f ) = W (Beweis nach Definition klar) 3) f ist injektiv ⇔ Kern(f ) = {0} (Beweis siehe Übungsaufgabe) 4) Bild(f ) ist Unterraum von W . Beweis: (Anwendung des Unterraumkriteriums) i) Bild(f ) 6= ∅, weil 0 ∈ Bild(f ) nach 1) ii) Ist w ∈ Bild(f ), so λw = λf (v) = f (λv) ⇒ λw ∈ Bild(f ) Def. Hom. iii) Ist w1 , w2 ∈ Bild(f ), so w1 + w2 = f (v1 ) + f (v2 ) = f (v1 + v2 ) Def. Add. ⇒ w1 + w2 ∈ Bild(f ) Beispiele: a) Nullabbildung: V → {0} b) identische Abbildung idV : V → V c) allgemeiner: Wähle festes α ∈ R und definiere f (v) = αv d) f: R2 → R2 (x1 , x2 ) 7→ (x1 + x2 , x1 + x2 ) ist lineare Abbildung. Bild(f ) = {(y1, y2 ) | y1 = x1 + x2 , y2 = x1 + x2 mit xi ∈ R} = {(y1 , y1) | y1 ∈ R} = lin ((1, 1)) Kern(f ) = {(x1 , x2 ) | x1 + x2 = 0} = {(x1 , −x1 ) | x1 ∈ R} = lin ((1, −1)) 3.3. LINEARE ABBILDUNGEN 45 y2 x2 f y Bild(f ) x1 Kern(f ) y1 e) f: R2 → R (x1 , x2 ) 7→ x1 + x2 + 4 ist kein Homomorphismus, denn f ((0, 0)) = 4 6= 0 f) f: ist kein Homomorphismus, denn R2 → R (x1 , x2 ) 7→ x1 x2 f (2(x1 , x2 )) = f ((2x1 , 2x2 )) = 2x1 · 2x2 = 4x1 x2 6= 2f ((x1 , x2 )) 5) Kern(f ) ist Unterraum von V . (Beweis siehe Übungsaufgabe) 3.3.3 Weitere wichtige lineare Abbildung Sind U1 , U2 komplementäre Unterräume des Vektorraums V , d.h. U1 + U2 = V, U1 ∩ U2 = {0}, so gilt v = u1 + u2 mit eindeutig bestimmten ui ∈ Ui . P : V → V mit P (v) = P (u1 + u2 ) := u1 , P = PU1 heißt Projektion von V auf U1 . 3.3.3.0.1 Beispiel: R3 = {(x1 , x2 , x3 ) | xi ∈ R} = {(x1 , x2 , 0) | x1 , x2 ∈ R} + {(0, 0, x3 ) | x3 ∈ R} = lin(e1 , e2 ) + lin(e3 ) Projektion P von R3 auf U1 ist folglich P ((x1 , x2 , x3 )) = (x1 , x2 , 0) . 46 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN x3 (x1 , x2 , x3 ) x2 e3 e2 e1 (x1 , x2 , 0) = P ((x1 , x2 , x3 )) x1 Die Projektion P : V → V ist eine lineare Abbildung, denn P (λv) = P (λ(u1 + u2 )) = P ( λu1 + λu2 ) = λu1 = λP (v) |{z} |{z} ∈U1 ∈U2 P (v + v ′ ) = P ((u1 + u2 ) + (u′1 + u′2 )) = P ((u1 + u′1 ) + (u2 + u′2 )) | {z } | {z } = u1 + ∈U1 u′1 = v ′ = u′1 + u′2 ∈U2 P (v) + P (v ′ ) u′i ∈ Ui Bild(P ) = U1 , Kern(P ) = U2 , denn sei P (v) = 0 ⇔ u1 = P (u1 + u2 ) = 0 ⇔ v = 0 + u2 3.3.4 Bemerkungen 1) Hintereinanderausführung linearer Abbildungen ergibt wieder lineare Abbildung, denn (g ◦ f )(λv) = g(f (λv)) = g(λf (v)) = λg(f (v)) = λ(g ◦ f )(v) (g◦f )(v+v ′) = g(f (v+v ′)) = g(f (v)+f (v ′)) = g(f (v))+g(f (v ′)) = (g◦f )(v)+(g◦f )(v ′) für alle v, v ′ ∈ V , λ ∈ R, wenn f, g lineare Abbildungen sind. 3.3. LINEARE ABBILDUNGEN 47 2) Die Menge Hom(V, W ) bildet selbst einen Vektorraum, wenn man definiert: (f1 + f2 )(v) := f1 (v) + f2 (v) (λf1 )(v) := λf1 (v) für v ∈ V , λ ∈ R und f1 , f2 ∈ Hom(V, W ). Nachweis der Linearität von f1 + f2 , λf1 und VektorraumEigenschaft sei Übungsaufgabe. 3.3.5 Bestimmung von linearen Abbildungen durch die Bilder einer Basis B := {v1 , . . . , vn } des Vektorraums V . 1) Es gibt zu jedem n-Tupel (w1 , . . . , wn ) von Vektoren wi ∈ W genau eine lineare Abbildung f :V →W mit f (vi ) = wi . M.a.W.IV : Eine lineare Abbildung ist durch die Bilder der Basisvektoren von V eindeutig festgelegt. Beweis: a) (Existenz von f ) Für v ∈ V = lin(v1 , . . . , vn ) gilt die eindeutige Darstellung v = λ1 v1 + . . . + λn vn mit λi ∈ R (3.3.5.3) Wir definieren f (v) := λ1 w1 + . . . + λn wn Dann ist f : V → W und f linear. f (vi ) = f (0 · v1 + . . . + 1 · vi + . . . + 0 · vn ) = 0 · w1 + . . . + 1 · wi + . . . + 0 · wn = wi b) (Eindeutigkeit von f ) Sei f, f ′ ∈ Hom(V, W ) mit f (vi ) = wi und f ′ (vi ) = wi . Dann gilt ! ! n n n n X X X X ′ ′ f (v) = f λi vi = λi f (vi ) = λi f (vi ) = f λi vi = f ′ (v) (3.3.5.3) i=1 i=1 i=1 i=1 für beliebiges v ∈ V . IV M.a.W. – Mit anderen Worten ⇒ f = f′ 48 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN Bedeutung: Die gesamte Information über eine lineare Abbildung f : V → W steckt in wi ∈ W . Ist dim W = m, so sind die w1 , . . . , wn durch n·m reelle Zahlen festgelegt. Somit kann mit einer linearen Abbildung effektiv auf Computern gerechnet werden. Man versucht deshalb viele nichtlineare Probleme auf lineare zurückzuführen. 2) Die lineare Abbildung f : V → W ist genau dann ein Isomorphismus, wenn C := {f (v1 ), . . . , f (vn )} eine Basis von W bilden. Beweis: (⇒) Sei f bijektiv. Wir prüfen C auf lineare Unabhängigkeit: Sei n X µi f (vi ) = 0, i=1 so f d.h. Pn n X i=1 i=1 µi vi ! = 0, µi vi ∈ Kern(f ). Da Kern(f ) = {0} ist n X µi vi = 0, i=1 also µi = 0 wegen linearer Unabhängigkeit von B. Wir zeigen lin C = W . Sei w ∈ W , so gibt es wegen der Surjektivität von f ein v ∈ V mit w = f (v). Benutze (3.3.5.3), so folgt ! n n X X w=f λi vi = λi f (vi ) i=1 i=1 (⇐) Sei C eine Basis von W . Zur Überprüfung der Injektivität berechnen wir Kern(f ). Sei v ∈ V mit f (v) = 0. Mit (3.3.5.3) folgt: ! n n X X 0=f λi vi = λi f (vi ). i=1 i=1 Wegen linearen Unabhängigkeit von C ist λ1 = λ2 = . . . = λn = 0, also v = 0. D.h. Kern(f ) = {0}. Zur Surjektivität von f : Jedes w ∈ W können wir eindeutig bezüglich der Basis darstellen: ! n X w = α1 f (v1 ) + . . . + αn f (vn ) = f αi vi Mit u := Pn i=1 i=1 αi vi ist u ∈ V und w = f (u). 3.3. LINEARE ABBILDUNGEN 49 3) Wählen wir in 1) die w1 , . . . , wn als Basis von W (dim W = n), so ist f : V → W ein Isomorphismus, d.h. es gilt der Fundamentalsatz für endlich dimensionale Vektorräume: Je zwei Vektorräume der gleichen Dimension sind isomorph. Anwendungen: a) Je zwei Basen eines Vektorraums V mit dim V = n können durch genau eine lineare Abbildung ineinander überführt werden. Diese Abbildung ist ein Automorphismus (Basistransformation). b) Wählt man W = Rn = lin(e1 , . . . , en ) und f (vi ) = ei , so ist f ein Isomorphismus und f (v) = (3.3.5.3) = n X f n X λi vi i=1 ! = n X λi f (vi ) i=1 ei = (0, . . . , 1, . . . , 0) λi ei = (λi , . . . , λn ) i=1 (Vektor der Koordinaten von v bezüglich Basis v1 , . . . , vn ) D.h.: Rechnen in V ist dasselbe wie Rechnen mit den Koordinatenvektoren (bezüglich festgewählter Basis) im Rn . 3.3.6 Dimensionsformel für lineare Abbildungen Sei dim V = n und f : V → W eine lineare Abbildung. Dann ist dim(Kern(f )) + dim(Bild(f )) = n Beweis: a) Sei {v1 , . . . , vr } eine Basis von Kern(f ). Wir ergänzen diese zu einer Basis B := {v1 , . . . , vr , vr+1 , . . . , vn } von V und setzen wi := f (vr+i ), i = 1, . . . , n − r. Für v ∈ V = lin (B) ist f (v) = f n X i=1 λi vi ! = n X λi f (vi ) i=1 ⇒ f (v) = λi 0 + . . . + λr 0 + λr+1 w1 + . . . + λn wn−r ⇒ Bild(f ) = lin(w1 , . . . , wn−r ) (3.3.6.4) 50 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN b) Wir zeigen w1 , . . . , wn−r ist Basis von Bild(f ), d.h. die lineare Unabhängigkeit von w1 , . . . , wn−r . Sei µ1 w1 + . . . + µn−r wn−r = 0 so f (µ1vr+1 + . . . + µn−r vn ) = n−r X µi wi = 0 i=1 also µ1 vr+1 + . . . + µn−r vn ∈ Kern(f ) = lin(v1 , . . . , vr ) r X µ1 vr+1 + . . . + µn−r vr = αi vi . i=1 Wegen linearer Unabhängigkeit von B muss α1 = . . . = αr = 0, µ1 = . . . = µn−r = 0 sein. Somit sind w1 , . . . , wn−r linear unabhängig und dim(Bild(f )) = n − r 3.3.6.0.1 Folgerung: Ist dim V = dim W = n, so ist f injektiv ⇔ f surjektiv, denn: f injektiv ⇔ Kern(f ) = {0} ⇔ dim Kern(f ) = 0 ⇔ dim(Bild(f )) = n ⇔ Bild(f ) = W ⇔ f surjektiv (3.3.6.4) 3.4 Affine Unterräume Bisher beschäftigten wir uns mit speziellen Teilmengen, welche die lineare Struktur eines Vektorraums V repräsentieren (nämlich die linearen Untervektorräume). Zur Erfassung der geometrischen Eigenschaften unseres Anschauungsraumes benötigen wir Teilmengen, welche die affine Struktur repräsentieren. 3.4.1 Eigenschaften affiner Unterräume 3.4.1.0.1 Definition: Eine nichtleere Teilmenge A ⊆ V heißt affiner Unterraum von V , wenn für jedes a ∈ A die Darstellung gilt a = a0 + u mit einem festen a0 ∈ A und u ∈ U, wobei U ein Untervektorraum von V ist. Schreibweise: A = a0 + U Die Elemente von A werden in diesem Zusammenhang auch als Punkte bezeichnet (Beachte: V = 0 + V ). 3.4. AFFINE UNTERRÄUME 3.4.1.0.2 51 Beispiele: 1) Im R3 U 0 dim U = 2 a0 + U a0 2) Im R2 : A = (1, 0) + lin(1, 1) = {(x1 , x2 ) | (x1 , x2 ) = (1, 0) + λ(1, 1), λ ∈ R} = {(1 + λ, λ) | λ ∈ R} x2 A 1 1 −1 x1 3.4.1.0.3 Satz über die Gleichheit von affinen Unterräumen: Zwei affine Unterräume A = a0 + U und A′ = a′0 + U ′ sind gleich genau dann, wenn U = U ′ und a0 − a′0 ∈ U. M.a.W.: Ein affiner Unterraum ist eindeutig festgelegt durch U und ein (beliebig gewähltes) Element aus A. Beweis: (⇒) Sei a0 + U = a′0 + U ′ , so a′0 = a′0 + 0 ∈ a′0 + U ′ = a0 + U, d.h. es gibt u0 ∈ U mit a′0 = a0 + u0 bzw. a′0 − a0 = u0 ∈ U. Sei u′ ∈ U ′ , so ist a′0 + u′ ∈ a′0 + U ′ = a0 + U ⇒ u′ = a0 − a′0 + u, u ∈ U ⇒ u′ = u − u0 ∈ U. Folglich: U ′ ⊆ U. Vertauschung der Rollen von a0 , U und a′0 , U ′ ergibt U ⊆ U ′ . 52 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN (⇐) Sei a′0 − a0 ∈ U, zu zeigen a0 + U = a′0 + U | {z } :=u0 a = a0 + u = a′0 + (a0 − a′0 ) +u | {z } =−u0 ∈U Also a0 + U = {a0 + u | u ∈ U} = {a′0 − u0 + u | u ∈ U} ⊆ {a′0 + u e|u e ∈ U} = a′0 + U Umgekehrt ergibt sich auch a′0 + U ⊆ a0 + U. 3.4.1.1 Folgerungen 1) In A = a0 + U ist U gegeben durch U = {v ∈ V | v = a − a′ , a, a′ ∈ A} 2) Betrachtet man Translation (Verschiebung) Tu : a 7→ a + u mit a ∈ A, u ∈ U. Dann ist a + u ∈ A, d.h. Tu bildet A in sich ab. U heißt auch Translationsraum des affinen Unterraums A. 3) dim A = dim(a0 + U) := dim U Spezialfälle: • dim A = 0, so heißt A Punkt (A = a0 + {0} = {a0 }). • dim A = 1, so heißt A Gerade • dim A = 2, so heißt A Ebene • dim A = n − 1, so heißt A Hyperebene, falls dim V = n 3.4.1.1.1 Parameterdarstellung von A = a0 + U: Sei a0 ∈ A und v1 , . . . , vm eine Basis von U, so besitzt jeder Punkt a ∈ A die eindeutige Darstellung a = a0 + m X i=1 3.4.2 λi vi mit λi ∈ R Parallele Unterräume 3.4.2.0.1 Definition: Zwei affine Unterräume A = a0 + U und A′ = a′0 + U ′ des Vektorraums V heißen parallel, falls U ⊆ U ′ oder U ′ ⊆ U. In Zeichen: A k A′ 3.4. AFFINE UNTERRÄUME 3.4.2.1 53 Beispiele 1) V = Rn . Parallele Gerade zu G = a0 + lin(v), v 6= 0 durch b ∈ V ist GP = b + lin(v) (GP ist durch b eindeutig bestimmt). x2 b a0 x1 G GP 2) V = R3 : Parallele Ebene zu E = a0 + lin(v1 , v2 ) (v1 , v2 linear unabhängig) durch b ∈ R3 ist EP = b + lin(v1 , v2 ). 3) V = Rn : Zu Ebene E = a0 + U, dim U = 2, sind alle Geraden G = b + lin(v) mit v ∈ U, v 6= 0, b ∈ Rn parallel. x3 x2 a0 v E b lin(v) x1 G 54 KAPITEL 3. VEKTORRÄUME UND LINEARE ABBILDUNGEN 3.4.3 Erzeugung affiner Unterräume Durch je r + 1 Punkte, die nicht in einem gemeinsamen (r − 1)-dimensionalen affinen Unterraum liegen, geht genau ein r-dimesionaler affiner Unterraum A. Beweis: 1) Sei für v0 , . . . , vr ∈ V die Voraussetzung des Satzes erfüllt. Dann sind die Vektoren u1 := v1 − v0 , u2 := v2 − v0 , . . . , ur = vr − v0 linear unabhängig. Andernfalls liegen u1 , . . . , ur in einem Unterraum W mit dim W = r − 1. Dann wären vi = v0 + ui ∈ v0 + W im Widerspruch zur Voraussetzung. 2) Existenz von A: Wegen 1) ist U = lin(u1 , . . . , ur ) ein Unterraum der Dimension r. ⇒ vi ∈ v0 + U für i = 0, . . . , r also A = v0 + U. 3) Eindeutigkeit von A, d.h. Eindeutigkeit von U. e = dim U ′ = r durch e und a′0 + U ′ zwei affine Unterräume mit dim U Sei a0 + U e und ui ∈ U ′ sein. v0 , . . . , vr . Dann müssen ui ∈ U e = U ′ , weil u1, . . . , ur eine Basis von U e bzw. U ′ Wegen 1) ist U = lin(u1 , . . . , ur ) = U bilden. 3.4.3.0.1 Folgerung: A = v0 + lin(v1 − v0 , v2 − v0 , . . . , vn − v0 ); speziell ist G := v0 + lin(v1 − v0 ) die Verbindungsgerade der Punkte v0 , v1 mit v0 6= v1 . Kapitel 4 Matrizen und lineare Gleichungssysteme 4.1 4.1.1 Matrizenrechnung Definition einer Matrix Eine m × n-Matrix (über R) ist eine Anordnung von m · n reellen Zahlen in ein rechteckiges Schema aus m Zeilen und n Spalten. a11 a21 A = .. . a12 a22 .. . . . . a1n . . . a2n .. = (aij )i = 1, . . . , m, . j = 1, . . . , n aij ∈ R am1 am2 . . . amn zi = (ai1 , ai2 , . . . , ain ) – i-te Zeile von A, i = 1, . . . , n a1j sj = ... – j-te Spalte von A, j = 1, . . . , n amj Die Menge aller reellen m × n-Matrizen wird mit Rm×n bezeichnet. 4.1.1.0.1 Spezialfälle: • R1×n = Rn , also zi ∈ Rn • Rm×1 = Rm , also sj ∈ Rm 4.1.1.0.2 Bemerkung: Anstelle von R können Matrizen auch über jeden beliebigen anderen Körper K betrachtet werden. 55 56 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME 4.1.2 Operationen mit Matrizen i) Sind A, B ∈ Rm×n , also A = (aij ), B = (bij ), so definiert man A + B := (aij + bij ) λA := (λaij ) (Summe von A und B) (skalares Vielfaches von A, λ ∈ R) Mit diesen Operationen wird Rm×n zu einem Vektorraum. Nullelement ist die Nullmatrix 0 0 ... 0 0 0 . . . 0 0 = .. .. .. . . . 0 0 ... 0 Beispiel: 0 0 1 3 −1 0 , ∈ R2×3 0.5 0 2.5 −6 0 624.37 3 −1 0 0 0 1 0 −1 1 + = 0.5 0 2.5 −6 0 624.37 −5.5 0 626.87 3 −1 0 3λ −1λ 0 λ· = 0.5 0 2.5 0.5λ 0 2.5λ ii) Transposition: Die transponierte Matrix AT zu A ∈ Rm×n entsteht aus A, indem man die Rollen von Zeilen und Spalten vertauscht. a11 a21 . . . am1 a12 a22 . . . am2 , AT ∈ Rn×m , ãji = aij AT = .. .. = (ãji )j = 1, . . . , n, .. . . . i = 1, . . . , m a1n a2n . . . amn Beispiel: 3 −1 0 0.5 0 2.5 T 3 0.5 = −1 0 0 2.5 z1 T A = ... , AT = z1T , . . . , zm zm x1 insbesondere: x = ... ∈ Rm ⇔ xT = x1 . . . xm ∈ Rm xm 4.1. MATRIZENRECHNUNG 57 iii) Produkt von Matrizen: Sei A = (aij )i = 1, . . . , m, ∈ Rr×s , so gibt es AB, ∈ Rm×n , B = (bkl )k = 1, . . . , r, j = 1, . . . , n l = 1, . . . , s falls Spaltenanzahl n von A gleich Zeilenzahl r von B ist (A und B heißen in diesem Fall verkettet) und definiert wird ! n X ⇒ AB ∈ Rm×s AB = A · B := aij bjl j=1 · H .. . · · · .. . ··· ··· ♦ .. . ▽ i = 1, . . . , m, l = 1, . . . , s = ··· .. . + ♦ + · · · + H▽ · · · .. . a11 . . . a1n .. b .. 11 . . . b1l . . . b1s . . .. .. = AB = ai1 . . . ain · ... . . . . .. .. bn1 . . . bnl . . . bns am1 . . . amn Beispiele: 1. 2. 0 2 3 −1 0 existiert nicht · −1 0 0.5 0 2.5 0 2 3 −1 0 1 0 5 · = −1 0 0.5 0 2.5 −3 1 0 x1 x2 3. Ist x = .. ∈ Rn , so ist . xn Pn j=1 a1j xj P n a2j xj j=1 Ax = = .. . Pn j=1 amj xj n X j=1 aij xj ! ∈ Rm n X j=1 aij bjl ! 58 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME Anwendung: lineares Gleichungssystem mit m Gleichungen in n Unbekannten x1 , . . . , xn a11 x1 + a12 x2 a21 x1 + a22 x2 .. . + . . . + a1n xn + . . . + a2n xn = b1 = b2 ⇔ Ax = b am1 x1 + am2 x2 + . . . + amn xn = bm mit gegebenen Koeffizienten aij ∈ R und gegebenem Absolutglied(vektor) b1 b2 b = .. ∈ Rm . . bm 4. Für x ∈ Rn und y ∈ Rn , so ist x1 x1 y1 x1 y2 . . . x1 yn n×n xy = ... y1 . . . yn = ... = (xi yj )i,j=1,...,n ∈ R xn xn y1 xn y2 . . . xn yn x n .1 X . yx = y1 . . . yn . = yi xi ∈ R1×1 = R i=1 xn Für die Matrizenmultiplikation gelten folgende Gesetze: a) Distributivität A(B + C) = AB + BC, (A + B)C = AC + BC b) Assoziativität λ(AB) = (λA)B = A(λB), (AB)C = A(BC) λ∈R c) Im Allgemeinen gilt AB 6= BA (die Matrizenmultiplikation ist nicht kommutativ). d) Produkt zweier Matrizen A 6= 0 und B 6= 0 kann trotzdem Nullmatrix sein (d.h. Matrizenmultiplikation ist nicht nullteilerfrei ). Beispiel zu c), d): 0 A= 0 0 AB = 0 3 7 1 ,B = 0 0 0 0 0 3 , BA = 0 0 0 AB 6= BA 4.1. MATRIZENRECHNUNG 4.1.3 59 Zusammenhang zwischen linearen Abbildungen und Matrizen 4.1.3.0.1 Darstellungssatz: Sei A ∈ Rm×n . Dann ist f : Rn → Rm definiert durch (4.1.3.1) f (x) = fA (x) := Ax für x ∈ Rn eine lineare Abbildung. Umgekehrt gibt es zu jedem f ∈ Hom(Rn , Rm ) genau eine Matrix A ∈ Rm×n mit (4.1.3.1). Beweis: 1) f (x) = Ax ist additiv und homogen in x wegen Rechengesetzen 3a) und 3b). (A(x + y) = Ax + Ay, A(λx) = λ(Ax)) 2) Sei f ∈ Hom(Rn , Rm ). Zeige Existenz von A: x1 .. Für alle x = . ∈ Rn gilt xn 0 .. n . X T T x= xj ej , ej = 1 (j-te Zeile) . j=1 .. 0 ! n n n X X X T T xj f (ej ) = xj vj f (x) = f xj ej = j=1 j=1 j=1 v1j mit vj := f (eTj ), vj = ... ∈ Rm , j = 1, . . . , n. Setze vmj v11 v12 . . . v1n .. .. A = ... . . vm1 vm2 . . . vmn Dann ist f (eTj ) = AeTj und f (x) = n X j=1 xj AeTj = n X j=1 Axj eTj =A n X j=1 xj eTj = Ax 60 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME 3) Eindeutigkeit von A. Seien A, A′ ∈ Rm×n mit f (x) = Ax, f (x) = A′ x für alle x ∈ Rn . Speziell mit x = eTj ist AeTj = A′ eTj , d.h. (A′ = (a′ij )) a′1j a1j sj = ... = s′j = ... a′mj amj also aij = a′ij für alle i = 1, . . . , m, j = 1, . . . , n. Bemerkung: a) Die Spalten von A sind die Bilder der Einheitsvektoren eT1 , . . . , eTn ∈ Rn . b) Nach Fundamentalsatz ist Rn zu jedem n-dimensionalen Vektorraum isomorph. Deshalb gibt es zu jeder linearen Abbildung f : V → W dim V = n, dim W = m eine Darstellungsmatrix A ∈ Rm×n . A hängt ab von den gewählten Basen in V und W . 4.1.3.1 Interpretation der Matrizenoperationen i) A + B, λA sind die Darstellungsmatrizen der linearen Abbildungen fA + fB bzw. λfA , d.h. fA+B = fA + fB , fλA = λ · fA . ii) AB, B = (bjl )j = 1, . . . , n ist die Darstellungsmatrix der verketteten Abbildung fA ◦ fB l = 1, . . . , s fAB = fA ◦ fB , fB fA Rs −→ Rn −→ Rm Dabei 0 Pn .. b1l j=1 a1j bjl . fA fB .. R ∋ eTl = 1 7−→ BeTl = ... 7−→ ABeTl = , . . Pn .. bnl j=1 anj bjl ∈Rn 0 l = 1, . . . , s 4.1. MATRIZENRECHNUNG 4.1.3.2 61 Spezialfälle a) Ist f = idRn , so ist f (eTj ) = eTj , j = 1, . . . , n. Darstellungsmatrix ist 1 0 eT1 , . . . , eTn = .. . 0 0 ... 1 ... .. . 0 0 .. = E(= En ) . 0 ... 1 E heißt Einheitsmatrix und hat die andere Darstellung e1 .. E = . , en E = (δij )i,j=1,...,n ( 0 für i 6= j δij = 1 für i = j Kronecker-Symbol b) Ist fA ein Isomorphismus, d.h. fA bijektiv, so heißt die zugehörige Matrix A invertierbar oder regulär und die Darstellungsmatrix zu (fA )−1 wird mit A−1 bezeichnet (inverse Matrix zu A). 4.1.3.3 Folgerungen 1) Jede invertierbare Matrix ist quadratisch, weil die Dimensionen von Bild- und Urbildraum bei Isomorphismen gleich sind. 2) (A−1 )−1 = A, weil (fA−1 )−1 = fA 3) AA−1 = A−1 A = E, weil • fA ◦ fA−1 = fA ◦ (fA )−1 = id = fE und • fA−1 ◦ fA = (fA )−1 ◦ fA = id = fE 4) (AB)−1 = B −1 A−1 5) (AT )−1 = (A−1 )T = A−T 62 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME 4.1.3.3.1 −1 2 4 a b : Beispiel: Berechnung von = 0 1 c d Diese Inverse lässt sich gemäß 3) bestimmen aus der Beziehung: 1 0 2 4 a b = E2 = 0 1 0 1 c d 1 0 2a 4a + b = 0 1 2c 4c + d 2a = 1 2c = 0 4a + b = 0 4c + d = 1 1 ⇒ a = , c = 0, b = −2, d = 1 2 −1 1 −2 2 4 2 = 0 1 0 1 4.1.3.3.2 Anwendung: Die Lösung des linearen Gleichungssystems Ax = b mit invertierbarem A ist gegeben durch A−1 (Ax) = A−1 b Ex = A−1 b ⇒ d.h. x = A−1 b 4.2 Rangbestimmung 4.2.1 Definition des Rangs einer Matrix 4.2.1.0.1 Definition: Sei A = (aij )i = 1, . . . , m j = 1, . . . , n z1 z2 = (s1 , s2 , . . . , sn ) = .. mit sj ∈ Rm , . zm n zi ∈ R . dim lin(s1 , . . . , sn ) = Spaltenrang von A(= Sr(A)) = Maximalzahl linear unabh. Spalten dim lin(z1 , . . . , zm ) = Zeilenrang von A(= Zr(A)) = Maximalzahl linear unabh. Zeilen 4.2.1.0.2 Satz: Spaltenrang = Zeilenrang (4.2.1.2) 4.2. RANGBESTIMMUNG 4.2.1.0.3 63 Bemerkung: i) Für die Matrix A bezeichnet diese gemeinsame Zahl den Rang von A (Rang(A)). ii) dim Bild(fA ) = dim lin s1 , . . . , sn = Rang(A) z.B. Rang(En ) = n 4.2.1.0.4 Hilfssatz: Sei X = x1 . . . xr xr+1 ∈ Rm×(r+1) , xr+1 = r X xi ∈ Rm (4.2.1.3) λp xp p=1 und X ′ = x1 . . . xr ∈ Rm×r so stimmt Zeilen- und Spaltenrang von X und X ′ überein. Beweis: a) Sr(X) = dim lin x1 , . . . , xr , xr+1 = dim lin x1 , . . . , xr = Sr(X ′ ) b) y1′ X ′ = ... , ′ ym y1 X = ... , ym Sei m X i=1 Umgekehrt: Sei yi = (xi1 , . . . , xir , xi,r+1 ), µi yi = 0 mit µi ∈ R m X ⇒ m X yi′ = (xi1 , . . . , xir ) µi yi′ = 0 i=1 µi yi′ = 0 (4.2.1.4) i=1 Aus (4.2.1.3) folgt xi,r+1 = r X λp xip für i = 1, . . . , m p=1 m X i=1 µi xi,r+1 = r m X X i=1 p=1 µi λp xip = r X p=1 λp m X µi xip |i=1 {z } =0 aus (4.2.1.4) 64 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME ⇒ m X µi y i = i=1 m X µi (yi′ , xi,r+1 ) = 0 i=1 D.h. lineare Unabhängigkeit der Zeilen von X ist dieselbe wie die lineare Unabhängigkeit der Zeilen von X ′ . ⇒ Zr(X) = Zr(X ′ ) 4.2.1.0.5 Bedeutung des Hilfssatzes: In einer Matrix können linear abhängige Spalten weggelassen werden, ohne das sich Zeilen- und Spaltenrang ändert. (Analog für Zeilen) Beweis von (4.2.1.2): 1) Wir lassen in Matrix A alle Spalten weg, welche aus den anderen linear kombinierbar sind. ⇒ A′ = s1 . . . sk , k ≤ n Nach dem Hilfssatz ergibt sich: Sr(A) = Sr(A′ ) = k, z1′ A′ = ... , ′ zm Zr(A) = Zr(A′ ) zi′ ∈ Rk 2) Wir lassen in A′ alle Zeilen weg, welche aus den anderen linear kombinierbar sind. z1′ ⇒ A′′ = ... , l ≤ m zl′ Nach dem Hilfssatz ergibt sich: Sr(A′′ ) = Sr(A′ ) = Sr(A) = k, Zr(A′′ ) = Zr(A′ ) = Zr(A) = l . . . s′k , s′j ∈ Rl A′′ = s′1 3) A′′ ∈ Rl×k , l = dim lin z1′ , . . . , zl′ ≤ k k = dim lin s′1 , . . . , s′k ≤ l ⇒k=l 4.2.1.0.6 Beispiel: −1 4 6 8 A= −9 0 184 −7 Rang(A) = Sr(A) = 2, weil die Spalten von A linear unabhängig sind. 4.2. RANGBESTIMMUNG 4.2.2 65 Elementare Umformungen von Matrizen A = (aij )i = 1, . . . , m ∈ Rm×m j = 1, . . . , m z1 A = ... = s1 . . . sn zm 1) Vertauschung zweier Zeilen von A 2) Multiplikation einer Zeile von A mit λ ∈ R, λ 6= 0 3) Addition des Vielfachen einer Zeile von A zu einer anderen Zeile (Analog für Spalten) 4.2.2.0.1 Beispiel: 70 190 660 70 190 2) 7 20 66 −→ 70 200 −14 −10 −99 −14 −10 0 140 165 0 3) 3) 10 0 −→ 0 −→ 0 −14 −10 −99 −14 660 70 190 3) 660 −→ 0 10 −99 −14 −10 0 165 0 0 2),3) 10 0 −→ 0 1 −10 −99 1 0 660 0 −99 1 1 0 0 1) 0 −→ 0 1 0 0 0 0 1 4.2.2.0.2 Eigenschaft: Bei elementaren Umformungen ändert sich der Rang der Matrix nicht, weil die lineare Hülle der Zeilen z1 , . . . , zm bei elementaren Umformungen nicht verändert wird. Damit bleibt auch ihre Dimension, also Zeilenrang von A = Rang(A), unverändert. 4.2.2.0.3 Anwendung: Umformung von A durch elementare Umformungen so lange, bis eine Matrix einfacher Strukur entsteht, bei der man den Rang ablesen kann. Eine solche einfache Struktur liegt vor bei s11 ∗ ∗ ∗ 0 s22 ∗ ∗ S = ... . . . . . . ∗ 0 . . . 0 srr 0 (Trapezgestalt, Zeilenstufenform) ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ (∗ – nicht interessierende Einträge) 66 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME 4.2.2.1 Behauptungen 1) Ist S ∈ Rm×n und sind die Hauptdiagonalelemente sii 6= 0 für i = 1, . . . , r, so ist Rang(S) = r. Beweis: Die ersten r Zeilen s1 , . . . , sr ∈ Rn von S sind linear unabhängig, denn sei si = (0, . . . , 0, sii , si,i+1, . . . , sin ) und λ 1 s1 + λ 2 s2 + . . . + λ r sr = 0 Dann ist λ1 s11 = 0 ⇒ λ1 = 0 ⇒ λ2 s22 = 0 ⇒ λ2 = 0 ⇒ . . . ⇒ λ1 = 0 ⇒ Zeilenrang von S ist r. 2) Jede Matrix lässt sich durch elementare Umformungen in Trapezform bringen, wobei der Rang erhalten bleibt. Beweis: (konstruktivI ) a) Habe A obige Gestalt. B = (aij )i = k + 1, . . . , m ∈ R(m−k)×(n−k) j = k + 1, . . . , n 1. Fall: Ist B = 0, so hat A bereits Trapezform. 2. Fall: Ist B = 6 0, so gibt es aij 6= 0 mit i ∈ {k + 1, . . . , m}, j ∈ {k + 1, . . . , n}. a11 · · · ⋆ .. . . .. . . . 0 · · · akk A= 0 I B ⋆ Durch Zeilen- und Spaltenvertauschungen (Typ 1) lässt sich Matrix A′ erzeugen, wobei die ersten k Spalten unverändert bleiben. a′k+1,k+1 6= 0 heißt Pivotelement a11 · · · ⋆ .. . . .. . . . ⋆ 0 · · · a kk mit a′k+1,k+1 6= 0 A′ = a′ k+1,k+1 .. 0 ′ . B ′ a m,k+1 Angabe eines Verfahrens mit dem man jede Matrix in Trapezform bringen kann. 4.3. LINEARE GLEICHUNGSSYSTEME 67 a′ Durch Zeilenumformungen vom Typ 3), und zwar Addition des − a′ i,k+1 k+1,k+1 fachen des (k + 1)-ten der Zeilen zur i-ten Zeile entsteht A′′ für i = k + 2, . . . , m. a11 · · · ⋆ .. . . .. . . ⋆ . 0 · · · a kk A′′ = a′ k+1,k+1 ⋆ .. 0 . B ′′ 0 Rang(A′′ ) = Rang(A) b) Gaußscher Algorithmus zur Rangbestimmung 1. 2. 3. 4. Schritt: Schritt: Schritt: Schritt: k = 0, d.h. an A werden keinerlei Bedinungen gestellt. Suche Pivotelement a′k+1,k+1 6= 0 (günstig: |a′k+1,k+1| = 1) Transformiere A′ in A′′ gemäß Teil 2a). Ist B ′′ = 0 oder k + 1 = min{m, n}, so Rang(A) = k + 1. Andernfalls erhöhe k um 1 und gehe zu 2. Schritt zurück. Beispiel: 1 1 2 2 1 1 2 2 1 1 2 2 7 −3 → 0 3 7 −3 → 0 3 7 −3 A = 0 3 5 3.5 6.5 11.5 0 −1.5 −3.5 1.5 0 0 0 0 ⇒ Rang(A) = 2 4.3 4.3.1 Lineare Gleichungssysteme Definitionen Ein lineares Gleichungssystem in den Unbekannten x1 , . . . , xn besteht aus m Gleichungen der Form: a11 x1 a21 x1 .. . +a12 x2 + . . . +a22 x2 + . . . +a1n xn = +a2n xn = b1 b2 amn x1 +am2 x2 + . . . +amn xn = bm ⇔ n X aij xj = bi , i = 1, . . . , m j=1 ⇔ Ax = b 68 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME A = (aij )i = 1, . . . , m (Koeffizientenmatrix ), j = 1, . . . , n b1 b = ... ∈ Rm (Absolutglied(vektor)) bm x1 x = ... ∈ Rn xn Das Gleichungssystem heißt homogen, falls b = 0, andernfalls inhomogen. Die Menge aller Lösungen x ∈ Rn des Gleichungssystems Ax = b sei L(A, b) := {x ∈ Rn | Ax = b} und heißt Lösungsraum (oder Lösungsmenge) des Gleichungssystems. 4.3.1.0.1 Fragen: 1) Gibt es Lösungen? 2) Wieviele Lösungen gibt es? 3) Konstruktion der Lösungen 4.3.2 Struktur der Lösungsräume a) L(A, 0) 6= ∅, weil A · 0 = 0, also 0 ∈ L(A, 0). b) L(A, 0) ist Unterraum von Rn , denn es gilt a) und weiterhin gilt: Mit x, y ∈ L(A, 0), so folgt A(x + y) = Ax + Ay = 0 + 0 = 0, d.h. x + y ∈ L(A, 0); außerdem A(λx) = λ(Ax) = λ·0 = 0, d.h. λx ∈ L(A, 0). Somit ist Unterraum-Kriterium erfüllt. c) Wenn das inhomogene Gleichungssystem Ax = b lösbar ist, so ist L(A, b) ein affiner Unterraum des Rn , genauer: L(A, b) = x0 + L(A, 0) mit x0 ∈ L(A, b) in Worten: Die allgemeine Lösung des inhomogenen Gleichungssystem erhält man durch Addition einer speziellen Lösung des inhomogenen Gleichungssystem zur allgemeinen Lösung des zugehörigen homogenen Gleichungssystem. Beweis: 4.3. LINEARE GLEICHUNGSSYSTEME i) Sei x ∈ L(A, b). ⇒ 69 A(x − x0 ) = Ax − Ax0 = b − b = 0 x − x0 ∈ L(A, 0), x ∈ x0 + L(A, 0) ⇒ L(A, b) ⊆ x0 + L(A, 0) ii) Für beliebiges y ∈ x0 + L(A, 0) gilt: y = x0 + x, x ∈ L(A, 0) ⇒ 4.3.2.0.1 Ay = A(x0 + x) = Ax0 + Ax ⇒ Ay = b + 0 = b ⇒ y ∈ L(A, b) ⇒ x0 + L(A, 0 ⊆ L(A, b) Beispiel: x1 +2x2 +3x3 = −1.5 2x2 +6x3 = 0 1) Allgemeine Lösung des homogenen Gleichungssystem x1 +2x2 +3x3 = 0 2x2 +6x3 = 0 ⇒ x2 = −3x3 ⇒ x1 = 3x2 3x3 L(A, 0) = {x ∈ R3 | x1 = 3x3 , x2 = −3x3 } = −3x3 x3 ∈ R x3 3 −3 L(A, 0) = lin 1 2) Spezielle Lösung des inhomogenen Gleichungssystem −1.5 0 0 3) Allgemeine Lösung des inhomogenen Gleichungssystem −1.5 3 −1.5 0 −3 L A, = + lin 0 0 1 d.h. x ∈ R3 ist Lösung ⇔ x1 −1.5 + 3λ x = x2 = 0 − 3λ , x3 0 + 1λ λ∈R 70 4.3.3 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME Lösbarkeitskriterium Das Gleichungssystem Ax = b ist lösbar genau dann, wenn Rang (A) = Rang (A|b). (A|b) heißt erweiterte Koeffizientenmatrix. Beweis: Sei A = (s1 , . . . , sn ), sj ∈ Rn , dann ist Rang A = dim lin(s1 , . . . , sn ). Rang(A|b) = dim lin(s1 , . . . , sn , b) x ∈ L(A, b) ⇔ Ax = b ⇔ b = n X j=1 xj sj ⇔ b ∈ lin(s1 , . . . , sn ) ⇔ lin(s1 , . . . , sn ) = lin(s1 , . . . , sn , b) ⇔ Rang A = Rang(A|b) In unserem Beispiel: 1 2 3 | 1.5 1 2 3 = 2 = Rang Rang 0 2 6 | 0 0 2 6 ⇒ Gleichungssystem lösbar aber: x1 +2x2 +3x3 = −1.5 +2x2 +6x3 = 0 x1 −3x3 = 0.5 1 2 3 1 2 3 Rang 0 2 6 = Rang 0 2 6 =2 1 0 −3 0 −2 −6 1 2 3 | −1.5 1 2 3 | −1.5 1 2 3 | −1.5 0 = Rang 0 2 6 | 0 = Rang 0 2 6 | 0 =3 Rang 0 2 6 | 1 0 −3 | 0.5 0 −2 −6 | 2 0 0 0 | 2 ⇒ Gleichungssystem ist unlösbar 4.3.4 Dimension des Lösungsraumes dim (L(A, 0)) = n − Rang A (= Rangdefekt von A) denn mit fA : Rn → Rm (definiert durch fA (x) = Ax) gilt: Rang(A) = dim(Bild(fA )) und L(A, 0) = {x ∈ Rn | fA (x) = 0} = Kern(fA ) Nach Dimensionsformel für lineare Abbildungen: n = dim Rn = dim(Kern(fA )) + dim(Bild(fA )) 4.3. LINEARE GLEICHUNGSSYSTEME 4.3.4.0.1 71 Folgerungen: a) Gleichungssystem Ax = b ist für alle b ∈ Rm lösbar ⇔ Rang A = m (= Anzahl der Gleichungen) Beweis: Für beliebiges b ∈ Rm gilt: Ax = b lösbar ⇔ Rang A = Rang(A|b) ⇔ dim lin(s1 , . . . , sn ) = dim lin(s1 , . . . , sn , b) ⇔ lin(s1 , . . . , sn ) = lin(s1 , . . . , sn , b) = Rm ⇔ Rang A = m b) Unter der Voraussetzung, dass Ax = b lösbar ist, gilt: Lösung ist eindeutig ⇔ Rang A = n (= Anzahl der Unbekannten) Beweis: Lösung von Ax = fA (x) = b eindeutig ⇔ fA injektiv ⇔ Kern(fA ) = {0} ⇔ dim L(A, 0) = 0 ⇔ n = Rang A In unserem Beispiel: 1 2 3 =2 Rang 0 2 6 b so Gleichungssystem für alle Vektoren 1 lösbar, aber nicht eindeutig, b2 weil Rang(. . .) < 3. 4.3.5 Gaußscher Algorithmus zum Lösen linearer Gleichungssysteme 1. Schritt: Ordne Ax = b das rechteckige Schema (A|b) zu und führe elementare Zeilenumformungen gemäß Gaußschem Algorithmus durch. Dabei ändert sich L(A, b) nicht. 2. Schritt: Sind alle ai,k+1 = 0 für i = k + 1, . . . , m, so müssen die letzten n − k Spalten von A getauscht werden, um ein Pivotelement a′k+1,k+1 6= 0 zu finden. Achtung! Spaltenvertauschung entspricht Vertauschung der Reihenfolge der Unbekannten x1 , . . . , xn , was registriert werden muss! a11 · · · ⋆ .. . . .. . . . ⋆ 0 · · · akk ′ b A= 0 B 72 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME Falls B 6= 0, gehe zu 1. Schritt. 3. Schritt: Verfahren endet mit Matrix wobei D M ′′ b 0 0 ′ a11 ∗ ∗ ∗ .. . ∗ ∗ 0 D= . . , .. ... ∗ .. 0 . . . 0 a′rr (4.3.5.5) a′ii 6= 0 für i = 1, . . . r , D ∈ Rr×r (obere Dreiecksmatrix ), M = (mij ) ∈ Rr×(n−r) Lösbarkeitskriterium: Ist b′′r+1 = . . . = b′′m = 0, so ist r = Rang (A) = Rang (A|b) und Gleichungssystem lösbar, andernfalls unlösbar. 4. Schritt: Interpretiere das Schema (4.3.5.5) als Gleichungssystem in den Unbekannten y1 , . . . , yr , zr+1 , . . . , zn welche aus x1 , . . . , xn durch die entsprechenden Vertauschungen hervorgehen. Dy + Mz = b′′ Setzezj = λj , j = r + 1, . . . , n, λj ∈ R (freie Parameter ) und bestimme y1 .. y = . als Lösung des Gleichungssystem yr Dy = b′′ − Mλ und zwar durch Rückwärtseinsetzen (Rückwärtssubstitution) beginnend mit der letzten Zeile. ! m X 1 yr = ′ b′′r − mrj λj arr j=r+1 Einsetzen von yr in (r − 1)-te Zeile liefert yr−1 gemäß a′r−1,r−1 yr−1 also yr−1 = 1 a′(r−1),(r−1) usw. bis y1 = . . .. + a′r−1,r yr m X = b′′r−1 − m X mr−1,j λj j=r+1 a′r−1,r ′′ br−1 − mr−1,j λj − ′ ar,r j=r+1 b′′r − m X j=r+1 mrj λj !! 4.3. LINEARE GLEICHUNGSSYSTEME 73 4.3.5.0.1 Bemerkung: Durch Umnummerierung der Variablen lässt sich Lösung des Gleichungssystem schreiben als x = x0 + λr+1 v1 + λr+2 v2 + . . . λn vn−r 4.3.5.0.2 Beispiel: x1 −x1 2x1 x1 +2x2 +x3 +x4 +x5 −2x2 −2x3 +2x4 +x5 +4x2 +3x3 −x4 +2x2 +2x3 −2x4 +x5 x1 x2 x3 x4 x5 1 2 1 1 1 2 3 −1 −2 −2 2 1 2 4 3 −1 0 −1 1 2 2 −2 1 2 1 → 0 0 0 2 1 1 0 −1 3 0 1 −3 0 1 −3 1 → 0 0 0 = 2 = 3 = −1 = 2 x1 x3 x2 x4 x5 1 2 1 1 2 1 1 2 5 → 0 1 0 −3 −2 −5 2 −2 −5 0 1 0 −3 −2 −5 0 0 1 0 −3 0 0 0 1 1 0 0 2 2 1 1 0 −3 −2 −5 → 0 0 0 0 0 0 2 5 x1 x3 x5 x4 x2 1 1 1 1 2 2 0 1 −2 −3 0 −5 0 0 2 0 0 5 0 0 0 0 0 0 x1 +x3 +x5 +x4 +2x2 = 2 +x3 −2x5 −3x4 = −5 +2x5 = 5 Setze x4 = λ, x2 = µ. Durch Rückwärtseinsetzen ergibt sich 5 x5 = 2 5 x3 = −5 + 2 + 3λ = 3λ 2 1 5 x1 = 2 − 3λ − − λ − 2µ = − − 4λ − 2µ 2 2 1 −2 −4 −2 x1 1 0 x2 0 x3 = 0 + λ 3 + µ 0 mit λ, µ ∈ R 0 1 x4 0 5 0 0 x5 2 74 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME 4.3.6 Numerische Lösung linearer Gleichungssysteme Der Gaußsche Algorithmus liefert uns theoretisch in endlich vielen Schritten die exakte Lösung des linearen Gleichungssystems Ax = b. Trotzdem ist bei Umsetzung dieses Algorithmus auf dem Computer das Ergebnis i.A. mit Ungenauigkeiten behaftet, weil der Rechner intern die arithmetischen Operationen nur annähernd genau (mit Gleitkommazahlen) ausführen kann. Die Genauigkeit der Lösung(snäherung) ist insbesondere empfindlich gegenüber Rundungsfehlern in den Eingangsdaten, weil stets Divisionen durch eventuell sehr kleine oder sehr große Zahlen durchgeführt werden müssen. Außerdem wächst der Aufwand an arithmetischen Operationen proportional zu n3 , wenn n die Anzahl der Unbekannten ist. Deshalb sind numerische Verfahren entwickelt worden, die zwar von vorn herein nur Näherungslösungen liefern, jedoch weniger Rechenaufwand erfordern und nicht so anfällig gegenüber Rundungsfehlern sind. 4.3.6.0.1 Idee: Umformung des Gleichungssystems Ax = b mit quadratischer Koeffizientenmatrix A = (aij )i,j=1,...,n in ein Fixpunktproblem Ax = b ⇔ P −1(Ax − b) = 0 , (P reguläre Matrix) ⇔ x = (E − P −1 A)x + P −1 b ⇔ x = Mx + c mit M := E − P −1 A , c = P −1 b . (4.3.6.6) Gleichung (4.3.6.6) heißt Fixpunktgleichung, und x ist ein Fixpunkt der Abbildung f : Rn → Rn mit f (x) := Mx + c. (4.3.6.6) wird gelöst durch sukzessive Iterationen: x(k+1) = Mx(k) + c , 4.3.6.0.2 den, dass k = 0, 1, . . . mit Startvektor x(0) . (4.3.6.7) Bemerkung: Die Matrix P heißt Präkonditionierer und soll so gewählt wer- i) Gleichungssystem (4.3.6.7) ⇔ P x(k+1) = (P − A)x(k) + b möglichst einfach lösbar ist, ii) Iterationen (x(k) ) bei jeder Wahl des Startvektors x(0) “möglichst schnell” gegen die Lösung x der Fixpunktgleichung (4.3.6.6) konvergieren. 4.3.6.1 Wahl von P a) Einfachster Fall: P = I, d.h. M = I − A x(k+1) = x(k) − Ax(k) + b (Richardson-Verfahren) 4.3. LINEARE GLEICHUNGSSYSTEME 75 b) Nächsteinfacher Fall: P = D mit regulärer Diagonalmatrix D. Dazu zerlegt man 0 ∗ ... ∗ a11 0 . . . 0 0 0 ... 0 ∗ 0 . . . 0 0 a22 . . . 0 0 0 . . . ∗ A = AL + AD + AR := .. . . . . + .. . . . . + .. . . . . . . . ∗ . . 0 . . . 0 . 0 ... 0 0 0 . . . 0 ann ∗ ... ∗ 0 AL – linke untere Dreiecksmatrix, AR – rechte obere Dreiecksmatrix, AD – Diagonalmatrix. −1 Mit P = AD ergibt sich M = E − A−1 D A = −AD (AL + AR ) und somit (k) x(k+1) = −A−1 + A−1 D (AL + AR )x D b (Jacobi-Verfahren oder Gesamtschritt-Verfahren) oder ausführlich in Koordinaten (k+1) xi n X bi aij (k) xj + , =− aii aii j=1,j6=i i = 1, . . . , n ; k = 0, 1, . . . . c) P = AL + AD aus der Zerlegung A = AL + AD + AR . Damit ergibt sich M = E − (AL + AD )−1 A = −(AL + AD )−1 AR und x(k+1) = −(AL + AD )−1 AR x(k) + (AL + AD )−1 b m (AL + AD )x(k+1) = −AR x(k) + b m (k+1) + AR x(k) + A−1 x(k+1) = −A−1 D b D AL x oder ausführlich in Koordinaten (k+1) xi =− i−1 X aij j=1 aii (k+1) xj − n X bi aij (k) xj + , a a ii ii j=i+1 i = 1, . . . , n ; k = 0, 1, . . . . Im Unterschied zum Jacobi-oder Gesamtschritt-Verfahren werden hier also bei der (k+1) Berechnung der Komponente xi der (k + 1)-ten Näherung nicht nur die Komponenten der vorhergehenden Näherung x(k) verwendet, sondern auch die bereits (k+1) (k+1) berechneten neuen Komponenten x1 , . . . , xi−1 . (Gauß-Seidel-Verfahren oder Einzelschritt-Verfahren) 76 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME 4.3.6.1.1 Konvergenzsatz: II Gilt für die Koeffizientenmatrix A = (aij ) (nach eventuellen Zeilen- oder Spaltenvertauschungen) die Ungleichung n X |aij | <1 max i=1,...,n |aii | j=1,j6=i (A heißt dann zeilenweise strikt diagonaldominant), so konvergiert die vom Gesamtschritt-Verfahren oder vom Einzelschritt-Verfahren erzeugte Folge von Iterationen (x(k) ) bei beliebiger Wahl des Startvektors x(0) gegen die Lösung x des des linearen Gleichungssystems Ax = b. 4.4 Determinanten Die Theorie des Determinanten ist ältester Teil der linearen Algebra. Heute: Wichtiges Unterschuchungsmittel für Matrizen; große Bedeutung auch bei anderen mathematischen Fragestellungen. 4.4.0.1.1 Zur Erinnerung: • Permutation π ist bijektive Abbildung: Nn → Nn , Nn = {1, . . . , n} • Menge aller Permutationen bildet Gruppe Sn • sig(π) = (−1)Anzahl der Fehlstände in π 4.4.1 Definition einer Determinante (nach G.W. Leibniz III ) Sei A = (aij )i,j=1,...,n ∈ Rn×n , d.h. eine quadratische Matrix. Dann heißt a11 a12 . . . a1n (n! Sum a21 a22 . . . a2n manden) X Det(A) = .. sig(π)a1,π(1) · a2,π(2) · . . . · an,π(n) .. .. = . . . π∈Sn an1 an2 . . . ann die Determinante von A. II III Genaueres und Beweis in Lehrbüchern zur Numerik (1646-1716) (4.4.1.8) 4.4. DETERMINANTEN 4.4.1.0.1 77 Beispiele: i) Determinante einer 2-reihigen Matrix 1 2 1 2 , S2 : 2 1 1 2 (gerade) (ungerade) a11 a12 a21 a22 = (+1)a11 a22 + (−1)a12 a21 = a11 a22 − a12 a21 ii) Determinante einer 3-reihigen Matrix 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 S3 : , , , , , 1 2 3 2 3 1 3 1 2 3 2 1 1 3 2 2 1 3 | {z } | {z } (gerade) (ungerade) a11 a12 a13 a11 a12 a21 a22 a23 a21 a22 a31 a32 a33 a31 a32 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33 (Regel von Sarrus IV ) iii) 1 0 X Det En = . . . = sig(π) δ1,π(1) δ2,π(2) . . . δn,π(n) {z } | 0 1 π∈Sn 6=0⇔δi,π(i) =1 für alle i=1,...,n ( 1 für i = j δij = 0 für i 6= j δi,π(i) = 1 ⇔ i = π(i) ⇔ π = idNn ⇒ Det En = (+1)δ11 δ22 . . . δnn = 1 4.4.2 Eigenschaften von Det(A) 1) (Elementare Umformungen vom Typ 2) Homogenität a11 . . . z1 a11 . . . a1n . . . . . . . . . . . . λzi = λai1 . . . λain = λ ai1 . . . . . . .. .. .. .. . a z a ... ... a n IV (1798-1858) n1 nn n1 in i-ter Zeile a1n z1 .. . . . . ain = λ zi .. zn . a nn 78 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME 2) Additivität in i-ter Zeile z1 a11 ... a1n a11 . . . a1n a11 . . . a1n . .. .. .. .. .. . .. . . . . . . . ′ ′ ′ ′ ′ z + z a + a . . . a + a a . . . a a . . . a = = + i i1 i1 i1 in in i1 in in . i .. .. .. .. .. .. .. . . . . . . z a ... ann an1 . . . ann an1 . . . ann n n1 3) Sind in A zwei Zeilen gleich, etwa zk = zl und k < l, so ist Det A = 0. Denn A da X X sig(π)a1,π(1) . . . an,π(n) sig(π)a1,π(1) . . . an,π(n) + = (4.4.1.8) π∈Un π∈Gn Sn = Gn ∪ Un , Gn ∩ Un = ∅ Gn = {π ∈ Sn | sig(π) = 1}, Benutze die Transposition Un = {π ∈ Sn | sig(π) = −1} 1...k...l...n τ: , 1...l...k...n ⇒ Det A = X π∈Gn sig(τ ) = −1 Un = {σ ◦ τ | σ ∈ Gn } X (−1)a1,σ(τ (1)) . . . an,σ(τ (n)) (+1)a1,π(1) . . . an,π(n) + σ∈Gn Es ist a1,σ(τ (1)) . . . an,σ(τ (n)) = a1,σ(1) . . . ak,σ(l) . . . al,σ(k) . . . an,σ(n) =al,σ(l) =ak,σ(k) (weil ak,j = al,j für alle j = 1, . . . , n) X X a1,σ(1) . . . an,σ(n) = 0 a1,π(1) . . . an,π(n) − Det A = σ∈Gn π∈Gn 4) Det(A) = Det(AT ), denn AT = (e aij ), e aij = aji X X sig(π)aπ(1),1 . . . aπ(n),n sig(π)e a1,π(1) . . . e an,π(n) = Det(AT ) = (4.4.1.8) π∈Sn π∈Sn (Setze π(i) = j ⇔ i = π −1 (j)) X sig(π) a1,π−1 (1) . . . a1,π−1 (n) Det(AT ) = | {z } π∈Sn (Setze π −1 = σ) ⇒ X σ∈Sn =sig(π −1 ) sig(σ)a1,σ(1) . . . an,σ(n) = (4.4.1.8) Det A 4.4. DETERMINANTEN 4.4.2.1 79 Folgerungen a) Hat A eine Nullzeile, so ist Det A = 0 (siehe Eigenschaft 1) b) Det(λA) = λn Det A (Anwendung von Eigenschaft 1) nacheinander für die Zeilen z1 , . . . , zn von A) c) (Elementare Umformungen vom Typ 1) Vertauscht man in A zwei Zeilen, so ändert sich das Vorzeichen von Det(A), genauer: denn bilde so ist Det B = 0 3) z1 z1 .. .. . . zk zl . .. = − ... , z z l k . . .. .. zn zn k<l, z1 .. . zk + zl . B= .. z + z k l . .. zn z1 z1 z1 .. .. .. . . . zk + zl zk zl 0 = ... = ... + ... = z + z 2) z + z z + z 2) k k k l l l . . . . . . . . . zn zn zn z1 z1 z1 .. .. .. . . . zk zk zl . .. + ... + ... + z z z k l k . . . . . .. .. zn zn zn |{z} =0 (s. 3) z1 .. . zl . .. z l . .. zn |{z} =0 (s. 3) 80 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME d) (Elementare Umformungen vom Typ 3) Bei Addition des Vielfachen einer Zeile von A zu einer anderen Zeile ändert sich Det A nicht, d.h. z1 z1 .. .. . . zk zk . .. = .. . z + λz z l l k . .. . . . zn zn denn z1 z1 z1 .. .. .. . . . zk zk zk . . .. = .. + .. = Det A + λ . z + λz 2) z λz l l k k . . . .. .. .. zn zn zn z1 .. . zk . .. z k . .. zn |{z} =0 (s. 3) e) Gleiche Rechenregeln für Determinante gelten auch bei Spalten (wegen Eigenschaft 4). f) Man kann Gaußschen Algorithmus anwenden, um eine Matrix einfacher Struktur zu erhalten, deren Determinante leicht zu berechnen ist. 4.4.2.1.1 so ist Determinante einer oberen Dreiecksmatrix: Sei D ∈ Rn×n der Gestalt d11 d12 . . . d1n 0 d22 . . . d2n D = .. .. . . . . . 0 . . . 0 dnn Det D = d11 d22 . . . dnn = n Y i=1 Beweis: In (4.4.1.8) leisten nur solche Summanden sig(π)d1,π(1) . . . dn,π(n) dii 4.4. DETERMINANTEN 81 einen Beitrag, für die di,π(i) 6= 0 für alle i = 1, . . . , n. Für π ∈ Sn , π 6= idNn gibt es i ∈ {1, . . . , n} =: Nn mit der Eigenschaft π(i) < i. ⇒ di,π(i) = 0 Det D X sig(π)d1,π(1) . . . dn,π(n) = sig(idNn ) d11 . . . dnn + 0 = | {z } (4.4.1.8) π∈Sn =1 4.4.2.1.2 0 2 −1 3 4.4.3 Beispiel: 2 2 0 −1 2 1 −5 4 −1 2 = 3 −5 1 0 2 0 3 2 0 0 2 0 −1 2 0 −1 2 0 −1 4 −3 −1 4 −3 = 11 0 0 1 −1 0 11 −11 0 0 14 −9 0 14 −9 2 0 −1 2 0 −1 4 −3 = 11 · 2 · (−1) · 1 · 5 = −110 = 11 1 −1 0 0 0 0 0 5 2 0 −1 2 −1 2 0 2 3 0 3 −5 = − 4 2 1 4 −1 2 0 3 2 0 2 0 2 0 −1 2 2 0 −1 4 −3 0 = = 0 0 2 3 −5 0 3 2 0 0 Multiplikationssatz Für A, B ∈ Rn×n , B = (bij ) gilt Det(AB) = Det A · Det B Beweis: 82 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME c1 b1 Pn .. .. Setze C := AB = . , ci = j=1 aij bj für i = 1, . . . , n mit B = . . cn bn Pn bj a b b j j=1 1j j c2 bk c n n n 2 XX X c3 a1j c3 = Det C = a1j a2k c3 = .. 2) 2) .. .. . j=1 k=1 j=1 . . cn cn cn = ··· bj bπ(1) 1 n n n X XX .. bj2 X a1,π(1) . . . an,π(n) . a1j1 a2j2 . . . anjn .. = = ... . jn =1 j1 =1 j2 =1 bπ(n) π∈Sn bjn weil jeder Summand verschwindet, in der zwei Zeilen gleich sind (nach Rechenregel 3). b1 Durch Vertauschen der Zeilen erhält man ... . Dabei ändert sich Vorzeichen der Determi bn nante genau so oft, wie es Fehlstände in π gibt. b1 X = Det A · Det B a1,π(1) . . . an,π(n) sig(π) ... Det D = (4.4.1.8) π∈Sn bn |{z} Det B 4.4.3.0.1 Determinante einer regulären (invertierbaren) Matrix: Sei A ∈ Rn×n . Dann sind folgende 3 Aussagen äquivalent: a) A ist invertierbar ⇔ b) Rang A = n ⇔ c) Det A 6= 0 Beweis: i) a) ⇔ fA : Rn → Rn ist Isomorphismus ⇔ dim Bild(fA ) = dim Rn = n ⇔ b) {z } | =Rang A ii) Aus a) folgt: Es gibt A−1 ∈ Rn×n mit A−1 A = En . Mit Multiplikationssatz ergibt sich Det(A−1 ) · Det A = Det(A−1 A) = Det En = 1 ⇒ Det A 6= 0, d.h. c) 4.4. DETERMINANTEN 83 iii) Sei Rang A < n, so sind die Zeilen z1 , . . . , zn von A linear abhängig. O.B.d.A. sei Pn−1 zn = i=1 λi zi . Dann ist z1 z 1 n−1 n−1 .. X X .. . . λi λi · 0 = 0 Det A = = = zn−1 3) zn−1 i=1 i=1 Pn−1 zi i=1 λi zi also c) ⇒ b). 4.4.3.0.2 Ergänzung: Aus ii) folgt: Det(A−1 ) = 4.4.4 1 Det A Adjungierte Matrix 4.4.4.0.1 Definition: Sei A = (aij ) ∈ Rn×n , so bezeichnet man mit Akl ∈ R(n−1)×(n−1) diejenige Matrix, welche durch Streichen der k-ten Zeile und l-ten Spalte aus A entsteht. Dann gilt der 4.4.4.1 Laplacesche Entwicklungssatz (Laplace 1749-1827) • Entwicklung nach k-ter Zeile Det A = n X (−1)k+j akj Det(Akj ) j=1 • Entwicklung nach l-ter Spalte Det A = n X i=1 Beweis: (s. Eisenreich, S.174 ff.) (−1)i+l ail Det(Ail ) 84 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME 4.4.4.1.1 Anwendung: Für n ≥ 4 kann man diese Formeln zur rekursiven Berechnung von Det A benutzen, insbesondere dann, wenn in einer Zeile oder Spalte von A viele Nullen auftreten. 4.4.4.1.2 Beispiel: 2 1 0 −2 2 1 −2 2 1 −2 4 −1 2 0 = 0 + (−1)3+2 · 2 2 1 −1 + 0 + (−1)4+3 · 3 4 −1 0 Det A = 2 1 0 −1 2 0 5 2 1 −1 2 0 3 5 2 −2 2 −1 + (−1)2+2 · 1 = −2 (−1)1+2 · 1 2 5 2 5 2 −2 1 −2 2+2 2+1 + (−1) · (−1) − 3 (−1) ·4 2 −1 1 −1 = −2 (−(2 · 5 − (−1) · 2) + (2 · 5 − (−2) · 2)) − 3 (−4 · ((−1) · 1 − 1 · (−2)) − (2 · (−1) − (−2) · 2)) = 14 4.4.4.2 Definition der adjungierten Matrix Die zu A adjungierte Matrix (auch Adjunktenmatrix ) ist Adj(A) = (b aij )i,j=1,...,n 4.4.4.2.1 Satz: mit b aij = (−1)i+j · Det(Aji ) . A · Adj(A) = Det(A) · En Beweis: A · Adj(A) = n X j=1 akj b ajl ! k,l=1,...,n n X j+l akj (−1) · Det(Alj ) = j=1 {z } | =:ckl z1 . . . ⇒ ckl = zk (l-te Zeile) , zk = (ak1 , . . . , akn ) . .. z n ( 0 für k = 6 l (da 2 Zeilen gleich) ckl = Det A für k = l (nach Entwicklungssatz) 4.4. DETERMINANTEN 85 also ckl = Det A · δkl A · Adj(A) = Det A · (δkl )k,l=1,...,n = Det A · En 4.4.4.2.2 Folgerung: Explizite Formel für inverse Matrix, falls A regulär ist: A−1 = 1 · Adj(A) . Det A 4.4.4.2.3 Anwendung: Im Spezialfall eines quadratischen linearen Gleichungssystems Ax = b mit regulärer Koeffizientenmatrix A ∈ Rn×n ist dessen Lösung gegeben durch 1 Adj(A) b Det A n X (−1)i+j Det(Aji )bj x = A−1 b = d.h. xi = = 1 Det A j=1 1 Det (s1 , . . . , si−1 , b, si+1 , . . . , sn ) Det A für i = 1, . . . , n , wenn s1 , s2 , . . . , sn ∈ Rn die Spalten von A sind. Diese Formel heißt Cramersche Regel (Cramer 1704-1752) und ergibt sich durch Entwicklung der Determinante der Matrix Bi := (s1 , . . . , si−1 , b, si+1 , . . . , sn ) nach der i-ten Spalte. 86 KAPITEL 4. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME Kapitel 5 Euklidische Vektorräume 5.1 Skalarprodukte Motivation: Beim Studium geometrischer Objekte, wo es um Winkel oder Längen geht, reichen die Daten aus der Theorie der Vektorräume nicht aus. Wir benötigen eine zusätzliche Struktur zur Beschreibung der „metrischen“ (oder Euklidischen) Geometrie. Diese Struktur ist das Skalarprodukt, welches eine symmetrische, positiv definite Bilinearform auf dem Vektorraum V darstellt. 5.1.1 Definition des Skalarprodukts Sei V ein Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V ×V →R (v, w) 7→ hv, wi wenn für alle v, v ′ , w, w ′ ∈ V und alle λ ∈ R gilt: • Bilinearität: hv + v ′ , wi = hv, wi + hv ′ , wi hv, w + w ′ i = hv, wi + hv, w ′i • Symmetrie • Positive Definitheit hλv, wi = λ hv, wi hv, λwi = λ hv, wi hv, wi = hw, vi hv, vi > 0 für alle v 6= 0 Ist auf V eine Skalarprodukt definiert, so heißt V Euklidischer Vektorraum. 87 88 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME 5.1.1.0.1 Bemerkungen: i) Bei einer festgehaltenen Komponente ist das Skalarprodukt eine lineare Abbildung bezüglich der anderen Komponente. ii) Wegen Symmetrie reicht die Forderung der Linearität bezüglich einer Komponente. iii) (wegen Homogenität) h0, wi = h0 · v, wi = 0 · hv, wi = 0 5.1.1.0.2 Beispiel: V = Rn : Standardskalarprodukt v1 .. v = . , vn v, w ∈ Rn , hv, wi = n X w1 w = ... wn w1 · · · vn ... wn vi wi = v T w = v1 i=1 Daneben gibt es noch unendlich viele Möglichkeiten ein Skalarprodukt auf dem Rn zu definieren, nämlich T T T (v, w) 7→ hAv, Awi = (Av) Aw = v A Aw = n X vi aij ajk wk i,j,k=1 mit einer festen regulären Matrix A = (aij )i,j=1,...,n . 5.1.2 Euklidische Norm 5.1.2.0.1 Definition: Ist V ein Euklidischer Vektorraum mit dem Skalarprodukt h·, ·i, so versteht man unter der Euklidischen Norm von v ∈ V die reelle nichtnegative Zahl ||v|| := 5.1.2.0.2 Spezialfall: p hv, vi V = Rn : Standardnorm v u n q uX 2 t vi = v12 + v22 + . . . + vn2 ||v|| = i=1 5.1. SKALARPRODUKTE 89 x2 v v= 1 v2 v2 ||v || v1 x1 (Verallgemeinerung der „Länge eines Vektors“) 5.1.3 Cauchy-Schwarzsche UngleichungI In jedem Euklidischen Vektorraum gilt | hv, wi | ≤ ||v|| · ||w|| (5.1.3.1) für alle v, w ∈ V . Beweis: a) Für w = 0 klar. b) Sei w 6= 0. Dann gilt für beliebiges λ ∈ R. Mit λ = hv,wi ||w||2 ||v||2 − 2 5.1.3.1 hv − λw, v − λwi ≥ 0 hv, vi − 2λ hv, wi + λ2 hw, wi folgt hv, wi2 hv, wi hv, wi + ||w||2 ≥ 0 ||w||2 ||w||4 ⇒ Folgerungen 1. Eigenschaften der Norm als Abbildung: V → R Positive Definitheit: a) ||v|| ≥ 0 für v ∈ V I (Cauchy 1789-1857, Schwarz 1843-1921) ||v||2 − hv, wi2 ≥0 ||w||2 ⇒ | hv, wi | ≤ ||v||2||w||2 90 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME b) ||v|| = 0 ⇔ v = 0 Homogenität: c) ||λv|| = |λ| · ||v|| für λ ∈ R, v ∈ V , denn ||λv||2 = hλv, λvi = λ2 hv, vi = λ2 ||v||2 Dreiecksungleichung: d) ||v + w|| ≤ ||v|| + ||w|| für v, w ∈ V , denn ||v + w||2 = hv + w, v + wi = hv, vi +2 hv, wi + hw, wi | {z } | {z } | {z } =||v||2 =||w||2 ≤||v||·||w|| ≤ ||v||2 + 2||v|| · ||w|| + ||w||2 = (||v|| + ||w||)2 Zum Namen „Dreiecksungleichung“: Seien A, B, C die Eckpunkte eines Dreiecks, dann A = 0 + a, B = 0 + b, C = 0 + c x2 C w A c a v+w v b B x1 0 |AB| = ||v||, |AC| = ||w||, v =a−b w = c−a |BC| = ||w + v|| = ||c − b|| Die Dreiecksungleichung besagt |BC| = ||v + w|| ≤ ||v|| + ||w|| = |AB| + |AC| 5.1. SKALARPRODUKTE 91 2. Für v 6= 0, w 6= 0 kann man den Winkel α = α(v, w) zwischen v und w erklären durch cos α = hv, wi ||v|| · ||w|| mit α ∈ [0, π] denn (5.1.3.1) liefert hv, wi ||v|| · ||w|| ≤ 1 ⇔ −1 ≤ hv, wi ≤1 ||v|| · ||w|| und cos-Funktion ist bijektive Abbildung [0, π] → [−1, 1] 1.5 cos(x) 1 0.5 0 -0.5 -1 -1.5 5.1.3.1.1 0 0.5 1 1.5 2 2.5 3 Geometrische Deutung des Standardskalarprodukts in R2 : hv, wi = ||v|| · ||w|| · cos α, v1 w1 + v2 w2 = w1 v1 ,w = v= w2 v2 q q v12 + v22 · w12 + w22 · cos α 92 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME x2 ||w || w v α ||v || s Aus Schulgeometrie: cos α = x1 s ||w|| hv, wi s = ⇒ hv, wi = s · ||v|| ||v|| · ||w|| ||w|| 5.1.4 Kriterium für lineare Unabhängigkeit in Euklidischem Vektorraum v1 , . . . , vr ∈ V sind linear unabhängig G := (hvi , vj i)i,j=1,...,r ∈ Rr×r ist regulär ⇔ (G heißt Gramsche Matrix, nach J.A. Gram (1850-1916)) Beweis: Wir zeigen: v1 , . . . , vr linear abhängig ⇔ G nicht regulär ⇔ Det G = 0 ⇔ Rang G < r a) (⇒) Sei λ1 v1 + . . . + λr vr = 0 eine nichttriviale Nullrelation, d.h. r X j=1 λj hvi , vj i = * vi , r X λj vj j=1 + Pr = 0 für i = 1, . . . , r Das ist nichttriviale Nullrelation der Spalten sj = (hv1 , vj i , hv2 , vj i , . . . , hvr , vj i)T von G, also s1 , . . . , sr linear abhängig ⇔ Rang G < r. 2 j=1 λj > 0. (5.1.4.2) 5.2. ORTHOGONALE VEKTOREN 93 Pr 2 b) P (⇐) Sei Rang G < r ⇔ Es gibt Relation (5.1.4.2) mit j=1 λj > 0. Setze w = r j=1 λj vj , so gilt + * r r X X hvi , wi = 0 für i = 1, . . . , r ⇒ 0 = λi hvi , wi = λi vi , w = ||w||2 ⇔ w = 0 i=1 |i=1{z } w Das ist lineare Abhängigkeit der Vektoren v1 , . . . , vr . 5.2 5.2.1 Orthogonale Vektoren Definitionen 1. Sei V ein Euklidischer Vektorraum mit dem Skalarprodukt h·, ·i. Dann heißen v, w ∈ V orthogonal oder senkrecht zueinander (in Zeichen v⊥w), falls hv, wi = 0 (also falls für v, w 6= 0 der Winkel α = α(v, w) = π2 ist). 2. v1 , . . . , vr ∈ V heißen orthonormal oder Orthonormalsystem, falls ||vi || = 1 und vi ⊥vj = 0 für i 6= j, i, j = 1, . . . , r (kurz: hvi , vj i = δij ). 3. Bildet ein Orthonormalsystem v1 , . . . , vn eine Basis von V , dann nennt man es Orthonormalbasis. 5.2.1.0.1 Beispiel: Bezüglich des Standardskalarprodukts bildet die kanonische Basis eT1 , eT2 , . . . , eTn eine Orthonormalbasis des Rn , denn 0 .. . T T T , . . . , 0) 1}j-te Stelle = δij ei , ej = ei ej = (0, . . . , |{z} 1 . i-te Stelle .. 0 Nach dem Kriterium für die lineare Unabhängigkeit in V ist jedes Orthonormalsystem linear unabhängig, weil die Gramsche Matrix G = (hvi , vj i)i,j=1,...,r = (δij ) = Er , also regulär ist. 5.2.1.0.2 Entwicklung nach Orthonormalbasis: Sei v1 , . . . , vn eine Orthonormalbasis von V , so gilt für jedes v ∈ V die Entwicklungsformel v= n X i=1 Beweis: hv, vi i vi , ||v||2 = n X i=1 hv, vi i2 94 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME P 1) Weil V = lin(v1 , . . . , vn ), gilt v = ni=1 ci vi mit ci ∈ R. * n + n X X hv, vj i = ci vi , vj = ci hvi , vj i = cj · 1 für j = 1, . . . , n | {z } i=1 i=1 =δij ⇒ cj = hv, vj i 2) 2 ||v|| = hv, vi = 1) = * n X i=1 n X i,j=1 5.2.2 hv, vi i vi , n X j=1 hv, vj i vj hv, vi i hv, vj i hvi , vj i = | {z } =δij + n X i=1 hv, vi i hv, vi i Orthogonale Unterräume Sei M ⊆ V, M 6= ∅ und M ⊥ := {v ∈ V | hv, ui = 0 für alle u ∈ M} 5.2.2.0.1 Beispiel: M = {(2, 1)} 2 = 0} M = {(x1 , x2 ) ∈ R | (x1 , x2 ) 1 ⊥ 2 = {(x1 , x2 ) ∈ R2 | 2x1 + x2 = 0} = {(x1 , −2x1 ) | x1 ∈ R} = lin ((1, −2)) x2 M⊥ M 1 0 1 2 x1 5.2. ORTHOGONALE VEKTOREN 5.2.2.1 95 Eigenschaften von M ⊥ a) M ⊥ ist stets ein Unterraum von V , denn nach Unterraum-Kriterium überprüfen wir 1. 0 ∈ M ⊥ , weil h0, vi = 0 für alle v ∈ V 2. Sei v, w ∈ M ⊥ , dann hv + w, ui = hv, ui + hw, ui = 0 für u ∈ M | {z } | {z } =0 somit v + w ∈ M ⊥ . =0 3. Sei v ∈ M ⊥ , λ ∈ R, denn hλv, ui = λ hv, ui = 0 ⇒ λv ∈ M ⊥ b) Sei U ein Unterraum eines endlich dimensionalen Euklidischen Vektorraums V , dann ist U ⊥ ein zu U komplementärer Unterraum, d.h. V = U ⊕ U⊥ (U ⊥ heißt orthogonales Komplement zu U.) Beweis: Wir müssen zeigen i) U ∩ U ⊥ = {0} ii) U + U ⊥ = V zu i) Sei a ∈ U ∩ U ⊥ , so ist a ∈ U ⊥ , also ha, ui = 0 für alle u ∈ U. Speziell mit u = a folgt 0 = ha, ai = ||a||2 ⇔ a = 0 zu ii) Sei dim U = m und U = lin(v1 , . . . , vm ) und dimV = n > m. Wir ergänzen v1 , . . . , vm zu einer Basis v1 , . . . , vm , vm+1 , . . . , vn von V . Somit gilt für jedes v ∈V: n X v= λi vi , λi ∈ R i=1 Wir zeigen dim U = n − m, denn dann folgt nach Dimensionsformel: ⊥ dim(U + U ⊥ ) = dim U + dim U ⊥ − dim(U ∩ U ⊥ ) = m + (n − m) − 0 = n = dim V ⇒ U + U⊥ = V Zum Nachweis von dim U ⊥ = n − m: w= n X j=1 xj vj ∈ U ⊥ ⇔ hvi , wi = 0 für i = 1, . . . , m (vi Basisvektoren von U) 96 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME w ∈ U⊥ n X ⇔ i=1 hvi , vj i xj = 0 hv1 , v1 i x1 .. . ⇔ + hv1 , v2 i x2 + . . . + hv1 , vn i xn = 0 hvm , v1 i x1 + hvm , v2 i x2 + . . . + hvm , vn i xn = 0 (lineares Gleichungssystem aus m Gleichungen in n Unbekannten x1 , . . . , xn ) ⇒ dim U ⊥ = dim L(A, 0) = n − Rang A mit der Koeffizientenmatrix A = (hvi , vj i)i = 1, . . . , m . j = 1, . . . , n hv1 , v1 i . . . hvm , v1 i .. .. . ist Gramsche Matrix G zu v1 , . . . , vm . . hvm , v1 i . . . hvm , vm i Wegen linearer Unabhängigkeit von v1 , . . . , vm ist G regulär, d.h. Rang G = m. ⇒ Rang A = m, 5.2.2.2 dim U ⊥ = n − m Folgerungen 1. Nach Übungsaufgabe lässt sich jedes v ∈ V = U ⊕ U ⊥ eindeutig darstellen: v = u+w mit u ∈ U , hw, u ei = 0 für alle u e∈U 2. Hat U eine Orthonormalbasis u1 , . . . , um so ist m X w mit hw, ui i = 0 für i = 1, . . . , m , v= hu, ui i ui + |{z} |i=1 {z =u∈U } ∈U ⊥ denn nach Entwicklungsformel gilt für u ∈ U m X hu, uii ui u= i=1 Weiterhin ist hv, ui i = hu + w, uii = hu, ui i + hw, uii = hu, ui i | {z } =0 3. Die zur Zerlegung V = U ⊕ U ⊥ gehörende Projektionsabbildung P = PU : V → U mit P (u + w) = u für u ∈ U, w ∈ U ⊥ heißt Orthogonalprojektion von V auf U (Kern(PU ) = U ⊥ ) mit PU (v) = m X i=1 hv, ui i ui . 5.2. ORTHOGONALE VEKTOREN 5.2.2.2.1 97 Beispiel: 1 0 −1 √ 1 V = R3 , U = lin (b1 , b2 ) mit b1 = 1 , b2 = und v = 2 3 0 1 0 1 x3 v x2 b2 U⊥ U w e b1 x1 U ⊥ = {w ∈ R3 | w T u = 0 für alle u ∈ U} w1 w1 · 1 + w2 · 1 = 0 = w2 w · (−1) + w2 · 1 + w3 · 1 = 0 w3 1 1 w1 −1 = w2 w2 = −w1 , w3 = 2w1 = lin 2 w3 | {z } w e 98 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME −1 Weil hb1 , b2 i = (1, 1, 0) 1 = 0 ist eine Orthonormalbasis von U gegeben durch 1 1 −1 b2 b1 1 1 1 , u2 := 1 . u1 := =√ =√ ||b1 || ||b2 || 2 0 3 1 0 −1 √ 2 ⇒ u = PU 2 3 0 = hv, u1i u1 + hv, u2 i u2 = 0 · u1 + 2 · u2 = √ 1 3 1 1 2 √ 1 3 2 − √2 −1 w = v − u = 3 = √ 3 √4 2 3 5.2.3 Konstruktion einer Orthonormalbasis Konstruktion einer Orthonormalbasis mittels des Orthonormalisierungsverfahrens nach Erhard Schmidt (1876-1959). Wir zeigen durch vollständige Induktion, dass aus jeder Menge Bm := {v1 , . . . , vm } linear unabhängiger Vektoren des Euklidischen Vektorraums V stets ein Orthonormalsystem Cm := {u1 , . . . , um } konstruiert werden kann. Dabei gilt: lin Bm = lin Cm • Induktionsanfang m = 1, B1 = {v1 }, v1 6= 0. Setze u1 := 1 v . ||v1 || 1 • Induktionsschritt ∈B z }|m { Seien v1 , . . . , vm , vm+1 ∈ V linear unabhängig. Nach Induktionsvorraussetzung (IV) erhält man aus Bm ein Orthonormalsystem Cm aus m Vektoren u1 , . . . , um mit lin Bm = lin Cm =: Um . Dann vm+1 ∈ / Um .II 1. Schritt: Zerlege vm+1 orthogonal bezüglich Um ⊥ vm+1 = PUm vm+1 + wm+1 mit wm+1 ∈ Um II Wäre vm+1 ∈ Um , so wäre vm+1 eine Linearkombination der Vektoren v1 , . . . , vm . 5.2. ORTHOGONALE VEKTOREN 99 d.h. wm+1 = vm+1 − m X i=1 hvm+1 , ui i ui ⇒ wm+1 6= 0 (wegen vm+1 ∈ / Um ) 2. Schritt: Normierung von wm+1 : Setze um+1 := 1 ||wm+1 || wm+1 . Dann ist lin Cm+1 = lin(u1 , . . . , um , wm+1 ) = lin(u1 , . . . , um, vm+1 ) = lin (u1 , . . . , um ) +lin(vm+1 ) = lin Bm + lin(vm+1 ) {z } | (IV) Cm = lin(v1 , . . . , vm , vm+1 ) = lin Bm+1 . Weiterhin hui , uj i = δij für i, j = 1, . . . , m (nach IV), ⊥ für j = 1, . . . , m , da um+1 ∈ Um und 1 hwm+1 , wm+1 i = 1. hum+1 , um+1 i = ||wm+1 ||2 hum+1 , uj i = 0 5.2.3.0.1 Folgerung: Sei dim V = n. Dann kann aus Basis Bn stets eine Orthonormalbasis Cn konstruiert werden, also: Jeder endlich-dimensionale Euklidische Vektorraum besitzt eine Orthonormalbasis. 5.2.3.0.2 Beispiel: Sei 1 0 0 1 . v1 = 0 , v2 = 1 , v3 = 1 0 −1 Dann bilden diese Vektoren eine Basis des R3 , denn wegen 1 0 0 Det (v1 , v2 , v3 ) = 0 1 1 = −1 6= 0 1 0 −1 sind sie linear unabhängig. Konstruktion einer Orthonormalbasis mittels Schmidtschen Orthonormalisierungsverfahrens: 100 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME a) Normierung von v1 : 1 1 1 0 v1 = √ u1 = ||v1 || 2 1 b) Orthonormierung von v2 : 0 1 0 1 0 = 1 1. Schritt: w2 = v2 − hv2 , u1 i u1 = 1 − 0 · √ 2 1 0 0 0 1 w2 = 1 2. Schritt: u2 = ||w2 || 0 c) Orthonormierung von v3 : 1. Schritt: w3 = v3 − hv3 , u1 i u1 − hv3 , u2 i u2 1 0 1 0 1 −1 1 0 −1· 1 = 0 = 1 −√ ·√ 2 2 2 1 0 −1 −1 1 1 1 0 w3 = √ 2. Schritt: u3 = ||w3|| 2 −1 5.3 Orthogonale Abbildungen und Matrizen 5.3.0.0.1 Motivation: Wir untersuchen lineare Abbildungen f : V → V (Endomorphismen), welche das Skalarprodukt auf V invariant (unverändert) lassen, d.h. die Größe des Winkels zwischen zwei beliebigen Vektoren v, w ∈ V bleibt bei f erhalten. Anschaulich müssten die Drehungen der Ebene um 0 dieses leisten. Zur Überprüfung setzen wir: cos ϕ − sin ϕ V = R2 mit Standardskalarprodukt und D(ϕ) := , ϕ ∈ [0, 2π] sin ϕ cos ϕ (D(ϕ) heißt Drehmatrix.) Die Abbildung fD : R2 → R2 definiert durch fD (x) = D(ϕ)x stellt eine Drehung von x = x1 x2 und Winkel ϕ dar, denn 5.3. ORTHOGONALE ABBILDUNGEN UND MATRIZEN 101 Polarkoordinaten von x q r = x21 + x22 = ||x|| x2 x1 r x2 sin ψ = r x2 tan ψ = x1 x x2 cos ψ = r ψ x1 x1 cos ϕ cos ψ − sin ϕ sin ψ cos ψ cos ϕ − sin ϕ =r r D(ϕ)x = sin ϕ cos ψ + cos ϕ sin ψ sin ψ sin ϕ cos ϕ cos(ψ + ϕ) ⇒ D(ϕ)x = r sin(ψ + ϕ) x2 D(ϕ)x x x2 ϕ ψ x1 x1 Nachrechnen: hfD (x), fD (y)i = (D(ϕ)x)T D(ϕ)y = xT D(ϕ)T D(ϕ)y y1 cos ϕ − sin ϕ cos ϕ sin ϕ = (x1 , x2 ) y2 sin ϕ cos ϕ − sin ϕ cos ϕ y1 1 0 = xT y = hx, yi = (x1 , x2 ) y2 0 1 5.3.0.0.2 Definition: Eine lineare Abbildung f : V → V in einem Euklidischen Vektorraum V heißt orthogonale Abbildung oder Isometrie, falls hf (v), f (w)i = hv, wi 5.3.1 für alle v, w ∈ V Eigenschaften orthogonaler Abbildungen 1) Jede Isometrie f ist ein Isomorphismus von V auf V (d.h. Automorphismus), falls V endlich dimensional ist. Beweis: 102 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME a) Zur Injektivität: Sei v ∈ Kern(f ), d.h. f (v) = 0 ||v||2 = hv, vi = hf (v), f (v)i = h0, 0i = 0 ⇔ v=0 Kern(f ) = {0} ⇒ b) Zur Surjektivität: Sei dim V = n, so folgt aus Dimensionsformel dim Kern(f ) +dim Bild(f ) = n | {z } ⇒ Bild(f ) = V =0 nach 1a) weil Bild(f ) ein Unterraum von V ist. Bemerkung: Für unendlichdimensionale Vektorräume gilt: Jede Isometrie ist injektiv. 2) Sei v1 , . . . , vn eine Orthonormalbasis von V . Dann ist f ∈ Hom(V, V ) eine Isometrie genau dann, wenn F := {f (v1 ), . . . , f (vn )} wieder eine Orthonormalbasis von V bildet. Beweis: a) (⇒) Sei f orthogonal, so hf (vi ), f (vj )i = hvi , vj i = δij für i, j = 1, . . . , n Somit ist F ein Orthonormalsystem, welches die Länge n = dim V hat. Folglich ist es eine Orthonormalbasis von V . b) (⇐) Sei F eine Orthonormalbasis von V , also hf (vi ), f (vj )i = δij . Für v, w ∈ V gilt die Darstellung v= ⇒ hf (v), f (w)i = f (v) = * n X i=1 n X w= n X λi f (vi ), λi f (vi ), i=1 f (w) = n X µj f (vj ) j=1 * n X i=1 µi vi i=1 i=1 = 5.3.2 λi vi , n X λi vi , n X j=1 µj vj + + = n X µi f (vi ) i=1 n X i,j=1 = hv, wi λi µj hf (vi ), f (vj )i | {z } =δij =hvi ,vj i Orthogonale Matrizen 5.3.2.0.1 Definition: Betrachtet man fA : Rn → Rn mit Darstellungsmatrix A ∈ Rn×n , so gilt fA (x) = Ax. Ist fA eine orthogonale Abbildung, so heißt A orthogonale Matrix. 5.3. ORTHOGONALE ABBILDUNGEN UND MATRIZEN 5.3.2.0.2 103 Charakterisierung orthogonaler Matrizen: i) A ∈ Rn×n ist orthogonal ⇔ ii) Spalten von A bilden Orthonormalsystem in Rn ⇔ iii) AAT = En ⇔ ⇔ v) AT A = En vi) Zeilen von A bilden Orthonormalsystem im Rn ⇔ iv) A ist regulär und A−1 = AT Beweis: iii) ⇔ iv) ⇔ v) (klar) i) ⇔ fA orthogonal m (nach Eigenschaft 2) fA eT1 = AeT1 = s1 , . . . , fA eTn = AeTn = sn , d.h., daß die Spalten von A = (s1 , s2 , . . . , sn ) eine Orthonormalbasis von Rn bilden ⇔ ii) v) lautet: sT1 AT A = ... s1 , . . . , sn = sTi sj i,j=1,...,n = (δij ) sTn ⇔ sTi sj = δij für i, j = 1, . . . , n ⇔ ii) ⇔ vi) v) lautet: E = AT A = AT (AT )T ⇔ AT ist orthogonal ⇔ Spalten von AT bilden Orthonormalsystem wegen iii) wegen ii) 5.3.2.0.3 Folgerung: Für orthogonales A ∈ Rn×n gilt (Det A)2 = Det(A) · Det(AT ) = Det(AAT ) = Det En = 1 iii) ⇒ Det A = 1 oder Det A = −1 O(n) := {A ∈ Rn×n | AT A = En } (orthogonale Gruppe des Rn×n ) SO(n) := {A ∈ O(n) | Det A = 1} (spezielle orthogonale Gruppe) 104 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME 5.3.2.1 Bestimmung aller Elemente von O(2) 5.3.2.1.1 Satz: Sei A ∈ O(2), dann hat A die Gestalt: cos ϕ sin ϕ cos ϕ sin ϕ mit 0 ≤ ϕ < 2π . oder A= A= sin ϕ − cos ϕ − sin ϕ cos ϕ (A ∈ SO(2), weil Det A = 1, A = D(−ϕ)) (A ∈ O(2)\SO(2), weil Det A = −1) Beweis: A= a b c d ∈ O(2) a2 + b2 = 1 , c2 + d2 = 1 (Länge der Zeilenvektoren = 1) ⇔ c a b = ac + bd = 0 (Senkrechtstehen der Zeilenvektoren) d Aus a2 + b2 = 1 folgt die Existenz eines Winkels ϕ ∈ [0, 2π) mit a = cos ϕ, b = sin ϕ. Analog: Aus c2 + d2 = 1 ergibt sich ψ ∈ [0, 2π) mit c = cos ψ, d = sin ψ. 0 = ac + bd = cos ϕ cos ψ + sin ϕ sin ψ = cos(ϕ − ψ) ⇔ π + kπ, k∈Z 2 π ψ = ϕ − + kπ 2 ϕ−ψ = ( sin ϕ , − sin ϕ , ( − cos ϕ d = sin ψ = − cos(ϕ + kπ) = cos ϕ c = cos ψ = sin(ϕ + kπ) = 5.3.2.1.2 falls k = 2l falls k = 2l + 1 , falls k = 2l , falls k = 2l + 1 l∈Z Bemerkung: 1 0 1 0 cos ϕ sin ϕ · D(−ϕ) = D(ϕ) = A= 0 −1 0 −1 sin ϕ − cos ϕ 1 0 ∈ O(2)\SO(2) und realisiert eine Spiegelung des R2 an der x1 -Achse, denn S0 = 0 −1 x1 x1 1 0 = fS0 (x) = S0 x = −x2 x2 0 −1 5.3. ORTHOGONALE ABBILDUNGEN UND MATRIZEN 105 x2 x2 x x1 −x2 fS0 (x) 5.3.2.1.3 Zusammenfassung. Jede orthogonale Abbildung des R2 ist eine Drehung 0 um 0 oder die Hintereinanderausführung einer Drehung und einer Spiegelung fS0 (dabei ist Reihenfolge der Operationen egal). 106 KAPITEL 5. EUKLIDISCHE VEKTORRÄUME Kapitel 6 Eigenwerttheorie 6.1 Eigenwerte und Eigenvektoren Wir betrachten wieder Endomorphismen f , d.h. lineare Abbildungen f : V → V . Dann ist f durch die Bilder der Vektoren einer Basis B := {v1 , . . . , vn } von V eindeutig bestimmt, genauer gesagt, durch die Darstellungsmatrix A = (aij )i,j=1,...,n . Diese ist definiert durch: f (vi ) = n X aij vj j=1 Dann ist für v ∈ V mit v = x1 v1 + . . . + xn vn f (v) = n X xi f (vi ) = i=1 6.1.0.0.1 n X xi aij vj i,j=1 Fragen: • Gibt es eine Basis B von V , so dass A „möglichst einfach“ aussieht, d.h. wenn A eine Diagonalmatrix λ1 . . . 0 Λ := ... . . . ... 0 . . . λn ist? Dann heißt f diagonalisierbar, und es gilt f (vi ) = λi vi • Ist nun jedes f ∈ Hom(V, V ) diagonalisierbar? • Wie findet man gegebenenfalls eine solche Basis B? 107 108 KAPITEL 6. EIGENWERTTHEORIE 6.1.0.0.2 Definition: Eine Zahl λ ∈ R (oder λ ∈ C) heißt Eigenwert von f , falls es einen Vektor v ∈ V gibt mit f (v) = λv und v = 6 0, v heißt Eigenvektor zum Eigenwert λ (zu einem Eigenwert gibt es mehrere Eigenvektoren). 6.1.0.0.3 α ∈ R. 6.1.1 Bemerkung: v 6= 0 ist wichtige Forderung, weil f (0) = 0 = α · 0 für alle Folgerungen 1) f ∈ Hom(V, V ) ist genau dann diagonalisierbar, wenn V eine Basis aus Eigenvektoren zu f besitzt. 2) v ∈ V ist Eigenvektor zu f (f − λ · IdV )(v) = 0 und v 6= 0 v ∈ Kern(f − λ · IdV ) und v 6= 0 ⇔ ⇔ Kern(f − λ · IdV ) =: Eig(f, λ) heißt Eigenraum von f zum Eigenwert λ und ist ein Unterraum von V , dim Eig(f, λ) heißt geometrische Vielfachheit des Eigenwert λ. 6.1.2 Beispiele a) f = IdV hat Eigenwert 1 und jeder Vektor v ∈ V \ {0} ist Eigenvektor (f (v) = IdV (v) = v = 1 · v). b) In V = R2 betrachten wir Spiegelung fS an einer Geraden G = lin(v1 ), v1 6= 0. x2 x G v2 v1 fS (x) x1 fS (v2 ) Die Abbildung fS ist diagonalisierbar, denn fS (v1 ) = v1 = 1 · v1 fS (v2 ) = −v2 = (−1) · v2 für v2 ⊥ v1 . 6.1. EIGENWERTE UND EIGENVEKTOREN 109 fS hat Eigenwert 1 und −1 mit Eigenvektoren v1 bzw. v2 . v1 , v2 bilden Basis von R2 . Eig(fS , 1) = lin(v1 ) = G , Eig(fS , −1) = lin(v2 ) Geometrische Vielfachheit von Eigenwert 1 und −1 ist jeweils 1. c) Die Drehung fD(ϕ) des R2 um 0 (0 < ϕ < π) besitzt dagegen keine (reellen) Eigenvektoren und ist somit nicht diagonalisierbar (in R). x2 fD(ϕ) (v) ϕ v x1 d) Sei V = U ⊕W , W komplementärer Unterraum zu V (z.B.: W = U ⊥ ), U 6= {0}, U ⊂ V . P := PU : V → U mit P (u + w) = u für u ∈ U, w ∈ W P hat Eigenwert 1, weil P (u) = u = 1 · u P hat Eigenwert 0, weil P (w) = 0 = 0 · w 6.1.3 mit geometrischer Vielfachheit dim U mit geometrischer Vielfachheit dim W Diagonalisierbare Matrizen Betrachten wir wieder Abbildung fA : Rn → Rn mit fA (x) = Ax, A ∈ Rn×n . fA ist diagonalisierbar, falls es v1 , . . . , vn ∈ Rn gibt mit der Eigenschaft: fA (vi ) = A · vi = λi vi für i = 1, . . . , n und v1 , . . . , vn linear unabhängig, also λ1 . . . 0 A · (v1 , v2 , . . . , vn ) = (λ1 v1 , . . . , λn vn ) = v1 , . . . , vn ... . . . ... 0 . . . λn ⇔ AT = T Λ mit T = unabhängig sind. λ1 ⇔ T −1 AT = Λ = ... 0 (v1 , . . . , vn ) ∈ Rn×n . Dabei ist T regulär, weil v1 , . . . , vn linear ... 0 . .. . .. . . . λn 110 KAPITEL 6. EIGENWERTTHEORIE 6.1.3.0.1 Definition: Wir nennen A ∈ Rn×n diagonalisierbar, wenn fA diagonalisierbar ist, d.h. wenn eine reguläre Matrix T existiert mit T −1 AT = Λ. Dabei übertragen sich die entsprechenden Begriffe von fA unmittelbar auf A, also λi sind Eigenwerte von A, T = (v1 , . . . , vn ), vi sind die Eigenvektoren von A (Avi = λi vi ) usw. 6.1.3.0.2 Folgerung: Für diagonalisierbare Matrizen A gilt: n Y λi Det A = λ1 · λ2 · . . . · λn = i=1 denn 1 −1 −1 Det | {z Λ} = Det(T AT ) = Det(T ) · Det A · Det T = Det T · Det A · Det T . =λ1 ·...·λn 6.1.3.1 Beispiele 1. A= ist diagonalisierbar, denn 0 1 1 0 0 1 x2 x1 Ax = . = x1 x2 1 0 1 Also ist 11 ein Eigenvektor zum Eigenwert 1. Weiterhin ist −1 ein Eigenvektor zum Eigenwert −1. 1 1 1 0 −1 ⇒ T = , T AT = 1 −1 0 −1 1 Eig(A, ±1) = Eig(fA , ±1) = lin ±1 Geometrische Vielfachheit von Eigenwert ±1 ist dim Eig(A, ±1) = 1. 2. A= ist nicht diagonalisierbar, denn 0 1 0 0 0 1 x1 x2 Ax = = 0 0 x2 0 0 1 1 = . Da A d.h., jeder Eigenvektor ist Vielfaches von 0 0 0 Eigenwert zu A. 1 ⇒ Eig(A, 0) = Eig(fA , 0) = lin 0 Geometrische Vielfachheit von 0 ist 1. gilt, ist 0 einziger 6.1. EIGENWERTE UND EIGENVEKTOREN 6.1.4 111 Eigenschaften von Eigenvektoren 6.1.4.0.1 Satz: Eigenvektoren zu verschiedenen Eigenwert einer Abbildung f ∈ Hom(V, V ) sind linear unabhängig. Beweis: Sind v1 , . . . , vm Eigenvektoren zu Eigenwerten λ1 , . . . , λn mit λi 6= λj für i 6= j. Anwendung der vollständigen Induktion nach m: • Induktionsanfang m = 1: Eigenvektor v1 muss gemäß Definition 6= 0 sein, also linear unabhängig. • Induktionsschluss Sei Behauptung für m − 1 bewiesen. Dann betrachten wir Nullrelation µ1 v1 + µ2 v2 + . . . + µm−1 vm−1 + µm vm = 0 ⇒ f (µ1 v1 + . . . + µm vm ) = f (0) = 0 Wegen f (vi ) = λi vi für i = 1, . . . , m folgt Aus (6.1.4.1): ⇒ (6.1.4.1) µ1 f (v1 ) + . . . + µm f (vm ) = 0 µ1 λ1 v1 + . . . + µm−1 λm−1 vm−1 + µm λm vm = 0 λm µ1 v1 + . . . + λm µm−1 vm−1 + λm µm vm = 0 Subtraktion beider Gleichungen liefert µ1 (λ1 − λm )v1 + . . . + µm−1 (λm−1 − λm )vm−1 = 0 . Nach Induktionsvoraussetzung sind v1 , . . . , vm−1 linear unabhängig. Somit µi (λi − λm ) = 0 für i = 1, . . . , m − 1. Wegen λi − λm 6= 0, muss µi = 0 sein. Aus (6.1.4.1) folgt: µm vm = 0 und wegen vm 6= 0 ist auch µm = 0. Somit ist (6.1.4.1) nur trivial und v1 , . . . , vm linear unabhängig. 6.1.4.1 Folgerungen 1) Hat f ∈ Hom(V, V ) mit dim V = n (bzw. A ∈ Rn×n ) n verschiedene Eigenwerte, so ist f (bzw. A) diagonalisierbar, denn die zugehörigen Eigenvektoren v1 , . . . , vn sind n linear unabhängige Vektoren von V bzw. Rn und damit eine Basis. 2) f (bzw. A) hat höchstens n verschiedene Eigenwerte. 3) Allgemeines Kriterium zur Diagonalisierbarkeit: f (bzw. A) ist genau dann diagonalisierbar, wenn die Summe der geometrischen Vielfachheiten der Eigenwerte von f (bzw. A) gleich n = dim V ist. Beweis: 112 KAPITEL 6. EIGENWERTTHEORIE a) (⇒) Wenn f diagonalisierbar, so existiert eine Basis B := {v1 , . . . , vn } aus Eigenvektoren von V . Sei mi die Anzahl der Eigenvektoren aus B zum Eigenwert λi . Dann ist mi ≤ dim Eig(f, λi ) =: ni (= geometrische Vielfachheit von λi ). (6.1.4.2) Wegen Eig(f, λi ) ∩ Eig(f, λj ) = {0} für λi 6= λj ist nach Dimensionsformel für Unterräume n1 + n2 + . . . + nr = dim (Eig(f, λ1 ) + Eig(f, λ2 ) + . . . + Eig(f, λr )) ≤ dim V = n ⇒ m1 + . . . + mr ≤ n1 + . . . + nr ≤ n | {z } (6.1.4.2) =n b) (⇐) Sei Pr i=1 ⇒ n1 + . . . + nr = n, (mi = ni ) ni = n. Dann wählen wir in jedem Eig(f, λi ) eine Basis (i) Bi := {v1 , . . . , vn(i)i } für i = 1, . . . , r Bilde C := B1 ∪ B2 ∪ . . . ∪ Br . Zum Nachweis, dass C eine Basis von V bildet, müssen wir nur die lineare Unabhängigkeit von C prüfen. C ist dann Basis aus Eigenvektoren und somit f diagnonalisierbar. Sei n1 n2 nr X X X (1) (1) (r) (r) (2) (2) λj vj + λj vj = 0 λj vj + . . . + j=1 | {z =:w (1) } j=1 | {z =:w (2) } j=1 | {z =:w (r) } Dann ist w (i) ∈ Eig(f, λi ) und w (1) + w (2) + . . . + w (r) = 0. Nach Hilfssatz muss jedes w (i) = 0 sein. Wegen der linearen Unabhängigkeit der Basen Bi muss auch (i) λj = 0 für i = 1, . . . , r, j = 1, . . . , ni . Also ist die Nullrelation nur trivial möglich und C eine Basis von V . 6.1.4.2 Verfahren zur Diagonalisierbarkeit von A ∈ Rn×n 1. Schritt: Bestimmung der Eigenwerte λ von A. 2. Schritt: Bestimmung der geometrischen Vielfachheiten aller Eigenwerte λ, d.h. der Dimensionen der zugehörigen Eigenräume = Dimensionen der Lösungsmengen der linearen Gleichungssysteme (A − λEn )x = 0 . 3. Schritt: Anwendung des Kriteriums aus 3). (6.1.4.3) 6.2. DAS CHARAKTERISTISCHE POLYNOM 113 6.1.4.2.1 Bemerkung: Eine Basis von Rn aus Eigenvektoren zu A ergibt sich durch Aneinanderreihung der Basen der Eigenräume. 6.2 Das charakteristische Polynom 6.2.0.0.1 Satz: λ ∈ C ist Eigenwert zu A ∈ Rn×n ⇔ Det(A − λEn ) = 0 Beweis: λ ist Eigenwert 6.2.0.0.2 ⇔ Av = λv mit v 6= 0 ⇔ ⇔ ⇔ ⇔ ⇔ (A − λEn )v = 0 (6.1.4.3) hat nichttriviale Lösung Rang(A − λEn ) < n A − λEn nicht regulär Det(A − λEn ) = 0 Definition: a11 − λ a12 a21 a22 − λ P (λ) = PA (λ) := Det(A − λEn ) = .. . an1 ... heißt charakteristisches Polynom zur Matrix A. 6.2.0.0.3 6.2.0.1 . . . ann − λ ... ... .. . a1n a2n .. . Folgerung: Die Eigenwerte von A sind die Nullstellen von PA (λ). Beispiele 1) PEn (λ) = Det ((1 − λ)En ) = (1 − λ)n · Det En = (1 − λ)n 2) A= 3 4 , 2 1 3 − λ 4 PA (λ) = = (3 − λ)(1 − λ) − 2 · 4 = λ2 − 4λ − 5 2 1 − λ PA (λ) = 0 ⇔ ⇔ ⇒ A ist diagonalisierbar. λ2 − 4λ − 5 = 0 √ λ = λ1/2 = 2 ± 4 + 5, Berechnung der Eigenvektoren von A: λ1 = 5, λ2 = −1 114 KAPITEL 6. EIGENWERTTHEORIE • zu Eigenwert λ1 = 5 (3 − 5)x1 +4x2 = 0 ⇔ 2x1 +(1 − 5)x2 = 0 2 Eig(A, 5) = lin 1 x1 = 2x2 • zu Eigenwert λ2 = −1 (3 − (−1))x1 +4x2 = 0 ⇔ 2x1 +(1 − (−1))x2 = 0 1 Eig(A, −1) = lin −1 6.2.1 x1 = −x2 Grundlegendes über Polynome Seien komplexe Zahlen c0 , c1 , . . . , cn gegeben und P (z) := c0 + c1 z + . . . + cn z n , z∈C. Dann vermittelt das komplexe Polynom P mit den Koeffizienten cj eine Abbildung P :C→C Ist cn 6= 0, so heisst P ein Polynom vom Grad n. 1. Koeffizientenvergleich Zwei Polynome sind genau dann gleich, wenn sie in ihren Koeffizienten übereinstimmen. Denn 1, z, z 2 , . . . , z n bilden eine Basis im komplexen Vektorraums Pn aller Polynome höchstens n-ten Grades. 2. Division durch Linearfaktor Ist z0 ∈ C eine Nullstelle von P vom Grad n ≥ 1, so P (z) = (z − z0 )Q(z) mit eindeutigem Polynom Q vom Grad n − 1. Beweis: Das Polynom Pe(z) = P (z + z0 ) hat Nullstelle in z = 0. Pe(z) = e cn z n + . . . + e c1 z + e c0 = z(e cn z n−1 + . . . + e c1 ) mit e cn 6= 0 |{z} =0 Ersetze Variable z durch z − z0 P (z) = Pe(z − z0 ) = (z − z0 ) (e cn (z − z0 )n−1 + . . . + e c1 ) {z } | =Q(z) 6.2. DAS CHARAKTERISTISCHE POLYNOM 115 3. Fundamentalsatz der Algebra Jedes Polynom vom Grad n ≥ 1 hat mindestens eine Nullstelle in C. 4. Zerlegung in Linearfaktoren P (z) = cn r Y (z − λk )mk k=1 Dabei sind λk ∈ C die paarweise verschiedenen Nullstellen von P und mk ∈ N ihre Vielfachheiten mit m1 + . . . + mr = n . Diese Zerlegung entsteht durch wiederholte Anwendung des Fundamentalsatzes und der Division durch zugehörigen Linearfaktor zu einer Nullstelle. 6.2.1.0.1 Folgerung: Jedes Polynom vom Grad n ≥ 1 hat n komplexe Nullstellen, jeweils mit ihrer Vielfachheit gezählt. 6.2.1.0.2 Beispiel: Berechnung der Nullstellen von P (z) = z 3 + z 2 − 2 1) Eine Nullstelle ist λ1 = 1. 2) P (z) : (z − 1) = (z 3 + z 2 − 2) : (z − 1) (z 3 −(z 3 +z 2 −2) : (z − 1) = z 2 + 2z + 2 = Q(z) −z 2 ) 2z 2 −2 −(2z 2 −2z) 2z −2 −(2z −2) 0 3) Weitere Nullstellen von P sind die Nullstellen von Q Q(z) = 0 ⇔ ⇔ z 2 + 2z + 2 = 0 z = λ2/3 = −1 ± √ 1 − 2 = −1 ± i Zerlegung von P in Linearfaktoren: P (z) = 1 · z 3 + z 2 − 2 = 1 · (z − 1)(z − (−1 + i))(z − (−1 − i)) . 116 KAPITEL 6. EIGENWERTTHEORIE 6.2.2 Anwendung auf charakteristisches Polynom 6.2.2.0.1 Darstellung des charakteristischen Polynoms: PA (λ) = Det(A − λEn ) = (−1) n 4. r Y (λ − λk )mr , k=1 wobei λ1 , . . . , λr die verschiedenen Eigenwerte der Matrix A sind mit den algebraischen Vielfachheiten mk . 6.2.2.0.2 Zusammenhang zwischen algebraischen und geometrischen Vielfachheiten: Es gilt nk ≤ mk (nk = dim Eig(A, λk ) = geometrische Vielfachheit von λk ) Beweis: a) Sei λk ein Eigenwert zu A ∈ Rn×n und Bk := {v1 , . . . , vnk } ⊂ Rn eine Basis von Eig(a, λk ). Ergänze diese zu Basis v1 , . . . , vn von Rn und setze T := (v1 , . . . , vn ) ∈ Rn×n . Dabei ist Rang T = n und es existiert T −1 . ⇒ En |{z} = T −1 T = T −1 (v 1 , . . . , vn ) = (T −1 v1 , T −1 v2 , . . . , T −1 vn ) T =(eT 1 ,...,en ) ⇒ T −1 vi = eTi für i = 1, . . . , n b) PA (λ) = Det(A − λEn ) = Det(T −1 )Det(A − λE)Det T = Det(T −1 (A − λE)T ) = Det(T −1 AT − λE) Es ist AT = A(v1 , . . . , vn ) = Av1 , . . . , |{z} =λk v1 ⇒ ⇒ =eT 2 λk T −1 vnk , cnk +1 , . . . , cn ) | {z } = eT nk , wegen a) λk − λ 0 0 0 λ − λ 0 k 0 0 λk − λ PA (λ) = 0 0 0 . . .. .. .. . 0 0 0 Grad von R ist n − nk . , . . . , Avn = λk vnk , weil Bk ⊂ Eig(A, λk ) T −1 AT = (λk T −1 v1 , λk T −1 v2 , . . . , | {z } | {z } =eT 1 Avnk | {z } ∗ ∗ = (λk − λ)nk R(λ) 6.2. DAS CHARAKTERISTISCHE POLYNOM 6.2.2.0.3 117 Folgerung: A ist diagonalisierbar ⇔ nk = mk für jeden Eigenwert λk zu A (n1 + n2 + . . . + nr ≤ m1 + m2 + . . . + mr = n) 6.2.3 Bemerkung zu komplexen Eigenwerten einer Matrix A ∈ Rn×n Ist λ0 ∈ C eine Nullstelle von PA (λ), d.h. ein Eigenwert zu A mit Eigenvektor v ∈ Cn , so ist auch λ0 ein Eigenwert zu A mit Eigenvektor v, denn: PA (λ) = a0 + a1 λ + . . . + an λn hat reelle Koeffizienten aj Wegen PA (λ0 ) = a0 + a1 λ0 + . . . + an λn0 = 0 ist a0 + a1 λ0 + . . . + an λn0 = 0 ⇒ PA (λ0 ) = a0 + a1 λ0 + . . . + an (λ0 )n = 0 Weiterhin bedeutet v ∈ Cn : z1 .. v=. mit zn ⇒ ⇒ λ0 ist Eigenwert zu A zj ∈ C , d.h. zj = xj + iyj mit xj , yj ∈ R z1 .. v = . , z j = xj − iyj . zn für j = 1, . . . , n . Wegen Av = λ0 v folgt Av = λ0 v. Av = Av = λ0 v 6.2.4 (A = A, da A ∈ Rn×n ) Eigenwerte orthogonaler Matrizen A ∈ Rn×n (AT A = En bzw. A ∈ O(n)) 1) Für alle Eigenwerte λ ∈ C von A ∈ O(n) gilt |λ| = 1. Beweis: 118 KAPITEL 6. EIGENWERTTHEORIE Sei Av = λv mit v ∈ Cn , v 6= 0. ⇒ Av = λv ⇒ (Av)T Av = (λv)T λv ⇒ vT AT Av = λλv T v ⇒ v T En v = |λ|2v T v Wegen v T v = z 1 z1 + z 2 z2 + . . . + z n zn = (x21 + y12) + (x22 + y22 ) + . . . + (x2n + yn2 ) > 0 (weil v 6= 0 als Eigenvektor zu A), ist 1 = |λ|2 . 2) Jedes A ∈ SO(3), d.h. A ∈ R3×3 , AT A = E3 , Det A = +1, hat den Eigenwert λ = +1. Beweis: Wegen Bemerkung zu komplexen Eigenwerten kann A höchstens 2 Eigenwerte aus C \ R haben, d.h. mindestens ein Eigenwert λ1 ist reell. Nach 1) ist |λ1 | = 1. Sei λ1 = −1 und λ2 , λ3 die beiden anderen Eigenwerte. Es galt: Det λ1 λ2 λ3 | {z A} = |{z} =+1 =−1 ⇒ λ2 λ3 = −1 Wäre λ2 ∈ C \ {−1, +1}, so λ3 = λ2 und λ2 λ3 = λ2 λ2 = |λ2 |2 = 1. ⇒ Widerspruch und somit (λ2 = −1 und λ3 = +1) oder (λ2 = +1 und λ3 = −1) 3) Für jedes A ∈ SO(3) existiert eine orthogonale Matrix T , so dass 1 0 0 cos ϕ − sin ϕ T mit einer Drehmatrix D(ϕ) = T AT = 0 , ϕ ∈ [0, 2π). D(ϕ) sin ϕ cos ϕ 0 Beweis: Nach 2) gibt es Eigenvektor v1 zu Eigenwert λ = +1, d.h. Av1 = (+1)v1 mit v1 ∈ R3 , v1 6= 0. O.B.d.A. sei ||v1 || = 1. Ergänze v1 zu einer Orthonormalbasis v1 , v2 , v3 des R3 , es gilt also hvi , vj i = viT vj = δij für i, j = 1, 2, 3 Setze T = (v1 , v2 , v3 ), so ist T ∈ O(3), also T T T = E3 . T v1 1 α β T T AT = T T (A(v1 , v2 , v3 )) = v2T ( Av1 , Av2 , Av3 ) = 0 |{z} B T v3 0 =v1 6.2. DAS CHARAKTERISTISCHE POLYNOM 119 Wegen Gruppeneigenschaft der Menge O(3) und T, A ∈ O(3), folgt T T AT ∈ O(3). 1 α β ist orthogonale Matrix ⇒ 0 B 0 Aus ⇒ α = 0, β = 0 (wegen Orthonormalität der Spalten) ⇒ B ∈ O(2) 1 0 0 −1 0 = 1 · DetB Det A = Det(T AT ) = |{z} B 0 =T T folgt Det B = 1, also B ∈ SO(2), d.h. B = D(ϕ). 6.2.4.0.1 Interpretation: Zu jeder orthogonalen Abbildung fA : R3 → R3 mit Det A = +1 gibt es eine „ausgezeichnete Richtung“ (Drehachse), gegeben durch v1 ∈ R3 einer Orthonormalbasis v1 , v2 , v3 . fA repräsentiert eine Drehung des R3 um diese Drehachse um Winkel ϕ. x3 fA v1 x2 v3 v2 x1 Analog gilt für A ∈ O(3) \ SO(3) (d.h. AT A = E3 , Det A = −1): • A hat Eigenwert λ = −1 • −1 0 0 −1 0 0 1 0 0 = 0 1 0 0 T AT T = 0 D(ϕ) D(ϕ) 0 0 0 1 0 • fA stellt dann die Hintereinanderausführung einer Drehung von Drehachse v1 um ϕ und einer Spiegelung an E = lin(v2 , v3 ) = {v1 }⊥ . 120 KAPITEL 6. EIGENWERTTHEORIE x3 fA v1 x2 E v3 v2 x1 6.2.4.0.2 Allgemein: Zu jedem A ∈ O(n) existiert T ∈ O(n), so dass 1 ··· ··· ··· ··· ··· ··· ··· 0 .. . . .. . . . . .. . . 1 . . .. .. −1 . .. .. T T AT = ... . . .. .. −1 . . . .. .. D(ϕ1 ) . . . . .. .. .. 0 ··· ··· ··· ··· ··· ··· · · · D(ϕr ) mit ϕi ∈ [0, 2π) Beweis: (siehe Beutelspacher, S. 268 ff.) 6.3 Hauptachsentransformation symmetrischer Matrizen Der Name „Hauptachsentransformation“ stammt aus der Theorie der Kegelschnitte, z.B. sucht man eine orthogonale Tranformation f : R → R, welche die Koordinatenachsen (x1 −, x2 −Achse) in die „Hauptachsen“(ξ1 −, ξ2 −Achse) einer Ellipse transformiert. 6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN 121 ξ2 ξ1 Geeignetes Mittel zur Beschreibung solcher Kegelschnitte sind die symmetrischen Matrizen, d.h. A ∈ Rn×n mit A = AT 6.3.1 ⇔ für aij = aji i, j = 1, . . . , n Eigenschaften symmetrischer Matrizen A ∈ Rn×n 1. Für fA : Rn → Rn mit fA (x) = Ax, x ∈ Rn gilt: hfA (v), wi = (Av)T w = v T AT w = v T (Aw) = hv, fA (w)i Allgemein heißt f ∈ Hom(V, V ) mit Euklidischem Vektorraum V und hf (v), wi = hv, f (w)i für alle v, w ∈ V ein selbstadjungierter Endomorphismus. 2. Alle Eigenwerte von A sind reell, und die Eigenvektoren von A können aus Rn gewählt werden. Beweis: a) Charakteristisches Polynom PA (λ) = Det(A − λEn ) hat nach Fundamentalsatz der Algebra eine Nullstelle λ0 ∈ C mit zugehörigen Eigenvektoren v ∈ Cn . Dann gilt v 6= 0, Av = λ0 v und außerdem Av = λ0 v. ⇒ (|{z} Av )T v = v T AT v = v T (Av) = λ0 v T v =λ0 v ⇒ T T λ0 v v = λ0 v v (λ0 = a0 + ib0 , λ0 = a0 − ib0 , a0 , b0 ∈ R) Wegen v 6= 0 ist vT v > 0 und somit λ0 = λ0 , also λ0 ∈ R. b) Eigenvektoren v sind Lösungen des linearen Gleichungssystem (A − λEn )v = 0, welches in Rn lösbar ist. 122 KAPITEL 6. EIGENWERTTHEORIE 3. Eigenvektoren zu verschiedenen Eigenwerten von A sind orthogonal zueinander. Beweis: Sei vj ∈ Rn Eigenvektor zu Eigenwert λj von A für j = 1, 2, d.h. Avj = λj vj . (λ v )T v = (Av1 )T v2 = v1T AT v2 = v1T (Av2 ) = v1T λ2 v2 = λ2 v1T v2 | 1{z1 } 2 =λ1 v1T ⇒ (λ1 − λ2 )v1T v2 = 0 Ist λ1 6= λ2 , so v1T v2 = 0. 6.3.1.0.1 Folgerung: Hat die symmetrische Matrix A alles verschiedene Eigenwerte, so bilden die zugehörigen Eigenvektoren, normiert auf 1, eine Orthonormalbasis des Rn . 6.3.1.0.2 Hauptachsensatz: Zu jeder symmetrischen nale Matrix T mit λ1 0 . . . . . . .. .. . . 0 . . .. T T AT = D = . λ1 . . .. . .. .. .. . . 0 ... ... 0 Matrix A gibt es eine orthogo 0 .. . .. . 0 λr In der Diagonalmatrix D stehen die Eigenwerte λ1 , . . . , λr ∈ R von A jeweils mit der entsprechenden algebraischen Vielfachheit (=geometrische Vielfachheit). Die Spalten bilden eine Orthonormalbasis des Rn aus Eigenvektoren zu A. Beweis: (durch vollständige Induktion nach der Zeilenzahl n von A) • Induktionsanfang n = 1. Damit ist A bereits in Diagonalgestalt. • Induktionsvorraussetzung Sei Behauptung richtig für Zeilenzahl n − 1. • Induktionsschluss a) Sei A ∈ Rn×n . Nach Fundamentalsatz und 2. existiert mindestens ein λ1 ∈ R, v1 ∈ Rn mit v1 6= 0, Av1 = λ1 v1 . O.B.d.A. sei ||v1 || = 1. b) Setze U1 = lin{v1 }. Dann ist dim U1 = 1 und dim U1⊥ = n−1. Wähle zu Unterraum U1⊥ eine Orthonormalbasis v2 , . . . , vn . Dann gilt hvi , vj i = viT vj = δij für i, j = 1, 2, . . . , n, (v1 ⊥vj , j = 2, . . . , n) 6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN 123 Setze S = (v1 , v2 , . . . , vn ) ∈ Rn×n . Dann ist S ∈ O(n). v1T v1T v T v T 2 2 S T AS = .. A(v1 , . . . , vn ) = .. ( Av1 , Av2 , . . . , Avn ) . |{z} . =λ1 v1 T vnT vn λ1 · 1 c 0 = .. mit c ∈ Rn−1 , A′ ∈ R(n−1)×(n−1) ′ . A 0 Dabei ist S T AS symmetrisch, weil (S T (AS))T = (AS)T S = S T AT S = S T AS Folglich c = 0, A′ = (A′ )T . c) Auf A′ kann die Induktionsvorraussetzung angewendet werden, d.h. es gibt Setze S := ′ T ′ ∈ O(n − 1) : (T ′ )T A′ T = D ′ 1 0 , dann ist S ′ ∈ O(n). Berechne: 0 T′ 1 0 λ1 0 1 0 (S ) (S A S)S = 0 T′ 0 A′ | {z } |{z} b) 0 (T ′ )T T =:T T λ1 0 λ1 0 λ1 0 1 0 =: D = = = 0 D′ 0 (T ′ )T AT ′ 0 A′ T ′ 0 (T ′ )T ′ T T ′ Mit T := SS ′ ; S, S ′ ∈ O(n) und der Gruppeneigenschaft von O(n) ist T ∈ O(n). 6.3.1.1 Schema zur praktischen Durchführung der Hauptachsentransformation symmetrischer Matrizen A Gegeben sei A ∈ Rn×n , A = AT . 1. Schritt: Bilde PA (λ) = Det(A − λEn ) und bestimme dessen verschiedene Nullstellen λ1 , . . . , λr , d.h. die verschiedenen Eigenwerte von A (etwa eine Nullstelle „erraten“ und dann Abdividieren des zugehörigen Linearfaktors). (k) (k) 2. Schritt: Für jedes k = 1, . . . , r bestimme eine Basis Bk := {w1 , . . . , wnk } von Eig(A, λk ), indem das lineare Gleichungssystem (A − λk En )x = 0 (z.B. mittels Gaußschen Algorithmus) gelöst wird. 124 KAPITEL 6. EIGENWERTTHEORIE (k) (k) 3. Schritt: Orthonormiere Bk zu einer Orthonormalbasis v1 , . . . , vnk von Eig(A, λk ) mittels des Schmidtschen Verfahrens. 4. Schritt: Durch Aneinanderreihung dieser Orthonormalbasen entsteht die Orthonormalbasis: (1) (2) (r) {v1 , . . . , vn } = {v1 , . . . , vn(1) , v1 , . . . , vn(2) , . . . , v1 , . . . , vn(r)r } 1 2 des Rn aus Eigenvektoren zu A. λ1 0 . .. T T AT = ... .. . . .. 0 Setze T := (v1 , v2 , . . . , vn ). Dann ist 0 ... ... ... ... 0 .. .. .. . . . .. .. .. . . λ1 . .. .. .. .. . . . . . . .. . λr . . .. .. .. . . 0 . . . . . . . . . . . . 0 λr (Möglichkeit zur Rechenkontrolle!) 6.3.1.2 Beispiel zur Hauptachsentransformation 1 1 1 A = 1 1 1 1 1 1 1. Schritt: Bestimmung der Eigenwerte von A 1 − λ 1 1 1−λ 1 = −λ3 + 3λ2 = λ2 (3 − λ) Det(A − λE3 ) = 1 1 1 1 − λ PA (λ) = 0 ⇔ λ = λ1/2/3 , ⇒ λ1 = 3, λ2/3 = 0 Vielfachheit von 3 ist 1, und Vielfachheit von 0 ist 2. 2. Schritt: Bestimmung der Eigenvektoren i) zum Eigenwert λ1 = 3: Eigenvektor-Gleichung: (1 − 3)x1 +x2 +x3 = 0 x1 +(1 − 3)x2 +x3 = 0 x1 +x2 +(1 − 3)x3 = 0 1 1 Ein Eigenvektor zu 3 ist 1 . Eig(A, 3) = lin 1. 1 1 6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN 125 ii) zum Eigenwert λ2/3 = 0: Eigenvektor-Gleichung: x1 +x2 +x3 = 0 (⇔ Ax = 0) 1 1 0 . Zwei linear unabhängige Eigenvektoren sind −1 und 0 −1 1 1 Eig(A, 0) = lin −1 , 0 . 0 −1 3. Schritt: Orthonormierung der Eigenvektoren zu i) zu ii) 1 1 v1 = √ 1 3 1 1 1 v2 = √ −1 , U2 = lin(v2 ) 2 0 1 1 1 1 1 −2 T 0 − PU 2 0 0 − v2 0 ve3 = = · v2 = − 12 1 −1 −1 −1 −1 −1 1 1 √ −1 · ve3 = v3 = ||e v3 || 6 2 4. Schritt: Orthonormalbasis des R3 aus Eigenvektoren zu A: v1 , v2 , v3 √ √ 2 3 −1 3 0 0 √ √ 1 T = (v1 , v2 v3 ) = √ √2 − 3 −1 ⇒ T T AT = 0 0 0 6 0 0 0 2 0 2 6.3.2 Anwendung der Hauptachsentransformation bei Kurven zweiter Ordnung 6.3.2.0.1 Definition: Die Menge aller Punkte x = dratischen Gleichung der Form x1 x2 , der Koordinaten einer qua- a11 x21 + 2a12 x1 x2 + a22 x22 + 2b1 x1 + 2b2 x2 + c = 0 genügen, heißt Kurve 2. Ordnung mit gegebenen aij , bi , c ∈ R, i, j = 1, 2. (6.3.2.4) ⇔ xT Ax + 2bx + c = 0, A = (aij ) = AT , b = (b1 , b2 ) (6.3.2.4) 126 KAPITEL 6. EIGENWERTTHEORIE 6.3.2.1 Klassifikation: 1. Schritt: Beseitigung von gemischten Produkten durch Hauptachsentransformation von A: λ1 0 T , T = (v1 , v2 ), Avi = λi vi , (v1 , v2 heißen Hauptachsen) T AT = 0 λ2 Mit Koordinatentransformation (6.3.2.4) y = TTx ⇔ bT y + c = 0 y T (T T AT ) y + 2 |{z} | {z } ⇔ =e b = λ1 0 0 λ2 (6.3.2.4) ist x = Ty λ1 y12 + λ2 y22 + 2(eb1 y1 + eb2 y2 ) + c = 0 ⇔ 2. Schritt: Beseitigung der linearen Glieder durch Verschiebung des Koordinatenursprungs Falls λi 6= 0: λi yi2 Für λ1 , λ2 6= 0: (6.3.2.4) + 2ebi yi = λi ⇔ λ1 ξ12 + ebi yi + λi λ2 ξ22 + !2 − eb2 i λi eb2 eb2 c− 1 − 2 λ1 λ2 ! =0 ebi . Nach Division der letzten Gleichung und geeigneter Umbennung λi der Variablen erhält man sogenannte Normalformen. mit ξi = yi + 6.3.2.2 Normalformen von Kurven 2. Ordnung I. Eigenwerte λ1 , λ2 6= 0: 1. Gleiche Vorzeichen von λ1 , λ2 : x2 y 2 + 2 =1 a2 b 2 y2 x b) 2 + 2 = −1 a b x2 y 2 c) 2 + 2 = 0 a b a) (Ellipse) (leere Menge) (Punkt) 2. Entgegengesetzte Vorzeichen von λ1 , λ2 : x2 y 2 − 2 =1 a2 b x2 y 2 b) 2 − 2 = 0 a b a) (Hyperbel) (Geradenpaar) x a ± y =0 b 6.3. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN 127 II. Ein Eigenwert λ1 = 0: 1. Linearglieder lassen sich nicht alle beseitigen: y 2 = 2px (Parabel) 2. Linearglieder lassen sich alle beseitigen: y2 =1 b2 y2 b) 2 = −1 b y2 c) 2 = 0 b a) (paralleles Geradenpaar) (y = ±b) (leere Menge) (Doppelgerade) (y = 0) 6.3.2.2.1 Beispiel einer Kurve 2. Ordnung: √ x21 − 2 2x1 x2 + 2x2 − 1 = 0 √ 2 1 − √ , b = (0, 1), c = −1. Die Eigenwerte von A sind λ1 = Dann ist A = − 2 0 −1, λ2 = 2, d.h. es liegt Fall I.2 vor, und in den neuen Koordinaten √ √ √ 1 1 1 ξ1 = √ x1 + 2x2 − 2 , ξ2 = √ − 2x1 + x2 + 2 3 3 wird diese Kurve beschrieben durch die Gleichung −ξ12 + 2ξ22 − 1 =0 2 und stellt eine Hyperbel dar. 4 2 -2 2 4 -2 -4 —– --- x1 −, x2 −Achse (ursprüngliche Koordinatenachsen) ξ1 −, ξ2 −Achse (Hauptachsen der Hyperbel)