Definitions- und Satzverzeichnis 5 Lineare Abbildungen 5.1 Lineare Abbildung . . . . . . . . 5.2 Rang, Bild, Kern . . . . . . . . . 5.3 Affine Linearität . . . . . . . . . 5.4 Abbildungsmatrix bzgl. Basen . . 5.5 Transformationsmatrix . . . . . 5.6 Eigenschaften einer Matrixnorm . 5.7 Frobenius-Norm . . . . . . . . . . Höhere Mathematik 1 WS 2009/10 Inhaltsverzeichnis I Definitionen 3 1 Grundlagen 1.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Natürliche Zahlen und Vollständige Induktion . . . 1.3 Rationale und Reelle Zahlen . . . . . . . . . . . . . 1.3.1 Wurzeln . . . . . . . . . . . . . . . . . . . . 1.3.2 Beträge . . . . . . . . . . . . . . . . . . . . 1.3.3 Ungleichungen und Intervalle . . . . . . . . 1.3.4 Maximum, Minimum, Supremum, Infimum 1.4 Kombinatorik . . . . . . . . . . . . . . . . . . . . . 1.5 Trigonometrie . . . . . . . . . . . . . . . . . . . . . 1.6 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . 1.6.1 Polardarstellung . . . . . . . . . . . . . . . 1.7 Funktionen . . . . . . . . . . . . . . . . . . . . . . 1.8 Axiomatik für N und R . . . . . . . . . . . . . . . . 1.8.1 Peano-Axiome . . . . . . . . . . . . . . . . 1.8.2 Zahlendarstellung, Basis . . . . . . . . . . . 1.8.3 Axiomatik für R . . . . . . . . . . . . . . . 1.9 Primzahlen . . . . . . . . . . . . . . . . . . . . . . 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 4 4 4 2 Matrizen und lineare Gleichungssysteme 2.1 Matrix . . . . . . . . . . . . . . . . . . . . . 2.2 Matrix-Addition und Skalar-Multiplikation 2.3 Matrix-Multiplikation . . . . . . . . . . . . 2.4 Einheitsmatrix . . . . . . . . . . . . . . . . 2.5 Äquivalente LGS . . . . . . . . . . . . . . . 2.6 Homogene LGS . . . . . . . . . . . . . . . . 2.7 Gauß’sches Eliminationsverfahren . . . . . . 2.8 Rang . . . . . . . . . . . . . . . . . . . . . . 2.9 Transponierte Matrix . . . . . . . . . . . . . 2.10 Symmetrische, schiefsymmetrische Matrix . 2.11 Gauß-Jordan-Verfahren . . . . . . . . . . . 2.12 Determinanten . . . . . . . . . . . . . . . . 2.13 Dreiecksmatrix, Stufenform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 4 4 4 4 4 4 4 4 4 4 4 4 3 Vektorräume 3.1 Gruppe . . . . . . . . . . . . . . . . . . . . 3.2 Körper . . . . . . . . . . . . . . . . . . . . . 3.3 Vektorraum . . . . . . . . . . . . . . . . . . 3.4 Unterraum . . . . . . . . . . . . . . . . . . 3.5 Kern . . . . . . . . . . . . . . . . . . . . . . 3.6 Linearkombination, lineare Hülle . . . . . . 3.7 Erzeugendensystem . . . . . . . . . . . . . . 3.8 Lineare Abhängigkeit . . . . . . . . . . . . . 3.9 Basis . . . . . . . . . . . . . . . . . . . . . . 3.10 Dimension . . . . . . . . . . . . . . . . . . . 3.11 Zeilen- und Spaltenraum . . . . . . . . . . . 3.12 Restklassen-Körper . . . . . . . . . . . . . . 3.13 Codes und Codewörter . . . . . . . . . . . . 3.14 Fehler erkennende und korrigierende Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 5 5 5 5 5 5 5 5 5 5 5 5 5 4 Länge, Winkel, Skalarprodukte 4.1 Norm . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 lp -Normen, Maximumsnorm . . . . . . . . . . . . . 4.3 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . 4.4 Positive Definitheit . . . . . . . . . . . . . . . . . . 4.5 Winkel . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Orthogonalität . . . . . . . . . . . . . . . . . . . . 4.7 Orthogonalbasis . . . . . . . . . . . . . . . . . . . . 4.8 Orthogonale Zerlegung und orthogonale Projektion 4.9 Gram-Schmidt Orthogonalisierung . . . . . . . . . 4.10 Orthogonale Matrix . . . . . . . . . . . . . . . . . 4.11 Kreuzprodukt/Vektorprodukt . . . . . . . . . . . . 5 5 5 6 6 6 6 6 6 6 6 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 6 6 6 6 6 6 6 Eigenwerte und Matrixfaktorisierung 6.1 Eigenwert, Eigenvektor . . . . . . . . . 6.2 Algebraische Vielfachheit . . . . . . . 6.3 Eigenraum, geometrische Vielfachheit 6.4 Diagonalisierbarkeit (Funktion) . . . . 6.5 Diagonalisierbarkeit (Matrix) . . . . . 6.6 Ähnliche Matrizen . . . . . . . . . . . 6.7 Schur-Zerlegung (Algorithmus) . . . . 6.8 Singulärwertzerlegung (Algorithmus) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 6 7 7 7 7 7 7 7 Folgen und Reihen 7.1 Beschränkte Folge . . . . . . . 7.2 Konvergenz . . . . . . . . . . . 7.3 Spezielle Grenzwerte, Divergenz 7.4 ε-Umgebung, Konvergenz . . . 7.5 Monotonie . . . . . . . . . . . . 7.6 Teilfolge . . . . . . . . . . . . . 7.7 Reihe, Folge der Partialsummen 7.8 Absolute Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 7 7 7 7 7 7 II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sätze und Propositionen 1 Grundlagen 1.1 Rechenregeln: Mengen . . . . . . . . . . 1.2 Gerade und ungerade Zahlen . . . . . . 1.3 Vielfache von 3 . . . . . . . . . . . . . . 1.5 Periodische Dezimalbrüche . . . . . . . . √ 2∈ /Q . . . . . . . . . . . . . . . . . . 1.6 1.7 Betrag, Wurzel, Dreiecksungleichung . . 1.8 Ungleichungen . . . . . . . . . . . . . . 1.9 Zahlendarstellung, Größte Zahl, Basis . 1.10 Summe, geometrische Summe . . . . . . 1.11 Kombinatorik . . . . . . . . . . . . . . . 1.12 Pascal’sches Dreieck . . . . . . . . . . . 1.13 Binomischer Lehrsatz . . . . . . . . . . 1.15 Sinus und Cosinus . . . . . . . . . . . . 1.16 Additionstheoreme . . . . . . . . . . . . 1.17 Additionstheoreme (Sonderfälle) . . . . 1.18 Tangens, Kotangens . . . . . . . . . . . 1.19 Sinusgleichungen . . . . . . . . . . . . . 1.20 Fundamentalsatz der Algebra . . . . . . 1.22 Komplexe Zahlen: Division . . . . . . . 1.23 Polardarstellung: Multiplikation . . . . . 1.24 Injektiv, surjektiv, bijektiv . . . . . . . . 1.25 Eindeutigkeit der Darstellung einer Zahl 1.26 R ist nicht abzählbar . . . . . . . . . . . 1.27 Fundamentalsatz der Arithmetik . . . . 1.28 Es gibt unendlich viele Primzahlen . . . 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 9 9 9 9 9 2 Matrizen und lineare Gleichungssysteme 2.1 Addition, Skalar-Multiplikation . . . . . . 2.2 Einheitsmatrix In , neutrales Element . . . 2.3 Matrixmultiplikation . . . . . . . . . . . . 2.4 Anzahl der Lösungen eines LGS . . . . . . 2.5 Äquivalent Umformungen . . . . . . . . . 2.6 Homogenität, triviale Lösung . . . . . . . 2.7 Rang . . . . . . . . . . . . . . . . . . . . . 2.8 Lösungen von homogenen LGS . . . . . . 2.9 Lösungen von inhomogenen LGS . . . . . 2.10 Rechenregeln: Transponierte Matrizen . . 2.11 Inverse einer Matrix . . . . . . . . . . . . 2.12 Invertierbarkeit einer Matrix . . . . . . . 2.13 Rechenregeln: Invertierbare Matrizen . . . 2.14 Berechnen einer Determinanten . . . . . . 2.15 Determinante der Einheitsmatrix . . . . . 2.16 Sarrus-Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 10 2.17 2.19 2.20 2.21 2.22 2.24 Rechenregeln: Determinanten . . . . . . . . . Determinante einer oberen Dreiecksmatrix . . Umformen einer Determinante . . . . . . . . Kriterien für eindeutige Lösbarkeit eines LGS Rechenregeln: Determinanten . . . . . . . . . Cramer’sche Regel . . . . . . . . . . . . . . . . . . . . . 10 10 10 10 10 10 3 Vektorräume 3.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Beispiele für Gruppen . . . . . . . . . . . . . . . . 3.4 Körper . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Beispiele für Körper . . . . . . . . . . . . . . . . . 3.6 Rechenregeln: Vektorraum . . . . . . . . . . . . . . 3.8 Rechenregeln: Untervektorraum . . . . . . . . . . . 3.11 Lineare Abhängigkeit . . . . . . . . . . . . . . . . . 3.12 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . 3.13 Lineare Abhängigkeit, Nullvektor, Teilfamilie . . . 3.14 Lineare Abhängigkeit . . . . . . . . . . . . . . . . . 3.15 Linearkombination . . . . . . . . . . . . . . . . . . 3.16 Lineare Abhängigkeit . . . . . . . . . . . . . . . . . 3.17 K-VR mit zwei Basen ⇒ gleiche Anzahl Vektoren . 3.18 Basisergänzungssatz . . . . . . . . . . . . . . . . . 3.20 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . 3.22 Dimension von Zeilen- und Spaltenräumen . . . . . 3.23 Rechenregeln: Zeilen- und Spaltenräume . . . . . . 3.24 Äquivalenz bei elementaren Operationen . . . . . . 3.25 Rangungleichung . . . . . . . . . . . . . . . . . . . 3.26 Dimensionsformel . . . . . . . . . . . . . . . . . . . 3.27 Invertierbarkeit, Dimension, Lin. Unabhängigkeit . 3.28 Restklassen-Körper, Modulo-Multiplikation . . . . 3.29 Existenz n-elementiger Körper Fn . . . . . . . . . . 10 10 10 10 10 10 10 10 10 10 11 11 11 11 11 11 11 11 11 11 11 11 11 11 4 Länge, Winkel, Skalarprodukte 4.4 Definition eines Skalarproduktes auf Rn 4.6 Positive Definitheit . . . . . . . . . . . . 4.7 Induzierte Norm des Skalarproduktes . . 4.8 Cauchy-Schwarz-Ungleichung . . . . . 4.10 Standard ONB, Lineare Unabhängigkeit 4.11 Orthogonale Zerlegungen . . . . . . . . 4.12 Orthogonaler Raum . . . . . . . . . . . 4.13 Orthogonale Projektion . . . . . . . . . 4.14 Abstand, Orthogonale Projektion . . . . 4.15 Rechenregeln: Orthogonale Matrizen . . 4.16 Rechenregeln: Kreuzprodukt . . . . . . . . . . . . . . . . . . 11 11 11 11 11 11 11 12 12 12 12 12 5 Lineare Abbildungen 5.2 Bild(f ) ⊂ Y , Kern(f ) ⊂ X . . . . . . . . . . . . . . 5.5 f injektiv ⇔ Kern(f ) = {0} . . . . . . . . . . . . . 5.6 Dimensionsformel Bild, Kern . . . . . . . . . . . . 5.7 f : X → X ⇔ f bijektiv . . . . . . . . . . . . . . . 5.8 Lösungsmenge Ax = b, Kern, Rang, Inv.barkeit . . 5.10 Eigenschaften einer Basis . . . . . . . . . . . . . . 5.11 Anwendung der Abbildungsmatrix . . . . . . . . . 5.12 Invertierbarkeit der Transformationsmatrix . . . . 5.13 Basiswechsel mit Transformationsmatrix (Matrix) 5.14 Basiswechsel mit Transformationsmatrix (λ) . . . 5.15 Abbildungsmatrix bezüglich neuer Basen . . . . . 5.18 Induzierte Matrixnorm . . . . . . . . . . . . . . . . 5.19 Induzierte Maximums- und 1-Norm . . . . . . . . . 12 12 12 12 12 12 12 12 12 12 12 12 12 13 6 Eigenwerte und Matrixfaktorisierung 6.1 Eigenwerte, Charakteristisches Polynom . . . . . . 6.3 Determinante, Invertierbarkeit . . . . . . . . . . . 6.5 Algebraische und geometrische Vielfachheiten . . . 6.7 Lineare Unabhängigkeit von Eigenvektoren . . . . 6.8 Diagonale Abbildungsmatrix Af ⇒ f (vi ) = λi vi . 6.9 Abbildungs-, Diagonal- und Transformationsmatrix 6.10 Diagonaliserbarkeit, Eigenwerte, Eigenvektoren . . 6.13 Diagonalisierbarkeit, Eigenwerte . . . . . . . . . . 6.14 Symmetrie ⇒ ONB aus Eigenvektoren . . . . . . . 6.15 Ähnlichkeit, Diagonalisierbarkeit, Eigenwerte/vektoren . . . . . . . . . . . . . . . . . . . . . . . . 6.16 Symmetrie, positive Definitheit, Eigenwerte . . . . 6.17 Obere Schranke für Eigenwerte . . . . . . . . . . . 6.18 Euklidische Norm (Symmetrische Matrix) . . . . . 6.19 Euklidische Norm (Asymmetrische Matrix) . . . . 13 13 13 13 13 13 13 13 13 13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 13 13 13 13 6.20 Schur-Zerlegung . . . . . . . . . . . . . . . . . . . . 6.24 Singulärwertzerlegung . . . . . . . . . . . . . . . . 6.25 Eigenschaften der Singulärwertzerlegung . . . . . . 13 13 13 7 Folgen und Reihen 7.2 Eindeutigkeit des Grenzwertes . . . . . . . . . . . . 7.3 Beschränkte Folge, Grenzwert . . . . . . . . . . . . 7.4 Beschränktheit, Konvergenz . . . . . . . . . . . . . 7.5 Grenzwert: Rechenregeln . . . . . . . . . . . . . . . 7.6 Grenzwert: Ungleichungen . . . . . . . . . . . . . . 7.8 Sandwich-Theorem . . . . . . . . . . . . . . . . . . 7.9 Beschränktheit, Monotonie, Konvergenz . . . . . . 7.10 Fixpunktgleichung, Rekursion . . . . . . . . . . . . 7.11 Bernoulli-Ungleichung . . . . . . . . . . . . . . . 7.13 Euler’sche Folge, Exponentialfunktion . . . . . . . 7.14 Konvergenz-Kriterium für Folgen (Cauchy) . . . . 7.15 Konvergenz von Teilfolgen . . . . . . . . . . . . . . 7.16 Divergenz, Teilfolgen . . . . . . . . . . . . . . . . . 7.17 Beschränktheit, konvergente Teilfolge (BolzanoWeierstraß) . . . . . . . . . . . . . . . . . . . . 7.18 Geometrische Reihe . . . . . . . . . . . . . . . . . 7.19 Harmonische Reihe . . . . . . . . . . . . . . . . . . 7.20 Rechenregeln: Reihen . . . . . . . . . . . . . . . . . 7.21 Konvergenz-Kriterium für Reihen (Cauchy) . . . . 7.22 Reihen-Konvergenz, Nullfolge . . . . . . . . . . . . 7.23 Absolute Konvergenz, Konvergenz . . . . . . . . . 7.24 Alternierende Reihe (−1)k ak (Leibniz-Kriterium) 7.25 Beschränktheit, Absolute Konvergenz . . . . . . . 7.26 Majoranten-Kriterium . . . . . . . . . . . . . . . . 7.27 Zeta-Reihe 1/kr . . . . . . . . . . . . . . . . . . . 7.29 Quotientenkriterium . . . . . . . . . . . . . . . . . 7.30 Quotientenkriterium für k → ∞ . . . . . . . . . . . 7.31 Wurzelkriterium . . . . . . . . . . . . . . . . . . . 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 15 15 15 15 15 3 man von einem Minimum von M: min(M ) = inf(M ). Jede nach unten beschränkte Menge hat ein Infimum ∈ R. Wenn M ⊂ R nicht nach oben bzw. unten beschränkt, dann schreibe sup(M ) = +∞ bzw. inf(M ) = −∞. Teil I Definitionen 1 Grundlagen 1.4 1.1 Mengen Eine Menge ist eine Zusammenfassung bestimmter, wohlunterschiedener Objekte, die wir Elemente dieser Menge nennen. Wenn x Element von M ist, dann schreibe x ∈ M , sonst x ∈ / M. Kardinalität |M | := Anzahl der Elemente von M . ∃ := ,,es existiert” ∀ := ,,für alle” [n] := {1, 2, ...n} ∅ := ,,leere Menge” k S Mi := M1 ∪ M2 ∪ ... ∪ Mk i=1 k T i=1 k P i=1 k Q Mi := M1 ∩ M2 ∩ ... ∩ Mk ai := a1 + a2 + ... + ak N N0 Z 1.3 Q R 1.3.1 1.5 cos(α) und sin(α) sind die Koordinaten des Punktes Pα auf dem Einheitskreis mit Winkel α, also Pα = (cos(α), sin(α)). sin(x) tan(x) := cos(x) ∀ x 6= πk + π2 mit k ∈ Z ai := a1 · a2 · ... · ak Natürliche Zahlen und Vollständige Induktion := := := Rationale und Reelle Zahlen := := 1.6 Komplexe Zahlen ,,natürliche Zahlen” := {1, 2, 3, ...} C := {(a, b) | a, b ∈ R} heißt die Menge der komplexen Zahlen. ,,natürliche Zahlen mit Null” := {0, 1, 2, 3, ...} ,,ganze Zahlen” := N0 ∪ {−n | n ∈ N} = {0, 1, −1, 2, −2, ...}Die Menge {(a, b) ∈ C | b = 0} ⊂ C entspricht R. {m n ,,rationale Zahlen” = | m ∈ Z, n ∈ N} ,,reelle Zahlen” = ,,alle möglichen Dezimalzahlen”, insb. auch nicht-endliche und nicht-periodische Zahlen. Wurzeln Beträge (a, b) + (c, d) := (a + c, b + d) (a, b) · (c, d) := (ac − bd, ad + bc) (a, b) = (c, d) ⇔ a = c ∧ b = d i := (0, 1) ,,imaginäre Einheit” (a, b) = a + i · b Re(a + ib) := a ,,Realteil von a + ib” Im(a + ib) := b ,,Imaginärteil von a + ib” a + ib := a√ − ib ,,Konjugierte Zahl zu a + ib” |a + ib| := a2 + b2 ,,Betrag von a + ib” ( a −a wenn a ≥ 0 wenn a < 0 Ungleichungen und Intervalle Seien a, b ∈ R mit [a, b] := (a, b) := (a, b] := [a, b) := [a, +∞) := (a, +∞) := (−∞, b] := (−∞, b) := Polardarstellung p x2 ( + y2 + arccos( xr ) für y ≥ 0 ϕ := arg(x + iy) := − arccos( xr ) für y ≤ 0 x = r cos(ϕ), y = r sin(ϕ) r := |x + iy| = Wenn a ∈ R, dann ist der Betrag von a |a| := 1.3.4 ∀ x 6= πk mit k ∈ Z √ sin( π5 ) = 41 10 − 2 5 , arcsin(x) = y ⇔ x = sin(y) arccos(x) = y ⇔ x = cos(y) 1.6.1 1.3.3 1 tan(x) p √ Sei n ∈ N und a ∈ R mit a ≥ 0. n a ist die eindeutige, nicht negative reelle Lösung √ der Gleichung xn = a. Wenn n ungerade und a < 0, dann ist − n −a Lösung der Gleichung xn = a. 1.3.2 Trigonometrie Einheitskreis := Kreis um Ursprung mit Radius 1 Bogenlänge := Länge der Kreislinie π ≈ 22 ≈ 3, 14 := Bogenlänge des halben Einheitskreises 7 cot(x) := i=1 1.2 Kombinatorik Q n! := n k=1 k = 1 · 2 · ... · n ,,n Fakultät” 0! := 1 n n! ,,Binomial-Koeffizient” := k!(n−k)! k a < b. {x ∈ R | a ≤ x {x ∈ R | a < x {x ∈ R | a < x {x ∈ R | a ≤ x {x ∈ R | a ≤ x {x ∈ R | a < x {x ∈ R | {x ∈ R | Q zx ∧ ∧ ∧ ∧ x ≤ b} ,,abgeschlossen” x < b} ,,offen” x ≤ b} ,,halboffen” x < b} } } x ≤ b} x < b} Maximum, Minimum, Supremum, Infimum M ⊂ R heißt nach oben beschränkt ⇔ ∃b ∈ R mit x ≤ b ∀ x ∈ M . b heißt dann obere Schranke von M . M ⊂ R heißt nach unten beschränkt ⇔ ∃a ∈ R mit a ≤ x ∀ x ∈ M . a heißt dann untere Schranke von M . M ⊂ R heißt beschränkt, wenn M nach oben und nach unten beschränkt ist. Q P P zi = ( |zi |) (cos( ϕi ) + i sin( ϕi )) x = |z| (cos(xϕ) + i sin(xϕ)) 1.7 Seien X, Y Mengen. Eine Funktion f von X nach Y ist eine Teilmenge f ⊂ {(x, y) | x ∈ X, y ∈ Y } mit der Eigenschaft |{y ∈ Y | (x, y) ∈ f }| = 1 ∀ x ∈ X. Das zu x ∈ X durch f eindeutig zugeordnete y ∈ Y heißt Bild von x und wird mit f (x) bezeichnet. Schreibe: f : X → Y, x 7→ f (x). Die Menge f −1 (y) := {x ∈ X | f (x) = y} heißt Urbild von y. f heißt injektiv wenn |f −1 (y)| ≤ 1 ∀ y ∈ Y surjektiv wenn |f −1 (y)| ≥ 1 ∀ y ∈ Y bijektiv wenn |f −1 (y)| = 1 ∀ y ∈ Y Wenn ∃f : N → M , f surjektiv, dann heißt die Menge M abzählbar. 1.8 M sei nach oben beschränkt. Die kleinste obere Schranke von M heißt Supremum von M , sup(M ). Wenn sup(M ) ∈ M , dann spricht man von einem Maximum von M: max(M ) = sup(M ). Jede nach oben beschränkte Menge hat ein Supremum ∈ R. M sei nach unten beschränkt. Die größte untere Schranke von M heißt Infimum von M , inf(M ). Wenn inf(M ) ∈ M , dann spricht Funktionen 1.8.1 Axiomatik für N und R Peano-Axiome 1. 1 ∈ N 2. ∃ genau ein Nachfolger(n) ∀ n ∈ N 3. Jede Zahl ∈ N ist Nachfolger von höchstens einer Zahl ∈ N 4 2.7 Gauß’sches Eliminationsverfahren 1. Aufstellen von (A|b) 5. Für jede Teilmenge M ⊂ N gilt: Wenn 1 ∈ M und Nachfolger(n) ∈ M ∀ n ∈ M , dann ist M =N 2. Vorwärtselimination mit 1.8.2 Zahlendarstellung, Basis Axiomatik für R R = {( a, a1 a2 a3 ... ) mit a ∈ Z, ai ∈ {0, ...9}} P −i ( a, a1 a2 a3 ... ) steht für x = a + ∞ i=1 ai 10 . ai heißt i-te Nachkommastelle von x. P −i mit x(0) := 0 x(n) := a + n i=1 ai 10 x, y ∈ R sind gleich, wenn x(n) = y(n) ∀ n ∈ N oder x = a, a1 a2 ... ak 999... mit ak 6= 9 y = a, a1 a2 ... (ak + 1) 000... 1.9 .. Zeilen- 3. Lösbarkeitstest Sei b ∈ N, b ≥ 2, k ∈ N0 , ai ∈ {0, 1, ..., b − 1}. ( ak ak−1 ... a1 a0 )b ist eine Darstellung der Zahl P n = ki=0 ai bi zur Basis b. 1.8.3 elementaren ! a011 ... a01n 0 0 0 a0mn . /Spaltenumformungen. Ziel: ... 4. Keine Zahl ∈ N hat den Nachfolger 1 4. Wenn lösbar: Rückwärtssubstitution 2.8 Rang Sei A ∈ Rm×n , b ∈ Rm , Ax = b, (A|b). Rang(A) :=Anzahl der ”Nicht-Komplett-Null-Zeilen”von A, wenn (A|b) in Zeilenstufenform. Rang(A|b) :=Anzahl der ”Nicht-Komplett-Null-Zeilen”von (A|b), wenn (A|b) in Zeilenstufenform. 2.9 Transponierte Matrix Sei A = (aij ) ∈ Rm×n . Dann ist AT ∈ Rn×m definiert durch (AT )ij = aji . AT heißt Transponierte von A. 2.10 Primzahlen Symmetrische, schiefsymmetrische Matrix Sei A ∈ Rn×n (d.h. A quadratisch). Eine Primzahl ist eine natürliche Zahl n > 1, die nur durch 1 und sich selbst teilbar ist. 1. A heißt symmetrisch :⇔ AT = A. 2. A heißt schiefsymmetrisch :⇔ AT = −A. 2 Matrizen und lineare Gleichungssysteme 2.11 2.1 Prüft, ob A ∈ Rn×n invertierbar ist. 1. Erweitere mit Einheitsmatrix (A|In ) m, n ∈ N. Eine m × n Matrix ist ein rechteckiges Zahlenschema der Form a a ... a 2. Vorwärtselimination bis (M |N ), wobei M in Zeilenstufenform sein soll. 1n ... . .. ... ... am1 am2 ... amn abkürzende Schreibweise: A = (aij ) = (aij )i∈[m],j∈[n] Rm×n ist die Menge aller m × n Matrizen mit reellen Komponenten. m×n heißt Dimension von A. Zwei m×n Matrizen A = (aij ) und B = (bij ) sind gleich, wenn ∀ i ∈ [m] , ∀ j ∈ [n] : aij = bij . 2.2 3. Rang(M ) = n ⇒ A invertierbar 4. Rückwärtselimination bis M = In . Man erhält (In |A−1 ) 2.12 Matrix-Addition und Skalar-Multiplikation Für A = (aij ) und B = (bij ) mit A, B ∈ Rm×n ist für C := A + B wieder C ∈ Rm×n mit C = (cij ) und ∀ i ∈ [m] , ∀ j ∈ [n] : cij := aij + bij . Für A = (aij ) ∈ Rm×n und λ ∈ R ist C := λA wieder C ∈ Rm×n mit C = (cij ) und ∀ i ∈ [m] , ∀ j ∈ [n] : cij := λaij Determinanten 1. Wenn A = a ∈ R1×1 , dann det(A) := a 2. Wenn A = ac db ∈ R2×2 , dann det(A) := ad − bc 3. Bezeichne mit Aij die (n−1)×(n−1) Matrix, die man durch Löschen der i-ten Zeile und j-ten Spalte erhält. n P det(A) := (−1)k+1 ak1 det(Ak1 ). k=1 2.13 Dreiecksmatrix, Stufenform ∗ Matrix-Multiplikation j=1 mal Spalte” ( 1 0 i=j heißt n × n Einheitsmai 6= j trix. 2.5 Äquivalente LGS Zwei LGS Ax = b und Cx = d mit A ∈ Rm×n , b ∈ Rm und C ∈ Rr×n , d ∈ Rr und x ∈ Rn , heißen äquivalent, wenn ihre Lösungsmengen gleich sind. 2.6 . 0 Homogene LGS Ein LGS Ax = b heißt homogen, wenn b = 0. Sonst: inhomogen. 0 ∗ ··· ∗ ∗ ,,Untere Dreiecksmatrix” ! 0 ∗ ∗ ,,Spalten-Stufenform” 3 Vektorräume 3.1 Einheitsmatrix In = (bij ) ∈ Rn×n mit bij := ∗ .. Für A = aij ∈ Rm×n und B = bij ∈ Rn×r ist C := AB ∈ Rm×r n P definiert durch C = (cik ) und cik := aij bjk . Sprich: ,,Zeile 2.4 ∗ 0 .. .. 2.3 ∗ ,,Obere” bzw. ∗ ∗ ,,Zeilen-” bzw. . . ∗ . 12 a21 a22 ... a2n .. 11 A= ... Matrix Gauß-Jordan-Verfahren Gruppe Eine Gruppe ist ein Paar (G, ∗), wobei G eine Menge und ∗ eine Verknüpfung, d.h. ∗: G×G→G (x, y) 7→ x ∗ y mit den Eigenschaften: 1. ∀ x, y, z ∈ G : (x ∗ y) ∗ z = x ∗ (y ∗ z) (Assoziativgesetz) 2. ∃e ∈ G : (neutrales Element von G) (G1) ∀ x ∈ G : e ∗ x = x (G2) ∀ x ∈ G, ∃x0 ∈ G : x0 ∗ x = e Wenn außerdem noch ∀ x, y ∈ G : x ∗ y = y ∗ x gilt, dann heißt G kommutativ oder abelsch. 5 3.2 Körper 3.7 Ein Körper ist ein Tripel (K, +, ·), wobei K eine Menge und + und · Verknüpfungen sind, +: K×K →K (x, y) 7→ x + y ·: K×K →K (x, y) 7→ x · y mit den folgenden Eigenschaften: (K1) (K, +) ist abelsche Gruppe, 0 sei neutrales Element, −x sei Inverses zu x. Erzeugendensystem Sei V ein K-VR und U ein UVR von V . Dann heißen Vektoren v1 , . . . , vk ∈ V Erzeugendensystem für U , wenn U = lin(v1 , . . . , vk ). 3.8 Lineare Abhängigkeit V sei K-VR. v1 , . . . , vk ∈ V heißen linear abhängig, wenn ∃α1 , . . . , αk ∈ K, so dass α1 v1 + . . . + αk vk = 0 und NICHT α1 = . . . = αk = 0. (K2) ∀ x, y ∈ K ∗ := K\{0} : x · y ∈ K ∗ und (K ∗ , ·) ist abelsche Gruppe, 1 sei neutrales Element, x−1 sei Inverses zu x. 3.9 (K3) ∀ x, y, z ∈ K : x · (y + z) = x · y + x · z, (x + y) · z = x · z + y · z Eine Familie v1 , . . . , vk ∈ V , heißt Basis des VR V , wenn 3.3 1. v1 , . . . , vk linear unabhängig Vektorraum Sei K ein Körper. Ein K-Vektorraum ist ein Tripel (V, +, ·), bestehend aus einer Menge V und Verknüpfungen +: V ×V →V (x, y) 7→ x + y ·: K×V →V (λ, v) 7→ λ · v mit den folgenden Eigenschaften: (V1) (V, +) ist eine abelsche Gruppe. Ihr neutrales Element 0V heißt Nullvektor, das zu v ∈ V inverse Element −v heißt zu v negativer Vektor. (V2) ∀ v, w ∈ V, λ, µ ∈ K : (a) (b) (c) (d) 3.4 (λ + µ) · v = (λ · v) + (µ · v) λ · (v + w) = (λv) + (λw) (λµ) · v = λ · (µ · v) 1·v =v Unterraum Sei V ein K-VR. Eine Teilmenge U ⊂ V heißt Unter(vektor)raum (UVR) von V , wenn gilt: 1. U 6= ∅ 2. lin(v1 , . . . , vk ) = V 3.10 Dimension Ein VR V 6= {0} heißt endlich dimensional, wenn er eine Basis mit endlich vielen Vektoren besitzt. Die Anzahl der Basisvektoren beschreibt die Dimension von V , kurz dim(V ). Vereinbarung: für V = {0} gelte dim(V ) = 0. 3.11 Zeilen- und Spaltenraum Sei A ∈ Rm×n . SA := lin(s1 , . . . , sn ) ⊂ Rm heißt Spaltenraum von A. ZA := lin(z1 , . . . , zm ) ⊂ Rn heißt Zeilenraum von A. 3.12 Restklassen-Körper (Zn , +n ) bildet abelsche Gruppe mit Zn := {0, 1, . . . , n − 1} mit x +n y := x + y mod n. Wenn n eine Primzahl ist, dann ist (Zn , +n , ·n ) ein Körper mit x ·n y := x · y mod n. (Satz 3.28) 3.13 2. ∀ x, y ∈ U ⇒ x + y ∈ U Codes und Codewörter )n 3. ∀ x ∈ U, ∀ λ ∈ K ⇒ λ · x ∈ U D.h. ein UVR ist ein in sich abgeschlossener Teil eines VR und auch selbst ein VR. 3.5 Basis Kern Sei A ∈ Rm×n . Der Kern von A ist die Lösungsmenge des homogenen LGS Ax = 0 : Kern(A) := {x ∈ Rn : Ax = 0} Es gilt: Kern(A) ist UVR von Rn : (Zp = {(a1 . . . an ) : ai ∈ {0, . . . , p − 1}} ,,Menge aller Codewörter” C ⊂ (Zp )n ,,Code”, Elemente ,,Codewörter” d(a, b) := |{i ∈ [n] : ai 6= bi }| ,,Abstand der Codewörter a und b” d(C) := min{d(a, b) : a, b ∈ C ∧ a 6= b} ,,Minimalabstand des Codes C” 3.14 Fehler erkennende und korrigierende Codes Code C ist. . . . . . t Fehler erkennend ⇔ ∀ a, b ∈ C mit a 6= b: d(a, b) ≥ t + 1 . . . t Fehler korrigierend ⇔ ∀ a, b ∈ C mit a 6= b: d(a, b) ≥ 2t + 1 1. A · 0 = 0 ⇒ 0 ∈ Kern(A) 4 Länge, Winkel, Skalarprodukte 2. x, y ∈ Kern(A) : ⇒ A(x + y) = Ax + Ay = 0 + 0 = 0 ⇒ x + y ∈ Kern(A) 4.1 3. x ∈ Kern(A), λ ∈ R : ⇒ A(λx) = λ(Ax) = λ0 = 0 3.6 Linearkombination, lineare Hülle Sei V ein K-VR und {v1 , . . . , vk } eine Menge von Vektoren in V . 1. Eine Linearkombination von v1 , . . . , vk ist jede Summe der Form k P λ1 v1 + . . . + λk vk = λi v i mit Skalaren i=1 λ1 , . . . , λk ∈ Norm Sei V ein R- oder C-Vektorraum. Eine Abbildung k · k : V → R, x 7→ kxk heißt Norm auf V, wenn Sie folgende Eigenschaften hat: (N1) Positive Definitheit ∀ x ∈ V ist kxk ≥ 0 und kxk = 0 ⇔ x = 0 (N2) Homogenität ∀ x ∈ V, λ ∈ R bzw. C : kλxk = |λ|kxk, λ ∈ C : |λ| = p λλ (N3) Dreiecksungleichung ∀ x, y ∈ V : kx + yk ≤ kxk + kyk K 2. Die lineare Hülle von v1 , . . . , vk ist die Menge aller Linearkombinationen von v1 , . . . , vk : k P λi vi : λ1 , . . . , λk ∈ K} lin(v1 , . . . , vk ) := { i=1 Die lineare Hülle heißt auch Spann, Erzeugnis oder der von v1 , . . . , vk erzeugte/aufgespannte UVR. Sie ist ein UVR von V. 4.2 lp -Normen, Maximumsnorm Sei p ∈ [1; ∞), dann definiert man auf Rn die lp -Norm durch 1 kxkp := (|x1 |p + · · · + |xn |p ) p und die l∞ -Norm oder Maximumsnorm durch kxk∞ := max |xi | 1≤i≤n 6 5 Lineare Abbildungen Skalarprodukt 1. Symmetrie: ∀ x, y ∈ V : hx, yi = hy, xi 5.1 Seien X, Y K-VR und f : X → Y eine Abbildung. f heißt linear wenn 1. ∀ x1 , x2 ∈ X : f (x1 + x2 ) = f (x1 ) + f (x2 ) 2. Linearität in jedem Faktor: ∀ x, y, z ∈ V : hx + y, zi = hx, zi + hy, zi ∀ x, y ∈ V, λ ∈ R : hλx, yi = λ hx, yi 2. ∀ x ∈ X, ∀ α ∈ K : f (αx) = αf (x) 3. Positive Definitheit: ∀ x ∈ V : hx, xi ≥ 0 mit hx, xi = 0 ⇔ x = 0 Also: f (αx + βy) = αf (x) + βf (y) Ausschluss-Kriterium: f (0) 6= 0 ⇒ f nicht linear 5.2 Positive Definitheit Eine Matrix A ∈ Rn×n heißt positiv definit, wenn gilt: ∀ x ∈ Rn \ {0} : xT Ax > 0 Winkel hx,yi kxkkyk Wenn hx, yi = 0, (also ϕ = ](x, y) = π2 ) dann heißen x und y zueinander orthogonal, wir schreiben x ⊥ y. 4.7 Orthogonale Zerlegung und orthogonale Projektion Sei V ein R-VR mit Skalarprodukt h. , . i, U UVR von V, x ∈ V beliebig. Wenn x = xu + xu⊥ mit xu ∈ U und xu⊥ ∈ U ⊥ , dann heißt x = xu + xu⊥ orthogonale Zerlegung von x bezüglich U und xu ist die orthogonale Projektion von x auf U. 4.9 f : X → Y, B = {b1 , . . . , bn } Basis von X, C = {c1 , . . . , cm } Basis von Y f (b1 ) = α11 c1 + . . . + αm1 cm α11 ... α1n Af = ∈ Rm×n αm1 ... αmn f (bn ) = α1n c1 + . . . + αnn cm Geg: Basis v1 , . . . , vr eines VR oder UVR W Ges: ONB von W b1 := 5.5 Transformationsmatrix f : X → Y , B alte Basis von X, B 0 neue Basis von X B ⇔ T B = (B)−1 · B 0 ⇔ T B 0 = (B 0 )−1 · B B 0 = B · TB 0 B B0 Y · x transformiert x (von rechts nach links) aus Anschaulich: TX der Basis X in die Basis Y. In In 0 0 Sonderfall B = In : TB 0 = B bzw. B = In : TB = B Vgl. Satz 5.12, 5.13, 5.14, 5.15. 5.6 Eigenschaften einer Matrixnorm 1. Eine Norm k . . . k auf Rn×n heißt submultiplikativ, wenn ∀ A, B ∈ Rn×n : kABk ≤ kAkkBk 2. k . . . k auf Rn×n heißt verträglich mit k . . . kV auf Rn , wenn ∀ A ∈ Rn×n , ∀ x ∈ Rn : kAxkV ≤ kAkkxkV Gram-Schmidt Orthogonalisierung 1. Normiere v1 : Abbildungsmatrix bzgl. Basen heißt Abbildungsmatrix von f bezüglich B und C Orthogonalbasis V sei R-VR mit Skalarprodukt h. , . i, Familie v1 , . . . , vk ∈ V \ {0} heißt orthogonal, wenn ∀ i, j ∈ [k] , i 6= j : hvi , vj i = 0. Familie heißt Orthogonalbasis von V, wenn sie Basis von V und orthogonal ist. Eine Familie heißt orthonormal, wenn ( 1 i = j ∈ [k] hvi , vj i = δij := 0 i 6= j ∈ [k] 4.8 f : X → Y heißt affin linear, wenn es eine lineare Funktion g : X → Y und a ∈ Y gibt mit ∀ x ∈ X : f (x) = g(x) + a 5.4 Orthogonalität Affine Linearität ... cos ϕ = 5.3 . Sei V ein R-VR mit Skalarprodukt h. , . i , k . . . k dadurch induzierte Norm, und x, y ∈ V \{0}. Der Winkel ϕ = ](x, y) ∈ [0, π] zwischen x und y ist definiert durch 4.6 Sei f : X → Y linear. Rang(f ) := dim(Bild(f )) Bild(f ) := {y ∈ Y : ∃x ∈ X mit f (x) = y} Kern(f ) := {x ∈ X : f (x) = 0} ⊂ X = f −1 (0) ... 4.5 Rang, Bild, Kern ... 4.4 Lineare Abbildung .. 4.3 Sei V ein R-VR. Eine Abbildung hx, yi : V × V → R, (x, y) 7→ hx, yi heißt (reelles) Skalarprodukt, wenn sie folgende Eigenschaften hat: 3. Die durch k . . . kV auf Rn induzierte Matrixnorm ist definiert durch kAxkV kAk := sup kxk 1 v kv1 k 1 x∈Rn ,x6=0 2. Bestimme die zu b1 orthogonale Komponente von v2 : z2 = v2 − hv2 , b1 i · b1 und normiere b2 = kz1 k z2 V 4. eine induzierte Norm heißt ,,natürliche Norm”. 2 3. Mach den Quatsch für 2 ≤ k ≤ r so weiter: k−1 P zk = v k − hvk , bi i · bi i=1 bk = 4.10 4.11 Rn×n und s m P n P i=1 j=1 AT A = In , dann heißt A orthogonal. Kreuzprodukt/Vektorprodukt V ×V →V a1 b1 Seien a = a2 ∈ R3 und b = b2 ∈ R3 a3 b 3 a2 b2 + det a b 3 3 a2 b3 −a3 b2 1 b1 a3 b1 −a1 b3 . = Dann a × b := − det a a b a1 b2 −a2 b1 3 3 + det Frobenius-Norm kAkF := 1 z kzk k k Orthogonale Matrix Wenn A ∈ 5.7 a1 b1 a2 b2 a2ij 6 Eigenwerte und Matrixfaktorisierung 6.1 Eigenwert, Eigenvektor Sei A ∈ Cn×n . λ ∈ C heißt Eigenwert von A, wenn es x ∈ Cn , x 6= 0 mit Ax = λx gibt. x heißt dann Eigenvektor zum Eigenwert λ. Anm: λ = 0 erlaubt. λ ∈ R ⇒ ,,reeller Eigenwert”. 6.2 Algebraische Vielfachheit Seien λ1 , ...λr ∈ C die paarweise verschiedenen Eigenwerte von A. ⇒ χA (t) = (λ1 − t)K1 · (λ2 − t)K2 · ... · (λr − t)Kr Ki ist die algebraische Vielfachheit des Eigenwerts λi . 7 6.3 7 Folgen und Reihen Eigenraum, geometrische Vielfachheit Cn Vλ = Kern(A−λIn ) ⊂ heißt Eigenraum von A zum Eigenwert λ. Vλ enthält die Eigenvektoren zum Eigenwert λ. dim(Vλ ) := ,,geometrische Vielfachheit von λ” (an )n∈N0 heißt beschränkt, wenn eine Zahl K ∈ R existiert, so dass ∀ n ∈ N0 : |an | ≤ K 6.4 7.2 Diagonalisierbarkeit (Funktion) Sei V ein VR und f : V → V Abbildung. f heißt diagonalisierbar, wenn es eine Basis von V gibt, so dass die Abbildungsmatrix von f bzgl. B eine Diagonalmatrix ist, also außerhalb der Diagonalen nur Nullen hat. 7.1 Beschränkte Folge Konvergenz (an ) konvergiert gegen a ∈ R (ist konvergent), wenn für jede (beliebig kleine) Zahl ε > 0, ε ∈ R, eine natürlich Zahl Nε existiert, mit ∀ ε > 0 : ∃Nε ∈ N : ∀ n > Nε : |an − a| < ε n→∞ Schreibe dazu lim an = a, oder an −→ a. n→∞ 6.5 Diagonalisierbarkeit (Matrix) 7.3 A ∈ Rn×n heißt diagonalisierbar, wenn es eine invertierbare Transformationsmatrix T ∈ Rn×n und eine Diagonalmatrix D ∈ Rn×n gibt mit T −1 AT = D Spezielle Grenzwerte, Divergenz lim an = 0 ⇒ (an ) heißt Nullfolge. n→∞ lim an = +∞ ⇔ ∀ K ∈ R, ∃NK ∈ N, ∀ n > NK : an > K. n→∞ lim an = −∞ ⇔ ∀ K ∈ R, ∃NK ∈ N, ∀ n > NK : an < K. n→∞ 6.6 Wenn (an ) keinen Grenzwert a ∈ R hat, dann heißt (an ) divergent. Insbesondere sind Folgen mit lim an = ±∞ divergent. Ähnliche Matrizen n→∞ Zwei Matrizen A, B ∈ Rn×n heißen ähnlich, wenn es eine invertierbare Matrix T ∈ Rn×n gibt mit T −1 AT = B. 6.7 lim an = a ⇔ ∀ ε > 0 : ∃Nε ∈ N : ∀ n > Nε : |an − a| < ε Sei A0 ∈ Rn×n quadratische Matrix. Gesucht: Obere Dreiecksmaλ1 ∗ T λ2 trix Q A0 Q = mit EW auf Hauptdiagonalen. . .. 1. Bestimme einen EW λ1 und EV v1 von A0 2. Bilde ONB des Rn×n mit v1 und n − 1 anderen Vektoren. | | | V1 := v1 w2 ... wn ∈ Rn×n , orthogonal | | | e1 3. Berechne A = V1T A0 V1 λ * 1 = 0 mit A1 A1 ∈ 4. Wiederhole Schritte 1 und 2 für A1 an Stelle von A0 ⇒ V2 ∈ R(n−1)×(n−1) , orthogonal ⇒ A2 ∈ R(n−2)×(n−2) λ2 ∗ 0 A2 0 .. 5. Erweitere V2 mit In zu Vb2 := 0 V2 0 0 ∗ ∗ A2 Sei A ∈ Rm×n , k = min(m, n). .. . 1. Bestimme EW λi und EV vi von AT A ∈ Rn×n Sortiere: λ1 ≥ . . . ≥ λn ≥ 0 Normiere die EV vi . √ 2. Berechneδi = λi für i ∈ [k] δ1 0 Bilde Σ: mit 0 zu m × n auffüllen δi 6= 0 0 3. Bilde V = δk | | v1 ... vn | | 4. Berechne u1 , . . . , uk mit ui = 1 Avi . δi | | Bilde U = u1 ... um | | Falls m > n, ergänze zu ONB ≥1 Teilfolge Eine Teilfolge der Folge (an ) ist eine Folge der Form (ank )k∈N , also an1 , an2 , an3 , . . . mit n1 < n2 < n3 < . . . Reihe, Folge der Partialsummen ∞ P k=1 ak ist konvergent, wenn die Folge ihrer Partialsum- k=1 Singulärwertzerlegung (Algorithmus) a >0 an+1 an ∈ Rn×n λ1 ∗ 0 λ2 ≥ an ∀ n ∈ N, dann ist (an ) monoton steigend > an streng monoton steigend ≤ an monoton fallend < an streng monoton fallend Es gilt: an+1 ≥ an ⇔ an+1 − an ≥ 0 n⇔ 7.7 . Fertig, wenn Ai eindimensional oder Ai obere Dreiecksmatrix mit EW auf Hauptdiagonalen. Ergebnis: QT A0 Q mit Q = V1 · Vb2 · Vb3 · · · 6.8 Wenn an+1 an+1 an+1 an+1 Die Reihe Berechne Q2 = V1 Vb2 , so dass QT 2 A0 Q2 = Monotonie Sei (ak )k∈N eine Folge. n P (sn )n∈N mit sn := ak ,,Folge der Partialsummen” ! . 1 7.5 7.6 R(n−1)×(n−1) und EW λ1 aus Schritt 1 e2 = V T A1 V2 = A 2 ε-Umgebung, Konvergenz n→∞ Schur-Zerlegung (Algorithmus) 0 7.4 men (sn ) konvergiert: ∞ P ak := lim sn k=1 7.8 ∞ P k=1 n→∞ Absolute Konvergenz ak heißt absolut konvergent, wenn ∞ P k=1 |ak | konvergiert. 8 Teil II Sätze und Propositionen 1 Grundlagen 1.1 Kombinatorik 1. Es gibt genau n! Möglichkeiten, n verschiedene Objekte in eine Reihenfolge zu bringen. Möglichkeiten eine Teilmenge der Größe 2. Es gibt genau n k k aus einer Menge der Größe n auszuwählen. Rechenregeln: Mengen 1.12 1. (A ∩ B) ∩ C = A ∩ (B ∩ C) 2. A \ (B ∪ C) = (A \ B) ∩ (A \ C) 1.2 1.11 Pascal’sches Dreieck 1. n k 2. n 0 Gerade und ungerade Zahlen 3. G := {n ∈ Z : ∃k ∈ Z mit n = 2k} U := {n ∈ Z : ∃k ∈ Z mit n = 2k + 1} G∩U =∅ 1.13 = n+1 k n n = =1 n k n P n k−1 n k n−k a b k k=0 Vielfache von 3 1.15 ∀ n ∈ N : 22n − 1 ist durch 3 teilbar + Binomischer Lehrsatz (a + b)n = 1.3 n n−k = Sinus und Cosinus 1. −1 ≤ cos(x) ≤ 1 , −1 ≤ sin(x) ≤ 1 1.5 Periodische Dezimalbrüche 1.6 1.7 √ 2. cos(−x) = cos(x) , sin(−x) = − sin(x) b1 ...bk 9...9 0, b1 . . . bk = 3. (cos(x))2 + (sin(x))2 = 1 4. ∀ k ∈ Z : cos(x + 2πk) = cos(x) , sin(x + 2πk) = sin(x) 2∈ /Q 5. ∀ k ∈ Z : sin(x) = 0 ⇔ x = πk , cos(x) = 0 ⇔ x = + πk Betrag, Wurzel, Dreiecksungleichung 1.16 1. |a| ≥ 0 √ 2. a2 = |a| und a2 = |a|2 Additionstheoreme 1. cos(x + y) = cos(x) cos(y) − sin(x) sin(y) 2. sin(x + y) = sin(x) cos(y) + cos(x) sin(y) 3. |ab| = |a||b| 4. |a + b| ≤ |a| + |b| 1.8 π 2 1.17 Additionstheoreme (Sonderfälle) 1. sin(x + Ungleichungen 2. cos(x − Seien a, b, c ∈ R. π ) = cos(x) 2 π ) = sin(x) 2 3. sin(π − x) = − sin(x − π) = sin(x) 1. Genau einer der Fälle a < b, b < a, a = b tritt ein. 4. cos(π − x) = − cos(x) 2. Wenn a < b und b < c, dann a < c 1.18 3. a < b ⇔ a + c < b + c Tangens, Kotangens 4. Wenn c > 0 : a < b ⇔ ac < bc 1. tan(−x) = − tan(x) , cot(−x) = − cot(x) 5. Wenn c < 0 : a < b ⇔ ac > bc 2. ∀ k ∈ Z : tan(x + πk) = tan(x) , cot(x + πk) = cot(x) 1.9 Zahlendarstellung, Größte Zahl, Basis Sei Basis b ∈ N, b ≥ 2. Dann gilt ∀ Länge L ∈ N L P (b − 1)bi = bL+1 − 1 i=0 1.10 n P k=m n P 2. ak = n P ak )( 5. k= k=0 6. n P k=0 7. n Q k=0 bk k=m 1.22 n P ai n−m P Komplexe Zahlen: Division 1. zz = |z|2 2. am+i m P n m m P n P P P ( ak bj ) = ( ak bj ) bj ) = j=1 k=1 n P Fundamentalsatz der Algebra z w := zw ww = ac+bd c2 +d2 + i cbc−ad 2 +d2 i=0 k=m 4. ( Sei a ∈ [−1, 1] , k ∈ Z. Die Gleichungen sin(x) = a bzw. cos(x) = a haben die Lösungen x = arcsin(a) + 2πk, x = π − arcsin(a) + 2πk bzw. x = ± arccos(a) + 2πk Jedes Polynom hat mindestens eine komplexe Nullstelle. n P i=m ak = n P ak + d k=m k=m 3. n P (cak + dbk ) = c Sinusgleichungen 1.20 Summe, geometrische Summe 1. 1.19 k=1 j=1 j=1 k=1 1.23 Polardarstellung: Multiplikation z, w ∈ C, n ∈ N, z = r(cos Φ + i sin Φ) 1. |zw| = |z||w| n(n+1) 2 2. arg(zw) = arg(z) + arg(w) ( qk = 1−q n+1 1−q q 6= 1 n+1 q=1 n P q k = q k=0 k =q n(n+1) 2 (,,geometrische Summe”) 3. zw = |z||w|(cos(arg(z) + arg(w)) + i sin(arg(z) + arg(w)) 4. |z n | = |z|n 5. arg(z n ) = n arg(z) 6. 1 z = 1 (cos(−Φ) r + i sin(−Φ)) 9 1.24 Injektiv, surjektiv, bijektiv 2.7 Sei X, Y 6= ∅, f : X → Y . 1. Wenn f bijektiv, dann |X| = |Y |. 2. Wenn |X| = |Y |, dann f inj. ⇔ f bij. ⇔ f surj. 1.25 Eindeutigkeit der Darstellung einer Zahl Jedes n ∈ N0 hat genau eine Darstellung zur Basis b. 2.8 Lösungen von homogenen LGS A ∈ Rm×n , betrachte homogenes LGS Ax = 0 1. Die allgemeine Lösung des LGS enthält genau n − Rang(A) freie Variablen. 1.26 R ist nicht abzählbar 1.27 Fundamentalsatz der Arithmetik Jede natürliche Zahl > 1 lässt sich eindeutig in ihre Primfaktoren zerlegen. 1.28 Rang Rang(A) ≤ Anzahl der Zeilen von A = m Rang(A) = Anzahl d. Zeilen mit Pivot = Anzahl d. Spalten mit Pivot ≤ n ⇒ Rang ≤ min(m, n). Es gibt unendlich viele Primzahlen 2. Das LGS hat genau dann x = 0 als einzige Lösung, wenn Rang(A) = n. 2.9 Lösungen von inhomogenen LGS A ∈ Rm×n , b ∈ Rm , b 6= 0, betrachte inhomogenes LGS Ax = b. 1. Ax = b lösbar ⇔ Rang(A) = Rang(A|b) 2 Matrizen und lineare Gleichungssysteme 2.1 Addition, Skalar-Multiplikation 1. A + B = B + A 2. Wenn Ax = b lösbar, dann existiert spezielle Lösung y von Ax = b, so dass die allgemeine Lösung x von Ax = b geschrieben werden kann als x = y + z, wobei z die allgemeine Lösung von Ax = 0 ist. 3. Wenn Ax = b lösbar, dann hat die allgemeine Lösung n − Rang(A) freie Variablen. 2. (A + B) + C = A + (B + C) 3. A + 0 = A Insbesondere: Ax Rang(A) = n. 4. A + (−A) = 0 = b eindeutig lösbar ⇔ Rang(A|b) = 5. (λµ)A = λ(µA) 2.10 6. 1 · A = A Rechenregeln: Transponierte Matrizen 7. (λ + µ)A = λA + µA 1. ∀ A, B ∈ Rm×n : (A + B)T = AT + B T 8. λ(A + B) = λA + λB 2. ∀ A ∈ Rm×n , α ∈ R : (αA)T = αAT 3. ∀ A ∈ Rm×n : (AT )T = A 2.2 Einheitsmatrix In , neutrales Element ∀A∈ 2.3 Rm×n : AIn = A und Im A = A Rn×r , D 1. ∀ A, B ∈ ∈ (A + B)C = AC + BC D(A + B) = DA + DB ∈ Rl×m 2. ∀ A ∈ Rm×n , B ∈ Rn×r , α ∈ R α(AB) = (αA)B = A(αB) 3. ∀ A ∈ Rm×n , B ∈ n×r , C ∈ Rr×l A(BC) = (AB)C 2.4 Anzahl der Lösungen eines LGS Sei Ax = b ein LGS. Dann gibt es genau drei Möglichkeiten: 1. |L| = 0 2. |L| = 1 3. |L| = ∞ 2.5 5. ∀ a, b ∈ Rm×1 : aT b = bT a. 2.11 Matrixmultiplikation Rm×n , C 4. ∀ A ∈ Rm×n , B ∈ Rn×r : (AB)T = B T AT Äquivalent Umformungen Ein äquivalentes LGS erhält man durch die folgenden elementaren Umformungen: 1. Vertauschen zweier Gleichungen 2. Multiplikation einer Gleichung mit α ∈ R, α 6= 0 Inverse einer Matrix 1. Wenn BA = In , dann auch AB = In und umgekehrt. 2. Die Inverse A−1 von A ist eindeutig bestimmt. 2.12 Invertierbarkeit einer Matrix A ∈ Rn×n ist genau dann invertierbar, wenn A den vollen Rang hat (Rang(A) = n). 2.13 Rechenregeln: Invertierbare Matrizen 1. Wenn A ∈ Rn×n invertierbar, so auch A−1 , und (A−1 )−1 = A 2. Wenn A, B ∈ Rn×n beide invertierbar, so auch AB, und (AB)−1 = B −1 A−1 3. Wenn A ∈ Rn×n invertierbar, so auch AT , und (AT )−1 = (A−1 )T Bemerkung: A, B invertierbar ; A + B invertierbar 2.14 Berechnen einer Determinanten 1. ∀ j ∈ [n] : det(A) = 2. ∀ i ∈ [n] : det(A) = Wenn Ax = b homogen, dann x = 0 Lösung des LGS n P (−1)i+j · aij · det(Aij ) j=1 2.15 Homogenität, triviale Lösung (−1)i+j · aij · det(Aij ) i=1 3. Addition des Vielfachen einer Gleichung zu einer anderen Gleichung 2.6 n P Determinante der Einheitsmatrix 1. det(In ) = 1 2. det(αIn ) = αn 10 2.16 3 Vektorräume Sarrus-Regel Sei A = a b c d e f g h i . 3.1 Gruppen 1. Wenn x0 inverses Element zu x ist, dann gilt auch x ∗ x0 = e 2. ∀ x ∈ G : x ∗ e = x det(A) = aei + bf g + cdh − gec − hf a − idb 3. Es gibt genau ein neutrales Element in G. 2.17 Rechenregeln: Determinanten 4. Zu jedem x ∈ G gibt es genau ein inverses Element x0 ∈ G 1. Gemeinsamer Faktor in einer Zeile: −z1 − −z1 − det −α·zi − = α · det −zi − −zn − 3.2 −zn − Beispiele für Gruppen 1. (Z, +) ist abelsche Gruppe, 0 ist neutrales Element, −n ist Inverses zu n ∈ Z 2. Summenzerlegung einer Zeile: −z1 − −z1 − −z1 − det −a+b− = det −a− + det −b− 2. (N0 , +) ist keine Gruppe 3. det(αA) = αn det(A) 4. (Q, +) und (R, +) sind abelsche Gruppen −zn − −zn − 2.19 −zn − Determinante einer oberen Dreiecksmatrix Wenn A = (aij ) ∈ Rn×n obere Dreiecksmatrix ist, dann ist n Q det(A) = aii i=1 2.20 3. (Z, ·) ist keine Gruppe 5. (Q, ·) und (R, ·) sind keine Gruppen, weil 0 kein inverses Element hat. 6. (Q \ {0}, ·) und (R \ {0}, ·) sind abelsche Gruppen, 1 ist neutrales Element, x−1 oder x1 ist Inverses zu x ∈ Q. 3.4 Körper (K, +, ·) Körper Umformen einer Determinante e aus A durch Vertauschen von zwei Zeilen ensteht, 1. Wenn A e = −det(A). dann det(A) 1. ∀ x ∈ K : 0 · x = x · 0 = 0 e aus A durch Multiplikation einer Zeile mit dem 2. Wenn A e = αdet(A). Faktor α entsteht, dann det(A) 3. Wenn x, y ∈ K, dann x · (−y) = (−x) · y = −(x · y). 2. Wenn x · y = 0 für x, y ∈ K, dann x = 0 oder y = 0. e aus A durch Addition einer Zeile zu einer anderen 3. Wenn A e = det(A). entsteht, dann det(A) Insbesondere: (−x) · (−y) = −((−x) · y) = −(−x · y) = xy 4. Wenn A zwei gleiche Zeilen hat, dann det(A) = 0. 3.5 Beispiele für Körper 1. (Q, +, ·) und (R, +, ·) und (C, +, ·) sind Körper. Analog für Spalten statt Zeilen. 2.21 A∈ 2. (Z, +, ·) ist kein Körper, da i.A. keine Inversen bzgl. ” · ” existieren. Kriterien für eindeutige Lösbarkeit eines LGS Rn×n . Die folgenden drei Aussagen sind äquivalent: 3.6 Rechenregeln: Vektorraum K-VR (V, +, ·) 1. A ist invertierbar 2. A hat vollen Rang 1. ∀ v ∈ V : 0 · v = 0v 3. det(A) 6= 0. 2. ∀ v ∈ V : (−1) · v = −v Wenn einer der drei Aussagen erfüllt ist, dann hat das LGS Ax = b für jedes b ∈ Rn eine eindeutige Lösung. 3.8 Rechenregeln: Untervektorraum 1. 0v ∈ U 2.22 2. x ∈ U ⇒ −x ∈ U Rechenregeln: Determinanten 1. det(AB) = det(A)det(B) (aber: det(A + B) 6= det(A) + det(B)) 3.11 2. det(AT ) = det(A) 3. Wenn A invertierbar, dann det(A)det(A−1 ) = det(AA−1 ) = det(In ) = 1 1 ⇒ det(A−1 ) = det(A) 4. Wenn B invertierbar, dann det(B −1 AB) = det(B −1 )det(A)det(B) = det(A) Sei k ∈ N, k ≥ 2, V ein K-VR, v1 , . . . , vk ∈ V . Dann v1 , . . . , vk lin. abh. ⇔ ∃i ∈ [k] und ∃β1 , . . . , βi−1 , βi+1 , . . . , βk ∈ k mit vr = β1 v1 + . . . + βi−1 vi−1 + βi+1 vi+1 + . . . + βk vk 3.12 Beispiel 1 1 3 1 1 3 1 , 2 , 5 lin. abh. denn 1 + 2 2 = 5 2 2.24 Lineare Abhängigkeit 0 2 2 0 2 Cramer’sche Regel Sei A ∈ Rn×n invertierbar, A = | | | s1 s2 ... sn | | | für die eindeutige Lösung x = ... ... x1 xi 3.13 , b ∈ Rn . Dann gilt ! von Ax = b : xn ∀ i ∈ [n] : xi = 1 det det(A) | | | | | s1 ... si−1 b si+1 ... sn | | | | | Lineare Abhängigkeit, Nullvektor, Teilfamilie 1. Jede (endliche) Familie von Vektoren, die den Nullvektor enthält ist linear abhängig. 2. Jede endliche Familie von Vektoren, die eine linear abhängigen Teilfamilie enthält, ist linear abhängig. 3. Jede Teilfamilie einer (endlichen) linear unabhängigen Familie, ist linear unabhängig. 11 Lineare Abhängigkeit 3.27 1. w ∈ lin(v1 , . . . , vk ) ⇔ lin(v1 , . . . , vk ) = lin(v1 , . . . , vk , w) 2. v1 , . . . , vk lin. unabh. ⇔ ∀i ∈ lin(v1 , . . . , vi−1 , vi+1 , . . . , vk ) 6= lin(v1 , . . . , vk ) : Linearkombination Wenn v1 , . . . , vk Basis von K-VR V, dann existiert zu jedem w ∈ V genau ein n-Tupel (α1 , . . . , αn ) ∈ K n mit w = α1 v1 + . . . + αn vn . K-VR mit zwei Basen ⇒ gleiche Anzahl Vektoren Sei V = 6 {0} K-VR mit zwei Basen v1 , . . . , vn und w1 , . . . , wm . Dann n = m. Existenz n-elementiger Körper Fn Es gibt genau dann einen Körper mit genau n Elementen, wenn n = pk , wobei p Primzahl und k ∈ N . Dieser Körper ist dann (bis auf Namen der Elemente) eindeutig und wird mit Fn bezeichnet. 4 Länge, Winkel, Skalarprodukte • oder es gibt Vektoren w1 , . . . , wl , v1 , . . . , vk , w1 , . . . , wl Basis von V ist. so dass Für jede symmetrische und positiv definite Matrix A ∈ Rn×n (spd-Matrix) gilt: Die Abbildung (x, y) 7→ hx, yi mit hx, yi := xT Ay ist ein Skalarprodukt auf Rn . 4.6 Positive Definitheit a11 Sei A = a11 ... a1k an1 . ... Basis Definition eines Skalarproduktes auf Rn ... Sei V ein K-VR mit dim(V ) = n ≥ 1. Dann: 1. Je n linear unabhängige Vektoren von V bilden eine Basis. 2. Jedes Erzeugendensystem mit n Vektoren lin(v1 , . . . , vn ) = V ) ist eine Basis von V. ... a1n ... • entweder v1 , . . . , vk sind Basis von V 4.4 . Basisergänzungssatz Sei V 6= {0} K-VR, der eine endliche Basis besitzt, und seien v1 , . . . , vk linear unabhängig. Dann gilt: 3.20 3.29 .. 3.18 Restklassen-Körper, Modulo-Multiplikation n ist Primzahl ⇔ (Zn , +n , ·n ) ist Körper mit x·n y := x·y mod n. Lineare Abhängigkeit Wenn v1 , . . . , vn Basis des K-VR V, dann muss jede Familie w1 , . . . , wm mit m > n linear abhängig sein. 3.17 3.28 ... ann ∈ Rn×n symmetrisch. Hk := ... 3.16 Sei A ∈ Rn×n A invertierbar ⇔ Rang(A) = n ⇔ det(A) 6= 0 ⇔ Kern(A) = {0} ⇔ Spalten von A sind linear unabhängig ⇔ Zeilen von A sind linear unabhängig ⇔ dim(SA ) = dim(ZA ) = n . 3.15 [k] Invertierbarkeit, Dimension, Lin. Unabhängigkeit .. 3.14 ak1 ... akk (d.h. Dann gilt: A positiv definit ⇔ ∀ i = 1, . . . , n : det Hi > 0 3. Je n+1 Vektoren aus V sind linear abhängig. 4.7 3.22 Dimension von Zeilen- und Spaltenräumen Sei A ∈ dim(ZA ) 3.23 Rm×n . Dann Rang(A) = Rang(AT ) = dim(SA ) = Rechenregeln: Zeilen- und Spaltenräume Sei A ∈ Rm×n , Q ∈ Rn×n invertierbar, P ∈ Rm×m invertierbar. Dann 1. SAQ = SA Induzierte Norm des Skalarproduktes Sei V ein R-VR und h. , . i ein beliebiges p Skalarprodukt. Dann ist die durch k . . . k : V → R und kxk := hx, xi definierte Abbildung eine Norm auf V, genannt die ”durch h. , . i induzierte Norm”. 4.8 Cauchy-Schwarz-Ungleichung Sei V ein R-VR mit Skalarprodukt h. , . i, und p sei k . . . k die durch h. , . i induzierte Norm, also ∀ x ∈ V : kxk := hx, xi. Dann ∀ x, y ∈ V : | hx, yi | ≤ kxkkyk 2. ZP A = ZA 4.10 Äquivalenz bei elementaren Operationen Standard ONB, Lineare Unabhängigkeit 0 ... 3.24 0 n n 1. ei := 10 ∈ R . e1 , . . . , en bildet ONB des R bzgl. des ... 1. Der Zeilenraum ZA einer Matrix A ändert sich bei elementaren Zeilenoperationen NICHT. 0 2. Der Spaltenraum SA einer Matrix A ändert sich bei elementaren Spaltenoperation NICHT. 3.25 Rangungleichung Seien A ∈ Rm×n , B ∈ Rn×r . Rang(AB) ≤ Rang(A) Rang(AB) ≤ Rang(B) 3.26 Dimensionsformel Rang(A) + dim(Kern(A)) = n Standardskalarproduktes. 2. Wenn v1 , . . . , vk orthogonal, dann sind diese linear unabhängig. 4.11 Orthogonale Zerlegungen Sei V ein R-VR mit Skalarprodukt h. , . i, v1 , . . . , vk ONB von V, und x ∈ V . Dann gilt für die Darstellung x = α1 v1 + . . . + αk vk von x, dass ∀ i ∈ [k] : αi = hx, vi i. 12 4.12 Orthogonaler Raum 5.8 Sei V ein R-VR mit Skalarprodukt h. , . i und U ⊂ V ein UVR von V. f : ⇔ ⇔ ⇔ ⇔ ⇔ ⇔ U ⊥ := {v ∈ V, ∀ u ∈ U : hv, ui = 0} heißt ”der zu U orthogonale Raum”. Es gilt: 1. U ⊥ ist UVR Lösungsmenge Ax = b, Kern, Rang, Inv.barkeit Rn → Rn ; f : x 7→ Ax Ax = 0 hat nur triviale Lösung x = 0 Kern(f ) = {0} f ist bijektiv Ax = b hat eindeutige Lösung x ∀ b ∈ Rn Rang(A) = n (vgl. 3.27) A invertierbar det(A) 6= 0 2. U ∩ U ⊥ = {0} 5.10 3. dim U ⊥ + dim U = dim V Eigenschaften einer Basis f : X → Y linear, B = {b1 , . . . , bn } Basis von X Orthogonale Projektion v1 , . . . , vk ist ONB von U ⇒ xU = hx, v1 i v1 + . . . + hx, vk i vk hv1 ,vk i ... hvk ,vk i 4.14 γk ... ... ... ... Ohne ONB von U : Entweder ONB erzeugen oder LGS lösen: hv ,v i ... hv ,v i hx,v i k γ1 1 1 1 P k 1 mit xU = = γi vi hx,vk i i=1 Abstand, Orthogonale Projektion Sei V ein R-VR mit Skalarprodukt h. , . i , k . . . k entsprechende Norm, U UVR, x ∈ V, xu ∈ U orthogonale Projektion von x auf U. Dann: ∀ y ∈ U : kx − xu k ≤ kx − yk 4.15 Rechenregeln: Orthogonale Matrizen A ∈ Rn×n orthogonal. Dann ∀ x, y ∈ Rn : 1. Dann ist f eindeutig durch f (b1 ), . . . , f (bn ) bestimmt. 2. Bild(f ) = lin(f (b1 ), . . . , f (bn )) 3. {f (b1 ), . . . , f (bn )} Basis von Y ⇔ f bijektiv 5.11 Anwendung der Abbildungsmatrix Wenn f : X → Y, b1 , . . . , bn Basis von X, c1 , . . . , cn Basis von Y, Af Abbildungsmatrix v = λ1 b1 + . . . + λn bn , f (v) = µ1 c1 + . . . + µm cm dann µ1 λ1 Af = ... Die orthogonale Projektion xU des Vektors x in den VR U existiert immer und ist eindeutig. Es gilt: x = xU + x⊥ U ... 4.13 µm λn 5.12 Invertierbarkeit der Transformationsmatrix B ist immer invertierbar und es gilt TB 0 B )−1 = T B (TB 0 B 0 1. A−1 = AT 2. hAx, Ayi = hx, yi 5.13 3. kAxk = kxk Wenn X Rn := | | B := b1 ... bn | | ! 4. ](Ax, Ay) = ](x, y) Es gilt: |λ| = 1 ∀ Eigenwerte λ ∈ C 4.16 Rechenregeln: Kreuzprodukt Basiswechsel mit Transformationsmatrix (Matrix) | | b01 ... b0n | | B 0 := (Spalten = b alte Basisvektoren) (Spalten = b neue Basisvektoren B dann B 0 = B · TB 0 Siehe auch Def. 5.5. 1. a ⊥ (a × b) und b ⊥ (a × b) 2. Fläche= ka × bk = kakkbk sin ϕ 5.14 3. a × a = 0 4. a × b = −b × a Sei v = λ1 b1 + . . . + λn bn , und v = λ01 b01 + . . . + λ0n b0n ! 0 5. a × b = 0 ⇔ a und b linear abhängig Dann 5.2 Bild(f ) ⊂ Y , Kern(f ) ⊂ X Seien X,Y K-VR und f : X → Y linear. Dann ist Bild(f ) UVR von Y und Kern(f ) UVR von X. 5.5 f injektiv ⇔ Kern(f ) = {0} f linear und injektiv ⇔ Kern(f ) = {0} 5.6 Dimensionsformel Bild, Kern f linear ⇔ dim(Bild(f )) + dim(Kern(f )) = dim(X) 5.7 f : X → X ⇔ f bijektiv f : X → X linear, dim(X) endlich ⇔ f bijektiv 5.15 B · = TB 0 λ1 ... ... λ1 λn 6. ka × bk2 + ha, bi2 = kak2 kbk2 5 Lineare Abbildungen Basiswechsel mit Transformationsmatrix (λ) λ0n Abbildungsmatrix bezüglich neuer Basen Sei f : X → Y , B alte Basis von X, B 0 neue Basis von X, C alte Basis von Y , C 0 neue Basis von Y . Dann: 0 C A TB A0f = TC f B0 5.18 Induzierte Matrixnorm Sei k . . . kV Norm auf Rn und k . . . k die dadurch induzierte Norm auf Rn×n . 1. k . . . k ist mit k . . . kV verträglich. 2. k . . . k ist submultiplikativ. 3. kAk = sup x∈Rn ,kxkV =1 4. kIn kV = 1 kAxkV 13 5.19 Induzierte Maximums- und 1-Norm 1. Die Maximumsnorm k . . . k∞ auf Rn induziert auf Rn×n die n P ,,maximale Zeilensumme”: kAk∞ := max |aij | i∈[n] j=1 induziert auf Rn×n die ,,maxin P male Spaltensumme”: kAk1 := max |aij | 2. Die 1-Norm k . . . k1 auf Rn j∈[n] i=1 6 Eigenwerte und Matrixfaktorisierung 6.1 Eigenwerte, Charakteristisches Polynom λ ∈ C ist Eigenwert von A ∈ Cn×n ⇔ λ ist Nullstelle des charakteristischen Polynoms χA (t) := det(A − t · In ) 6.3 Determinante, Invertierbarkeit Seien λ1 , ...λr die Eigenwerte der Matrix A mit den algebraischen Vielfachheiten K1 , ...Kr . K2 Kr 1 a) det(A) = λK 1 · λ2 · ... · λr b) A invertierbar ⇔ alle Eigenwerte von A sind 6= 0 6.5 Algebraische und geometrische Vielfachheiten K n×n a) Jedes A ∈ hat n (nicht notwendiger Weise verschiedene) Eigenwerte in C, d.h. die algebraischen Vielfachheiten addieren sich zu n. b) Algebraische und geometrische Vielfachheiten müssen nicht übereinstimmen, aber es gilt immer |{geometrische Vielfachheiten}| ≤ |{algebraische Vielfachheiten}| 6.7 Lineare Unabhängigkeit von Eigenvektoren Sei A ∈ K n×n mit Eigenvektoren v1 , ...vr zu den paarweise verschiedenen Eigenwerten λ1 , ...λr . Dann ist die Familie v1 , ...vr linear unabhängig. Symmetrie ⇒ ONB aus Eigenvektoren 6.14 Wenn A ∈ Rn×n symmetrisch ist, dann existiert eine ONB des Rn aus Eigenvektoren von A und alle Eigenwerte sind reell (aber nicht notwendiger Weise verschieden). Insb nach 6.10 ist A diagonalisierbar. 6.15 Ähnlichkeit, vektoren Diagonale Abbildungsmatrix Af ⇒ f (vi ) = λi vi b) Zwei ähnliche Matrizen haben die gleichen Eigenwerte (evtl. aber verschiedene Eigenvektoren) c) Wenn A und B die gleichen Eigenwerte haben und die entsprechenden Vielfachheiten (algebraisch und geometrisch) übereinstimmen, dann sind A und B ähnlich. 6.16 Symmetrie, positive Definitheit, Eigenwerte Sei A ∈ Rn×n symmetrisch. Dann ist A positiv definit ⇔ Alle Eigenwerte von A sind positiv. 6.17 Obere Schranke für Eigenwerte Sei λ Eigenwert von A ∈ Rn×n . Dann ist |λ| ≤ ||A||, wenn ||.|| die durch die Vektornorm ||.||V induzierte Norm ist. Insb. gilt: n P |λ| ≤ ||A||∞ = max |aij | ,,max. Zeilensumme” 1≤i≤n j=1 n P |λ| ≤ ||A||1 = max 1≤j≤n i=1 6.18 |aij | ,,max. Spaltensumme” Euklidische Norm (Symmetrische Matrix) Sei A ∈ Rn×n symmetrisch, ||.|| die durch ||.||2 induzierte Norm auf Rn×n . ||A||2 = max{|λ| : λ ist Eigenwert von A} Euklidische Norm (Asymmetrische Matrix) √ kAk2 = µmax , wenn µmax der betragsmäßig größte Eigenwert T von A A ist. c) Wenn A n paarweise verschiedene Eigenwerte besitzt, dann ist A diagonalisierbar. Anm: Umkehrung von 6.10c gilt nicht! A = In ist wegen In−1 In In = In = D diagonalisierbar, hat aber wegen v = In v = λv nur λ = 1 als Eigenwert mit algebraischer Vielfachheit n. R = QT AQ , so dass R rechte obere Dreiecksmatrix ist. T Falls ∃λi ∈ / R, dann existiert Q ∈ Cn×n mit R = Q AQ ∈ Cn×n . Q heißt dann unitär (nicht orthogonal). 6.24 A∈ Diagonalisierbarkeit, Eigenwerte Rn×n Σ= t)K2 ...(λ 0 δn 0 ... 0 . .. ... falls m ≥ n. 0 ... 0 δ1 ≥ δ2 ≥ . . . ≥ δk ≥ 0 für k = min(m, n) und A = U ΣV T Eigenschaften der Singulärwertzerlegung 1. ∀ i ∈ [k] : Avi = δi ui , AT ui = δi vi ist genau dann diagonalisierbar wenn t)K1 (λ ... Sei A ∈ Rm×n . Dann existieren orthogonale Matrizen U ∈ n×n und diagonale Matrix Σ ∈ Rm×n mit Rm×m ,V ∈ R δ1 0 0 ... 0 falls m ≤ n. Σ= 0 ... 0 δ01 δm 0 6.25 6.13 Singulärwertzerlegung . b) A diagonalisierbar ⇔ ∃ Basis v1 , ...vn von Rn , die nur aus Eigenvektoren besteht. (λi − t)Ki mit paarw. versch. λi ∈ R Dann existiert eine orthogonale Matrix Q ∈ Rn×n mit .. Diagonaliserbarkeit, Eigenwerte, Eigenvektoren a) Wenn A diagonalisierbar ist mit T −1 AT = D, dann muss D die Eigenwerte von A enthalten und die Spalten von T bilden eine Basis des Rn mit den Eigenvektoren. r Q i=1 . 6.10 A ∈ Rn×n und χA (t) = .. Wenn A ∈ Rn×n Abbildungsmatrix einer diagonalisierbaren Abbildung, dann ist die Transformationsmatrix T ∈ Rn×n und Diagonalmatrix D ∈ Rn×n mit T −1 AT = D. Schur-Zerlegung . Abbildungs-, Diagonal- und Transformationsmatrix 6.20 .. 6.9 λn ... 0 ... .. . f : V → V diagonalisierbar, mit Basis B = {v1 , ...vn } und Abbilλ1 0 dungsmatrix D = ⇒ f (vi ) = λi vi ∀ i ∈ [n] Eigenwerte/- a) Eine diagonalisierbare Matrix ist zu einer Diagonalmatrix ähnlich. 6.19 6.8 Diagonalisierbarkeit, t)Kr 2. AT = V ΣT U T hat die gleichen Singulärwerte wie A. a) χA (t) = (λ1 − r − 2− mit paarweise verschiedenenen Eigenwerten λi ∈ R ∀ i ∈ [r] 3. δ12 , . . . , δk2 sind EW der Matrix AT A ∈ Rn×n mit EV v1 , . . . , vk . b) dim(Vλi ) = Ki ∀ i ∈ [r] 4. AT A = V DV T und D = ΣT Σ 14 7 Folgen und Reihen 7.15 7.2 n→∞ Konvergenz von Teilfolgen lim an = a ⇔ Alle Teilfolgen von (an ) konvergieren gegen a Eindeutigkeit des Grenzwertes Sei (an ) eine konvergente Folge. Dann ist der Grenzwert eindeutig bestimmt. 7.16 7.3 Zwei Teilfolgen einer Folge (an ) konvergieren gegen verschiedene Grenzwerte ⇒ (an ) ist divergent. Beschränkte Folge, Grenzwert Divergenz, Teilfolgen lim an = a ⇒ (an ) beschränkt n→∞ 7.17 7.4 Beschränktheit, konvergente Teilfolge (BolzanoWeierstraß) Beschränktheit, Konvergenz a) Beschränktheit ; Konvergenz, Bsp. an = (−1)n b) Jede beschränkte Folge hat (mindestens) eine konvergente Teilfolge. lim an = ±∞ ⇒ (an ) nicht beschränkt n→∞ c) an nicht beschränkt ; lim an = ±∞ 7.18 n→∞ 7.5 ∞ P Grenzwert: Rechenregeln Geometrische Reihe q k = lim n→∞ k=0 1−q n+1 1−q = 1 1−q für |q| < 1 Folgen (an )n∈N und (bn )n∈N mit a = lim an und b = lim bn n→∞ n→∞ 7.19 a) b) c) d) e) 7.6 lim (an + bn ) = a + b ∞ P n→∞ lim (an · bn ) = a · b lim an n→∞ bn lim √ n→∞ = a b an = 1 k k=1 n→∞ Harmonische Reihe =∞ für b 6= 0 √ 7.20 Rechenregeln: Reihen Seien ∞ P a für an ≥ 0 ∀ n ∈ N lim |an | = |a| k=1 n→∞ Grenzwert: Ungleichungen ∞ P a) ∞ P ak = a und bk = b k=1 (ak ± bk ) = a ± b k=1 ∃N ∈ N so dass an an Gilt nicht: an an ≤ bn ∀ n > N ⇒ a ≤ b ≥ bn a≥b ∞ P b) (λ · ak ) = λ · a ∀ λ ∈ R k=1 < bn > bn a<b a>b Anm: Vorsicht mit ∞ P (ak · bk ) k=1 7.8 Sandwich-Theorem Seien lim an = lim bn = d, Folge (cn )n∈N mit ∃N ∈ N : ∀ n > N : n→∞ ak ≤ cn ≤ n→∞ bn . Dann existiert lim cn = d. cn wird durch an von unten und n→∞ von bn von oben eingesperrt. 7.21 Konvergenz-Kriterium für Reihen (Cauchy) Betrachte ∞ P ak , sn := k=1 n P ak . k=1 ∞ P 7.9 Beschränktheit, Monotonie, Konvergenz (an ) beschränkt und monoton steigend/fallend ⇒ (an ) konvergent 7.10 Fixpunktgleichung, Rekursion a) Wenn (an )n∈N rekursiv durch an+1 = f (an ) definiert und Grenzwert lim an existiert, dann muss der Grenzwert die ak konvergiert k=1 (sn )n∈N konvergiert ⇔ ⇔ ∀ ε > 0 : ∃Nε ∈ N : ∀ n > m > Nε : |sn − sm | < ε n P ⇔ ∀ ε > 0 : ∃Nε ∈ N : ∀ n > m > Nε : | ak | < ε k=m+1 7.22 Reihen-Konvergenz, Nullfolge Wenn ∞ P n→∞ Fixpunktgleichung a = f (a) erfüllen b) Nicht jede Lösung der Fixpunktgleichung a = f (a) ist Grenzwert, evtl. existiert gar kein Grenzwert. Bspw. negative Lösungen für nur positiv definierte Folgen. 7.11 Bernoulli-Ungleichung ∀ x ∈ R mit x ≥ −1 und ∀ n ∈ N0 gilt (1 + x)n ≥ 1 + nx 7.13 lim n→∞ Euler’sche Folge, Exponentialfunktion 1+ x n n =: ex = exp(x) mit e ≈ 2, 72 k=1 ak konvergent, dann ist (ak )k∈N eine Nullfolge. 7.23 Absolute Konvergenz, Konvergenz Wenn ∞ P ak absolut konvergent, dann ist ak auch konvergent. k=1 k=1 7.24 ∞ P Alternierende Reihe (−1)k ak (Leibniz-Kriterium) Sei (ak )k∈N mit ak ≥ 0 ∀ k ∈ N oder ak ≤ 0 ∀ k ∈ N eine monoton ∞ P fallende Nullfolge. Dann konvergiert die Reihe (−1)k · ak k=1 Es gilt: exp(x + y) = exp(x) · exp(y) 7.25 7.14 Konvergenz-Kriterium für Folgen (Cauchy) Eine Folge (an ) ist genau dann konvergent, wenn ∀ ε > 0 : ∃Nε : ∀ n, m > Nε : |am − an | < ε d.h. die Abstände werden (für große Indizes) beliebig klein. Beschränktheit, Absolute Konvergenz Wenn die Folge der Partialsummen der Absolutbeträge (sn )n∈N n ∞ P P mit sn := |ak | beschränkt ist, dann ist die Reihe ak absolut k=1 konvergent. k=1 15 7.26 Majoranten-Kriterium Seien (an )n∈N und (bn )n∈N Folgen mit ∃N ∈ N : |an | ≤ bn ∀ n > N ∞ P a) bn konvergent ⇒ n=1 ∞ P b) ∞ P k=1 ∞ P k=1 |an | divergent ⇒ ∞ P bn divergent n=1 Zeta-Reihe 1/kr 1 kr divergiert 1 kr konvergiert für r > 1 7.29 an absolut konvergent n=1 n=1 7.27 ∞ P für r ≤ 1 Quotientenkriterium a) Wenn ∃N ∈ N und 0 < q < 1 mit ak+1 a ≤q<1∀k>N k ∞ P dann ist ak absolut konvergent k=1 b) Wenn ∃N ∈ N und ak+1 a ≥1∀k>N k ∞ P dann ist ak divergent k=1 7.30 Quotientenkriterium für k → ∞ Reihe ∞ P k=1 a ak . Wenn ρ := lim k+1 existiert und a k k→∞ a) ρ < 1 ⇒ ∞ P ak konvergiert absolut k=1 b) ρ > 1 ⇒ ∞ P ak divergiert k=1 7.31 Wurzelkriterium Reihe ∞ P ak . Wenn µ := lim k→∞ k=1 a) µ < 1 ⇒ ∞ P ∞ P k=1 |ak | existiert und ak konvergiert absolut k=1 b) µ > 1 ⇒ p k ak divergiert