Lineare Algebra Zusammenfassung ๐ก ๐ซ โ โ Definitionen Wichtige Ausnahmen Klausurrelevante Details, relevante Facts Zusammenfassende Worte, zusätzliche Erklärungen, Beispiele 2 Grundlagen 2.1 Notation ∧ und ∨ oder N natürliche Zahlen ⇒ wenn, dann Z ganze Zahlen ¬ nicht Q rationale Zahlen ∀ für alle R reelle Zahlen ∃ es existiert ∈ ist Element von ∃! es existiert genau ein ∈ / ist kein Element von L๎A,0๎ homogenes LGS L(A,b) inhomogenes LGS Lineare Algebra - Zusammenfassung 1 2.2 Zahlenmengen 2.2.1 Darstellung 2.3 Mengen, Relationen, Abbildungen 2.3.1 Vereinigungsmenge, Schnittmenge, Mengendifferenz ๐ก Es gibt genau eine Menge ohne Elemente → die leere Menge. Notation: ∅ := {} Lineare Algebra - Zusammenfassung 2 โ Beispiele: {a, b, c} ∪ {a, 7, π} = {a, b, c, 7, π} {a, b, c} ∩ {a, 7, π} = {a} {a, b, c} โ {a, 7, π} = {b, c} 2.3.2 Karthesisches Produkt ๐กโก Facts: Die Mengen M × N und N × M sind unterschiedliche Mengen. Die Elemente von M × N sind geordnete Paare, (π, a) ist kein Element von M × N . Hat M genau m und N genau n Elemente, so hat M × N genau m⋅n โก โก Elemente. โก Das karthesische Produkt kann analog auch für ≥ 2 Mengen gebildet werden. โ Beispiel: = {a, b, c} und N = {1, 7, π}: M × N = {(a, 1), (a, 7), (a, π), (b, 1), (b, 7), (b, π), (c, 1), (c, 7), (c, π)} Für M Lineare Algebra - Zusammenfassung 3 2.3.3 Funktion Seien M, N Mengen. Eine Funktion/Abbildung f von M nach N ist: ๐ก โกโก eine linkstotale und rechtseindeutige Relation zwischen M und N d.h. eine Teilmenge f ⊆M ×N โก mit der zusätzlichen Eigenschaft ∀a ∈ M∃!b ∈ N : (a, b) ∈ f โก dabei heißt M der Definitionsbereich und N der Zielbereich der Funktion. โก Für jedes Element a aus dem Definitionsbereich M existiert genau ein Element b aus dem Zielbereich N . Lineare Algebra - Zusammenfassung 4 2.3.4 Abbildung Sei f : M → N eine Abbildung. Dann heißt f : ๐ก injektiv, falls jedes Element im Zielbereich höchstens ein Urbild (f −1 (b)) hat: ๐ก surjektiv, falls jedes Element im Zielbereich mindestens ein Urbild hat: ∀b ∈ N : #f −1 (b) ≤ 1 ∀b ∈ N : #f −1 (b) ≥ 1 Lineare Algebra - Zusammenfassung 5 ๐ก โ bijektiv, falls f injektiv und surjektiv ist: ∀b ∈ N : #f −1 (b) = 1 Beispiel: Abbildung a) Die Abbildung f : N → N mit f(n) = n2 ordnet jeder natürlichen Zahl ihr Quadrat zu, z.B. f(1) = 1, f(2) = 4, f(3) = 9, etc. Definitions- und Wertebereich: die natürlichen Zahlen Bildmenge: f(N) Lineare Algebra - Zusammenfassung = {1, 4, 9, 16, … } = {n2 โฃn ∈ N} 6 โ Beispiel: Injektiv, Surjektiv a) f : Z → N, n โฆ n2 Die Abbildung f ist nicht injektiv, denn es gilt nicht, dass je zwei verschiedene Zahlen aus dem Definitionsbereich auch verschiedene Funktionswerte haben. = f(2) = 4 Die Abbildung ist auch nicht surjektiv, da nicht alle Zahlen aus N Denn z.B. ๎2 und 2 haben denselben Funktionswert f(−2) Funktionswerte sind, z.B. die Zahl 3 tritt nicht als Funktionswert auf. โ : N → N, n โฆ n2 Die Abbildung g ist injektiv, denn zwei verschiedene a, b ∈ N haben auch verschiedene Funktionswerte n1 (2) = ๎ n2 (2). Wie vorher ist die Abbildung aber b) g nicht surjektiv. โ c) h : Z → Z, n โฆ n + 1 Die Abbildung ist injektiv, da zwei verschiedene ganze Zahlen aus dem Definitionsbereich n1 ๎ = n2 verschiedene Funktionswerte haben. h(−2) = −1, h(2) = 3. Sie ist auch surjektiv, weil jede ganze Zahl m Bild einer ganzen Zahl, nämlich von n = m-1, ist. Somit ist die Abbildung bijektiv. โ d) k : Z5 → Z5 , n โฆ n + 1 injektiv wie bei c). Sie ist auch surjektiv, weil jedes m eines Elements aus Z5 ist, nämlich von n = ∈ Z5 Funktionswert m + 4(mod 5๎ ๎4 ist das additive Inverse von 1 in Z5 ). Somit ist die Abbildung bijektiv. Lineare Algebra - Zusammenfassung 7 —3— 3 Gauß-Algorithmus und Matrixrechnung 3.1 Lineares Gleichungssystem 3.1.1 Form ๐กโก Das lineare Gleichungssystem heißt homogen, falls b1 = b2 = โฏ = bm = 0. Man nennt diese Lösung die triviale Lösung. โก Das LGS heißt inhomogen, falls eine Lösung existiert, z.B. x + y = 10. โก Ein inhomogenes LGS über K = R hat keine, genau eine oder unendlich viele Lösungen. 3.1.2 Koeffizientenmatrix ๐ก โกโก Eine m × n - Matrix hat m Zeilen und n Spalten. Eine n × n - Matrix hat gleich viele Zeilen wie Spalten. 3.1.3 Spezielle quadratische Matrizen ๐ก โ2 3 −4โ โ1 0 0 โ A = โ0 1 5 โ , B = โ3 1 0 โ , โ0 0 8 โ โ9 −2 6โ A ist eine obere und B eine untere Dreiecksmatrix. โก —3— 1 ๐ก โ2 0 0 โ 1 0 C = โ0 5 0 โ , I = ( ) 0 1 โ0 0 3 โ C ist eine Diagonalmatrix und I ist die 2 × 2 - Einheitsmatrix. โก 3.1.4 Erweiterte Koeffizientenmatrix 3.1.5 Lösungsmenge 3.1.6 Lösbarkeit von LGS โ Wenn kein Lösungsvektor angegeben, dann ist er 0. ๎1๎ genau eine Lösung ๎2๎ unendlich viele Lösungen ๎3๎ keine Lösung —3— 2 (a) gegeben sei ein lineares Gleichungssystem: (b) in Matrixschreibweise lautet das LGS๎ (c) die dazugehörige erweiterte Koeffizientenmatrix ๎A | b): (d) Rang berechnen Rang einer Matrix Rechner Hier kannst du den Rang einer Matrix mit komplexen Zahlen kostenlos online und mit einer sehr detaillierten Lösung berechnen. Der Rang einer Matrix wird berechnet, indem man die Matrix mit Hilfe https://matrix.reshish.com/de/rank.php โ ๐ก Man bringt die gebebene Matrix in Zeilenstufenform und liest dann die NichtNullzeilen ab. Bei einer Matrix mit den Zeilen (1 2 0), (0 1 1) und (0 0 0) sind die drei Zeilen linear abhängig, da jede Menge von Vektoren, die den Nullvektor enthält, linear abhängig ist. Wenn man den Nullvektor weglässt, so bleibben die beiden Zeilen (1 2 0) und (0 1 1) übrig, diese sind linear unabhängig, daher Rang = 2. —3— 3 โ โก Der Rang einer Matrix A ist gleich dem Rang der transponierten Matrix AT . Mit anderen Worten: Die Anzahl der linear unabhängigen Spalten ๎Zeilenrang = Spaltenrang). Elementare Zeilenumformungen lassen den Rang einer Matrix unverändert. โก Beispiele โ1 A = โ0 โ0 โ1 B = โ0 โ0 5 2 0 2 2 0 3 โ 1 โ → es sind keine Nullzeilen vorhanden, weshalb Rang(A) = 3. −1โ 3โ 1โ → es ist eine Nullzeile vorhanden, weshalb Rang(B) = 2. 0โ ๎1๎ genau eine Lösung Es gibt eine eindeutige Lösung, wenn der Rang der (erweiterten) Koeffizientenmatrix der Anzahl der Unbekannten n entspricht. ๐ก rang(A) = rang(Aโฃb) = n Beispiel: โ1 A = โ0 โ0 2 5 0 3 6 9 โฃ 1โ โฃ 2โ → Rang 3 = Anzahl der Unbekannten โฃ 3โ ๎2๎ unendlich viele Lösungen Es git unendlich viele Lösungen, wenn der Rang der (erweiterten) Koeffizientenmatrix kleiner ist als die Anzahl der Unbekannten n. ๐ก —3— rang(A) = rang(Aโฃb) < n 4 Beispiel: โ1 B = โ0 โ0 2 5 0 3 6 0 โฃ 1โ โฃ 2โ → Rang 2 < Anzahl der Unbekannten (=3) โฃ 0โ ๎3๎ keine Lösung Es gibt keine Lösung, wenn der Rang der Koeffizientenmatrix A nicht dem Rang der erweiterten Koeffizientenmatrix entspricht. ๐ก rang(A) = ๎ rang(Aโฃb) Beispiel: โ1 C = โ0 โ0 2 5 0 3 6 0 โฃ 1โ โฃ 2โ → Rang(A) =2 โฃ 3โ = ๎ Rang(A|b) = 3 3.1.7 Gleichheit von Matrizen A=( →A y 3 ) und B = ( w 5 1 ) 0 = B steht für die 4 Gleichungen ๐ก ๐ซ —3— x+y z+x x + y = 3, y = 1, โ2 โ ๎ (2 โ4 โ = โ5 โ 4 z + x = 5, w=0 5) → verschiedene Dimensionen 5 3.1.8 Rechenregeln โ โกโก A + B = B + A → Kommutativität A + ๎B + C๎ = ๎A + B๎ + C → Assoziativität โกA+0=A โก 1A = A โก k(A + B๎ = kA + kB → Distributivgesetz 3.2 Zeilenstufenform 3.2.1 โ Good To Know - Zeilenstufenform โ โก Eine Matrix ist in Zeilenstufenform, falls das erste (von links) nicht verschwindende Element in jeder Zeile gleich 1 ist und โก die führende 1 in jeder Zeile rechts von der führenden 1 in der Zeile darüber steht โ โก Sie ist in reduzierter Zeilenstufenform, falls zusätzlich über jeder führenden 1 Null(en) stehen. 3.2.2 Form 3.2.3 Zeilenstufenform erweiterte Koeffizientenmatrix —3— 6 โ โกโก Das System hat genau dann eine Lösung, wenn br+1 = โฏ = bm = 0 gilt. Ist das System lösbar, erhält man alle Lösungen auf folgende Weise: Falls in der i-ten Spalten von A kein Pivot steht, kann für xi eine beliebige โ Zahl eingesetzt werden. → freie Variablen โ Die Werte für alle anderen Variablen sind dann eindeutig bestimmt (=gebundene Variablen). Man erhält sie, indem man von unten, beginnend mit der r-ten Zeile, die entsprechenden Gleichungen nach der Variable am Pivot auflöst. โก Durch diese Prozedur erhält man eine Parametrisierung der gesamten Lösungsmenge durch Rn−r , d.h. eine bijektive Abbildung φ : Rn−r → L(A, b) 3.3 Gauß-Jordan Algorithmus 3.3.1 Definition ๐ก 3.3.2 Der Gauß-Algorithmus ermöglicht es, für LGS sämtliche Lösungen zu bestimmen. โก erweiterte Koeffizientenmatirx mit Zeilenumformungen auf Zeilenstufenform bringen โก Lösung ablesen โ Good To Know - Gauß โ โก Es genügen schon Umformungen vom Typ ๎1๎ und Typ ๎3๎, um Zeilenstufenform zu erreichen. Typ ๎2๎ wird nur benötigt, wenn man alle Pivots auf 1 setzen möchte. โก Um alle Einträger oberhalb der Pivots 0 zu setzen, muss mit Umformung vom Typ ๎3๎, von links mit den Pivots beginnend, eliminiert werden. โก Eine Zeilenstufenform mit Pivots = 1 und Nullen oberhalb der Pivots heißt reduzierte Zeilenstufenform. โก Wichtig ist, die erweiterte Koeffizientenmatrix umzuformen, anosnten ändert sich die Lösungsmenge. Nur bei homogenen Systemen nicht nötig, da sich die Nullspalte ganz hintne sowieso niemals ändert, wenn Zeilenumformungen vorgenommen werden. —3— 7 3.3.3 Äquivalenzumformungen ๐ก ๎1๎ Vertauschen von zwei Zeilen ๎Gleichungen). ๎2๎ Multiplikation (jedes Eintrags) einer Zeil mit einer Zahl = ๎ 0. ๎3๎ Addition des Vielfachen (= ๎ 0๎ einer Zeile zu einer anderen Zeile. 3.3.4 Reduzierte Zeilenstufenform - Beispiel —3— 8 3.4 Gruppen, Ringe Körper 3.4.1 Definition: Gruppe ๐ก Eine Gruppe ist eine Menge G zusammen mit einer zweistelligen Verknüpfung: ∗ :G×G→G 3.4.2 Bedingungen einer Gruppe โ โก Assoziativgesetz: ∀a, b, c โก Neutrales Element: ∃e∀a โก Inverse Elemente: ∀a∃b (a ∗ b) ∗ c = a ∗ (b ∗ c) e∗a= a∗e = a a∗b= b∗a= e gilt zusätzlich das Kommutativgesetz, so nennt man G eine kommutative bzw. abelsche Gruppe โ โก Kommutativgesetz: ∀a, b a∗b= b∗a 3.4.3 Additive Gruppen —3— โ (Z, +), also die ganzen Zahlen Z mit der Addition, bilden eine kommutative โ Ebenso sind (Zm , +), für beliebiges m, (Q, +), (R, +), (C, +) kommutative Gruppe, denn: โก Assoziativität: a + (b + c) = (a + b) + c gilt für alle ganzen Zahlen a, b, c. โก Neutrale Element: Bezüglich der Addition ist 0๎ a + 0 = 0 + a. โก Zu jeder ganzen Zahl a gibt es ein Inverses −a bezügl. der Addition. โก Das Kommutativgesetz gilt a + b = b + a für alle ganzen Zahlen a, b. Gruppen 9 ๐ซ Aber: (N0 , +) ist keine Gruppe. Assoziativgesetz und neutrales Element sind kein Problem, aber es gibt nicht für jede natürliche Zahl a ein additiv Inverses. z.B. es gibt keine natürliche Zahl a, sodass 3 + a = 0. 3.4.4 Multiplikative Gruppen โ (Q\{0}, ⋅), also die rationalen Zahlen Q ohne 0 mit der Multiplikation, bilden eine kommutative Gruppe, denn: โก Das Assoziativgesetz gilt: a ⋅ (b ⋅ c) = (a ⋅ b) ⋅ c für alle rationalen Zahlen a, b, c = ๎ 0. โก Das neutrale Element bzgl. der Multiplikation ist 1: a ⋅ 1 = 1 ⋅ a = a für alle rationalen Zahlen a = ๎ 0. โก Zu jeder rationalen Zahl a =๎ 0 gibt es ein Inverses bzgl. der Multiplikation (multiplikatives Inverses): : a ⋅ = ⋅ a = 1. โก Das Kommutativgesetz gilt: a ⋅ b = b ⋅ a für alle rationalen Zahlen a, b =๎ 0. 1 a โ โ —3— 1 a 1 a (R\{0}, ⋅) ist ebenso eine abelsche Gruppe bzgl. ⋅ mit e = 1. Ebenso sind (Zp \{0}, ⋅), (wobei p Primzahl), (R\{0}, ⋅), (C\{0}, ⋅) kommutative Gruppen. 10 ๐ซ Aber: (N, ⋅) und auch (Z\{0}, ⋅) sind keine Gruppen. Wieder sind Assoziativgesetz, neutrales Element kein Problem, aber es scheitert wieder am Inversen: In Z\{0} gibt es nicht für jedes a ein multiplikatives Inverses. z.B. gibt es keine ganze Zahl a, sodass 3 ⋅ a 3.4.5 = 1. โ Good To Know - Gruppen โ Reelle Zahlen (R) sind sowohl bzgl. + als auch (wenn man die 0 herausnimmt) bzgl. ⋅ eine kommutative Gruppe. Dasselbe gilt für Q, R, C oder Zp . → Daher haben diese Mengen bzgl. Addition und Multiplikation dieselbe Struktur, es gelten also dieselben Rechenregeln. Mann nennt diese Struktur einen Körper. 3.4.6 Definition: Körper ๐ก Eine Menge K mit zwei Verknüpfungen + und ⋅, geschrieben (K, +, ⋅), heißt Körper, wenn folgendes gilt: ๎1๎ (K, +) ist eine kommutative Gruppe mit neutralem Element 0. ๎2๎ (K\{0}, ⋅) ist eine kommutative Gruppe mit neutralem Element 1. ๎3๎ für alle a, b, c ๐ก 3.4.7 Das Distributivgesetz regelt, wie die beiden Verknüpfungen sich miteinander vertragen. โ Good To Know - Körper โ โกโก โก —3— ∈ K gilt: a ⋅ b + a ⋅ c = a ⋅ (b + c) → Distributivgesetz Für eine Primzahl p ist Zp ein Körper. Ebenso sind Q, R und C Körper. Jedoch ist Z kein Körper, denn (Z\{0}) ist keine Gruppe. 11 → hat nicht jedes Element ein multiplikatives Inverses, so wie z.B. in Zm , so spricht man von einem Ring. 3.4.8 Definition: Ring ๐ก Eine Menge R mit zwei Verknüpfungen + und ⋅, geschrieben (R, +, ⋅), heißt Ring, wenn folgendes gilt: ๎1๎ (R, +) ist eine kommutative Gruppe mit neutralem Element 0. ๎2๎ Für alle a, b, c ∈ R gilt: (a ⋅ b) ⋅ c = a ⋅ (b ⋅ c) → Assoziativgesetz ๎3๎ Für alle a, b, c ∈ R gilt: a ⋅ b + a ⋅ c = a ⋅ (b + c) → Distributivgesetz Gilt zusätzlich: ๎4๎ das Kommutativgesetz a ⋅ b = b ⋅ a für alle a, b ∈ R, so spricht man von einem kommutativen Ring. ๎5๎ Wenn darüber hinaus ein neutrales Element 1 für die Multiplikation existiert, also a ⋅ 1 = 1 ⋅ a = a für alle a ∈ R, so spricht man von einem kommutativen Ring mit Eins. โ 3.4.9 Wenn also jedes Element (außer 0๎ eines kommutativen Ringes mit Eins ein multiplikatives Inverses besitzt, dann ist der Ring ein Körper. โ Good To Know - Ring โ โก Die ganzen Zahlen Z sind ein kommutativer Ring mit Eins; kein Körper, da es nicht zu jeder ganzen Zahl ein Inverses bzgl. der Multiplikation gibt. โกZ m ist ein kommutativer Ring mit Eins; er ist genau dann ein Körper wenn m = p eine Primzahl ist. So sind also z.B. Z4 oder Z256 nur Ringe, aber Z2 , Z3 , Z5 hingegen Körper. Die Menge der Polynome R[x] = {p(x) = pn xn + โฏ + p1 x + p0 โฃpk ∈ R} ist ein kommutativer Ring mit Eins, aber kein Körper. โก —3— 12 3.4.10 Endliche Körper ๐ก Sei n ≥ 2 eine natürliche Zahl. Wir definieren eine Äquivalenzrelation auf Z durch folgende Setzung: a ∼ b :⇔ nโฃ(b − a) → Zwei Zahlen sind also äquivalent, wenn sie sich um ein Vielfaches von n unterscheiden. Ordnet man die Zahlen auf einer Uhr mit n Stunden an, so endet jeder Umlauf um die Uhr also in derselben Äquivalenzklasse. 3.4.11 Z/nZ โ Wurde bereits als Gruppe mit + eingeführt, nun definieren wir Addition und Multiplikation auf Z/nZ: ๎1๎ [a] + [b] ๎2๎ [a] ⋅ [b] โ โก := [a + b] := [a ⋅ b] Sei n ≥ 2: Es ist Z/nZ ein kommutativer Ring mit genau n Elementen. โก Es ist Z/nZ genau dann ein Körper, wenn n eine Primzahl ist. (Z/pZ, +, ⋅) โ —3— Folgende 3 Aussagen sind für n = โก (Z/pZ, +, ⋅) ist ein Körper. โก (Z/pZ, +, ⋅) ist nullteilerfrei. โก p ist eine Primzahl. p ∈ N äquivalent: 13 3.5 Matrixrechnung 3.5.1 Definition ๐ก Sei R eine Menge und m, n ∈ N ๎1๎ Eine m × n - Matrix über R ist eine Abbildung M : {1, … , m} × {1, … , n} → R โ Erster Index bezeichnet die Zeile โก Zweiter Index bezeichnet die Spalte โฌ ๎2๎ Eine m × 1 - Matrix wird auch Spaltenvektor, eine 1 × n - Matrix Zeilenvektor genannt. —3— 14 โ In Zeilen- oder Spaltenvektoren wird oft nur ein Index verwendet, z.B.: โ v1 โ . โ v=โ โ . โ → Spaltenvektor โvm โ ๎3๎ Die Menge aller m × n - Matrizen über R wird mit Matm,n (R) bezeichnet. โ โก Wenn m = n, wird statt Mat (R) → Mat โก Statt Mat (R) ๎๎Spaltenvektor) → R m,m m,1 ๎4๎ Für M m (R) geschrieben. m = (mij )i=1,…,m;j=1,…,n ∈ Matm,n (R) bezeichnen wir mit: M t := (mij )i=1,…,n;j=1,…,m ∈ Matn,m (R) die sog. transponierte Matrix 3.5.2 Transponierte Matrix ๐ก —3— Die transponierte Matrix entsteht aus M durch Vertauschung der Indizes, bzw. durch Spiegelung an der Diagonalen. Die Zeilen von M werden zu den Spalten von M t โก 15 3.5.3 Summe zweier m × n - Matrizen ๐ก Die Summe zweier m × n - Matrizen A โ a11 + b11 โ a21 + b21 โ โฏ โam1 + bm1 a12 + b12 a22 + b22 โฏ am2 + bm2 Beispiel: โ1 โ3 โ5 โ 2 โ โ6 4 โ + โ5 6 โ โ4 = (aij ) und B = (bij ): โฏ a1n + b1n โ โฏ a2n + b2n โ โ โฑ โฏ โฏ amn + bmn โ 3 โ โ7 2 โ = โ8 1 โ โ9 5โ 6โ 7โ Matrizen können nur addiert, wenn sie die gleichen Dimensionen haben. Hier: 3×2 + 3×2 = 3×2 3.5.4 Multiplikation von Matrizen โ —3— Das Kommutativgesetz (AB = ๎ BA) gilt nicht! 16 Beispiel: โ1 โ3 โ5 โ 2โ 1 4โ ⋅ ( 4 6โ 2 5 โ9 3 ) = โ19 6 โ29 12 26 40 15โ 33โ 51โ Matrizen können nur multipliziert werden, wenn die Spalte der linken Matrix die gleiche Dimension wie die Zeilen der rechten Matrix hat. Hier: 3×2 ⋅ 2×3 = 3×3 3.5.5 R als Ring ๐ก โ —3— Sei R ein Ring und m, n ∈ N, dann gilt: ๎1๎ Matm,n (R) ist eine abelsche Gruppe bzgl. + 17 โ ๎2๎ Die Multiplikation von Matrizen ist assoziativ, d.h. es gilt: โ ๎3๎ Zwischen Addition und Multiplikation gilt das Distributivgesetz, d.h: โ (A ⋅ B) ⋅ C = A ⋅ (B ⋅ C) A ⋅ (B + C) = (A ⋅ B) + (A ⋅ C), (B + C) ⋅ A = (B ⋅ A) + (C ⋅ A) Matm (R) ist ein Ring bzgl. + und ⋅. Selbst wenn R kommutativ ist, ist es Matm (R) niemals, solange m ≥ 2. 3.5.6 K als Körper ๐ก Sei K ein Körper, m, n ∈ N sowie A ∈ Matm,n (K) und b ∈ K m . Sei c ∈ L(A, b) ein beliebiges Element, dann gilt: L(A, b) = {c + cโฃc ∈ L(A, 0)} 3.5.7 Inverse Matrix ๐ก Wenn es zu einer quadratischen Matrix A eine Matrix A−1 gibt mit AA−1 = A−1 A = I, dann heißt die Matrix A invertierbar oder regulär. โ โก Die Inverse von A hat dieselbe Dimension wie A und ist eindeutig ( โ) bestimmt. โก Eine quadratische Matrix, die nicht invertierbar ist, heißt singulär. โก Eine Matrix A ist genau dann invertierbar, wenn gilt: det(A) =๎ 0. โ —3— "Eindeutig bestimmt": Wenn wir zu A eine Matrix B gefunden haben, die die Eigenschaft AB = BA = I erfüllt, dann ist B die einzige Matrix dieser Art. 18 2 AB = ( −1 ๐ก 4 b ) ∗ ( 11 3 b21 b12 2b + 4b21 ) = ( 11 b22 −b11 + 3b21 2b12 + 4b22 1 )=( −b12 + 3b22 0 0 ) 1 ≥ 1. Dann heißen die Elemente von GLm (R) := Matm (R)x (über R) invertierbare Matrizen. Sei R ein Ring und m โ โก Hat eine Matrix A eine Nullzeile oder Nullspalte, so ist sie nicht invertierbar. Ist die Koeffizientenmatrix A eines LGS quadratisch und invertierbar, so โก besitzt das System genau eine Lösung โก Ist B eine invertierbare Matrix, so gilt L(A, b) = L(BA, Bb) für alle LGS. Es bedeutet x ∈ L(A, b) ja gerade Ac = b. 3.5.8 Elementarmatrix โ โก Multipliziert man eine n × p - Matrix A von links mit einer Elementarmatrix, so entspricht das einer elementaren Zeilenumformung der Matrix A. โก Elementarmatrizen können auch von rechts an eine Matrix A multipliziert werden und entsprechen dann elementaren Spaltenumformungen von A. ๐ก Sei K ein Körper und m aus Matm (K) von einem der folgenden drei Typen: ๎1๎ Für 1 —3— ∈ N. Eine Elementarmatrix (über K ) ist eine Matrix ≤i≤j≤m 19 ๐ก Pij A entsteht aus A durch Vertauschen der i-ten und j-ten Zeile. ๎2๎ Für 1 ๐ก Si (λ)A entsteht aus A durch Multiplikation der i-ten Zeile mit λ. ๎3๎ Für 1 —3— ≤ i ≤ m und 0 = ๎ λ∈K ≤ i, j ≤ m, i= ๎ j, 0= ๎ λ∈K 20 ๐ก Mji (λ)A entsteht durch Addition des λ-fachen der i-ten Zeile zur j-ten Zeile. โ โกโก Jede Elementarmatrix ist invertierbar über K . Eine quadratische Matrix in reduzierter Zeilenstufenform ohne Nullzeilen ist die Einheitsmatrix. Inverse von Elementarmatrizen sind selbst wieder Elementarmatrizen โก Sei K ein Körper, m โ โกโก โก ∈ N und A ∈ Matm (K), dann sind äquivalent: A ∈ GLm (K) A ist ein Produkt von endlich vielen Elementarmatrizen. A lässt sich durch elementare Zeilenumformungen zur Einheitsmatrix transformieren. —3— 21 —4— 4 Vektorräume und lineare Abbildungen 4.1 Vektorräume 4.1.1 Definition โ (a1 , a2 , … an ) ∈ Rn nennt man Vektor. → Rn ist der Vektorraum Vektoren im R2 sind bspw. a = (2, 3) oder b = (0, −1) Vektoren im R5 sind bspw. c = (1, 4, 0, −2, −1) Ein n๎Tupel ๎1๎ Ein K ๎Vektorraum ist eine abelsche Gruppe ๐ก (V , +) zusammen mit der Verknüpfung ⋅:K×V →V genannt die Skalarmultiplikation, sodass für alle λ, γ โก λ ⋅ (v + w) = (λ ⋅ v) + (λ ⋅ w) โก (λ + γ) ⋅ v = (λ ⋅ v) + (γ ⋅ v) โก (λγ) ⋅ v = λ ⋅ (γ ⋅ v) โก1⋅v = v ∈ K und v, w ∈ V gilt: ๎2๎ Die Elemente von V heißen Vektoren, die Elemente von K Skalare. Das neutrale Element der abelschen Gruppe V heißt Nullvektor/Ursprung. 4.1.2 Addition von Vektoren ๐ก —4— Die Summe von zwei Vektoren a (b1 , … , bn ) ∈ Rn ist der Vektor: โ โ โ โ โ = (a1 , … , an ) ∈ Rn und b = โ 1 โa1 โ โb1 โ โ a1 + b1 โ โ⋅โ โ⋅โ โ ⋅ โ โ โ โ โ โ a+b= โ โ ⋅ โ+โ ⋅ โ=โ ⋅ โ โ⋅โ โ⋅โ โ ⋅ โ โan โ โbn โ โan + bn โ ๐ก Je zwei Elemente a, b ∈ V wird ein Element a + b ∈ V zugeordnet, sodass (V , +) eine abelsche Gruppe wird, d.h.: โก a + b = b + a → Kommutativität โก a + (b + c) = (a + b) + c → Assoziativität โก a + 0 = a → Existenz eines neutralen Elements โก a + (−a) = 0 → Existenz eines inversen Elements โ für a, b, c ∈ V , das neutrale Element 0 ist der Nullvektor und das zu a inverse Element ist −a. 4.1.3 Skalarmultiplikation ๐ก Die Multiplikation des Vektors a ∈ Rn mit einem Skalar k ∈ R ist der Vektor: โa1 โ โ k ⋅ a1 โ โ⋅โ โ ⋅ โ โ โ โ k⋅a = k⋅โ โ ⋅โ=โ ⋅ โ โ⋅โ โ ⋅ โ โan โ โk ⋅ an โ → Das Ergebnis jeder dieser beiden Rechenoperationen ist wieder ein Vektor im Rn . โก k(ha) = (kh)a โก 1a = a โก k(a + b) = ka + kb → Distributivgesetz โก (k + h)a = ka + ha โ für alle a, b ∈ V und h, k ∈ K : V wird ein Vektorraum (über dem Körper K) genannt. —4— 2 ๐ก 4.1.4 —4— = R → reeller Vektorraum Ist K = C → komplexer Vektorraum Ist K โ Good To Know - Vektorräume โ ๎1๎ Für m โ ๎2๎ Etwas allgemeiner ist für m, n ≥ โ ๎3๎ Sei M eine beliebige Menge. Die Menge: F (M, K) โ ๎4๎ Die Menge aller Polynome mit Koeffizienten aus K ist ein K ๎Vektorraum. โ ๎5๎ Für jeden Körper K existiert der Nullvektorraum, i.e. V ≥ 1 ist K m ein K ๎Vektorraum. 0 stets Matm,n (K) ein K ๎Vektorraum. = {f : M → K} aller K -wertigen Abbildungen auf M ist nicht nur ein Ring, sondern kann auch als K ๎Vektorraum aufgefasst werden. = {0}. Die Verknüpfungen sind dabei eindeutig bestimmt. Man nennt ihn auch den trivialen Vektorraum. 3 โ ๎6๎ Sind V , W zwei K ๎Vektorräume, so kann man das karthesische Produkt V × W wieder als K ๎Vektorraum auffassen. Addition und Skalarmultiplikation sind komponentenweise definiert: โ ๎7๎ Für 0 = ๎ v ∈ V und λ, γ ∈ K mit λ = ๎ γ gilt stets: λv = ๎ γv โ ๎8๎ Für K = Z/2Z gilt: K 2 = {(0, 0)t , (0, 1)t , (1, 0)t , (1, 1)t } Wichtige Eigenschaften von Vektorräumen: โ โกโก โก โก 0a = 0 k0 = 0 (−1)a = −a a − b = a + (−b) 4.1.5 Untervektorraum ๐ก Sei V ein K ๎Vektorraum und U ⊆ V eine nichtleere Teilmenge. ๎1๎ U heißt K ๎Untervektorraum von V , falls gilt: —4— 4 v, w ∈ U ⇒ v + w ∈ U λ ∈ K, v ∈ U ⇒ λv ∈ U ๎2๎ U heißt affiner K ๎Unterraum von V , falls ein v ∈ V existiert, sodass: v + V := {v + uโฃu ∈ U} ein K ๎Untervektorraum von V ist. Dabei heißt dann v + U der zu U parallele Untervektorraum. โ โก Untervektorräume sind niemals leer. โก Die Vektoraddition und die skalare Multiplikation sind auf U abgeschlossen. โก Fehlt in U der Nullvektor 0, so ist U kein Untervektorraum. โ ๎1๎ Jeder Untervektorraum U enthält den Nullvektor. โ ๎2๎ Jeder K ๎Untervektorraum von V ist mit den eingeschränkten โ ๎3๎ Der Durchschnitt einer beliebigen Familie von Untervektorräumen von V โ Verknüpfungen selbst wieder ein K ๎Vektorraum. ist wieder ein Untervektorraum. ๎4๎ Jeder Untervektorraum ist ein affiner Unterraum. Die Umkehrung gilt im Allgemeinen nicht. Genauer ist ein affiner Unterraum U genau dann auch ein Untervektorraum, wenn 0 —4— ∈ U. 5 4.1.6 Lösungsmenge ๎1๎ Für A ∈ Matm,n (K) ist die Lösungsmenge L(A, 0) ⊆ K n des von A definierten homogenen Gleichungssystem ein K ๎Untervektorraum. ๎2๎ Fpr A ∈ Matm,n (K) und b ∈ K m ist die Lösungsmenge L(A, b) ⊆ K n des inhomogenen Systems ein affiner K ๎Unterraum. Für jedes beliebige c ห∈ L(A, b) gilt ja: (−cห) + L(A, b) = L(A, 0) → (−b + b = 0) ๎3๎ Für d ∈ N ist aller Polynome vom Grad höchstens d ein Untervektorraum des Vektorraums K[t]. 4.1.7 Linearkombination ๐ก Seien V ein K ๎Vektorraum, v1 , … , vr \in V und λ1 , … , λr ∈ K . Dann heißt das Element λ1 v1 + โฏ + λr vr ∈ V eine Linearkombinatioin der Vektoren v1 , … , vr → leere Linearkombination (r=0) = Nullvektor 4.1.8 Kleinster Untervektorraum - Definition ๐ก Sei V ein K ๎Vektorraum und M ⊆ V eine beliebige Teilmenge. Dann gilt: → und dies ist der kleinste Untervektorraum, der M enthält. —4— 6 4.1.9 Spann โ ⊆ V bezeichnen wir die Menge aus "Kleinster Untervektorraum Definition" als K -lineare Hülle oder Spann über K von M und verwenden ๎1๎ Für M dafür auch die Bezeichnung: Spank (M) → Spann über K von M = kleinere K ๎Unterraum von V , der M enthält. โ ๎2๎ Ein K ๎Vektorraum heißt endlich erzeugt oder endlich dimensional, wenn es eine endliche Teilmenge M ⊆ V gibt mit : Spank (M) = V Beispiel: ๐ก ๎1๎ Hat die Menge M nur ein Element, so ist jede Linearkombination von Elementen aus M nur ein Vielfaches dieses einen Vektors. โก Mann muss sich den Span K (M)also als Ursprungsgerade vorstellen ( Ausnahme: Nullvektor) Betrachte man also bspw. den R๎Vektorraum R2 und darin die einelementige Menge M = {(1, 1)t } → SpanR (M) ist die Unsprungsgerade durch den Punkt (1, 1)t : —4— 7 Betrachtet man M = {(1, 1), (0, 1)} ⊆ R2 so ergibt sich SpanR (M) = R2 . Es reicht für die lineare Hülle nicht, nur Vielfache der beiden Vektoren zu betrachten, man muss auch Summen zulassen: Rechnerisch: Man wählt (a, b)t ∈ R2 beliebig und setzt λ = a γ = b − a: 1 0 λ a a λ⋅( )+γ ⋅( )= ( ) = ( ) → Hint : ( ) 1 1 λ+γ b a + (b − a) = b → so erhält man den Vektor (a, b)t als R๎Linearkombination der Elemente von M ๐ก ๎2๎ Für jedes m ∈ N und jeden Körper K ist K m ein endlich erzeugter K - Vektorraum: โ1 โ โ0 โ โ0 โ โ0 โ โ1 โ โ0 โ e1 = โ โ , e2 = โ โ , … , em = โ โ → SpanK ({e1 , … , em }) = K m โโฎโ โโฎโ โโฎโ โ0 โ โ0 โ โ1 โ ๐ก ๎3๎ Der K ๎Vektorraum K[t] aller Polynome ist nicht endlich erzeugt. Endlich viele Polynome sind immer vom Grad beschränkt. Beim Übergang zum Spann entstehen niemals Polynome von höherem Grad. —4— 8 4.1.10 Spaltenraum ๐ก ∈ Matm,n (K) gegeben. Die n Spalten von A sind Elemente von K m , wir bezeichnen sie mit a1 , … , an . Für c = (c1 , … , cn )t ∈ K n gilt dann ei A Ac = c1 a1 + โฏ + cn an und somit gilt: SpanK ({a1 , … , an }) = {Acโฃc ∈ K n } ๐ก Diese Menge bezeichnet man als den Spaltenraum von A. Man erkennt, dass das durch (Aโฃb) definierte LGS genau dann eine Lösung hat, wenn b zum Splatenraum von A gehört. 4.2 Lineare Unabhängigkeit, Basen und Dimension 4.2.1 Lineare Unabhängigkeit, Erzeugendensystem, Basis ๐ก Sei V ein K ๎Vektorraum und v1 , … , vm ∈ V. ๎1๎ Das Tupel (v1 , … , vm ) heißt K -linear unabhängig, falls für alle λ1 , … , λm aus K gilt: λ1 v1 + โฏ + λm vm = 0 ⇒ λ1 = โฏ = λm = 0 โก Ansonsten heißt es K-linear abhängig. ๎2๎ (v1 , … , vm ) heißt K ๎Erzeugendensystem von V falls: SpanK ({v1 , … , vm }) = V ๎3๎ Das Tupel (v1 , … , vm ) heißt K ๎Basis von V , falls es linear unabhängig ๎1๎ und ein Erzeugendensystem von V ๎2๎ ist. → dann ist es eine Basis von V . —4— 9 ๐กโก Linear unabhängig sind Vektoren v1 , … , vm genau dann, wenn der Nullvektor nur als Linearkombination aus ihnen entsteht, wenn alle Koeffizienten dabei Null sind. โก Im R 2 sind die beiden Vektoren v1 = (1, 1)t , v2 = (2, 1)t linear unabhängig. Man kann sie also nicht skalieren und addieren und damit den Nullpunkt erreichen. ๎4๎ Der Nullvektor ist der einzige Vektor, der für sich allein linear abhängig ist. 4.2.2 โ Good To Know - Lineare Unabhängigkeit, Erzeugendensystem, Basis โ โ โ ๎1๎ (v1 , … , vm ) bildet eine Basis von V . ∈ V existieren eindeutig bestimmte Skalare λ1 , … , λm ∈ K mit v = λ1 v1 + โฏ + λm vm . ๎2๎ Zu jedem v ๎3๎ (v1 , … , vm ) ist maximal linear unabhängig, d.h. das Hinzufügen eines beliebigen weiteren Vektors führt stets zur linearen Abhängigkeit. → (v1 , … , vm+1 ) —4— 10 โ โ โ ๎4๎(v1 , … , vm ) ist ein minimales Erzeugendensystem, d.h. , wenn man ein beliebiges vi wegnimmt, spannen sie nicht merh V auf. ๎5๎ Jeder endlich erzeugter K ๎Vektorraum besitzt eine Basis. (v1 , … , vm ), ein Erzeugendensystem von V sowie (w1 , … , wn ) linear unabhängig, dann gilt: n ≤m. Je zwei Basen von V haben dieselbe Länge. Es gibt unter v1 , … , vm Vektoren vi1 , … , vir , sodass (w1 , … , wn , vi1 , … , vir ) eine Basis von V bildet. ๎6๎ Sei V ein eindlich erzeugter K ๎Vektorraum โก โก โก 4.2.3 Dimension ๐ก Sei V ein endlich erzeugter K ๎Vektorraum. Die Dimension von V (über K ) ist die Länge einer bzw. jeder Basis von V : ๐ข dim K (V ) Beispiel: Man betrachte den K ๎Vektorraum ๐ก Km Standardbasis: (e1 , … , em ) → besteht aus genau m Vektoren. Somit besteht jede andere Basis ebenfalls aus m Vektoren und es gilt: dimK (K m ) = m Jedes Erzeugendensystem von K m hat mindestens m Elemente und jede Menge linear unabhängiger Vektoren hat höchstens m Elemente. —4— 11 โ Die Vektoren v1 , … , vm ∈ K m bilden genau dann eine K ๎Basis von K m , wenn die Matrix M = (v1 , … , vm ) ∈ Matm (K) invertierbar über K ist. wenn det(M) = ๎ 0 โก โก wenn die Spalten linear unabhängig sind. 4.2.4 Basis von Lösungsmengen ๐ก Sei (A, b) die erweiterte Koeffizientenmatrix eines linearen Gleichungssystems über K . โก Dann ist L(A, b) ⊆ K n ein affiner Unterraum und für jedes beliebige c ห∈ L(A, b) gilt: L(A, b) = cห + L(A, 0) โก Weiter ist L(A, 0) ein Untervektorraum und wir können für ihn eine endliche Basis (v1 , … , vs ) finden. Dadurch kann man L(A, b) ausdrücken als: Basis von L(A, 0) finden: ๎1๎ Zunächst bringt man A mit elementaren Zeilenumformungen auf Zeilenstufenform. โ โก Dabei ergeben sich: r Pivotspalten und โก n - r freie Variablen ๎2๎ Für jede freie Variable konstruiert man sich einen Lösungsvektor, indem man für eine der freien Variablen den Wert 1, für die anderen freien Variablen 0 wählt. (dies wiederholt man für alle freien Variablen) ๎3๎ Dadurch erhält man n-r viele Vektoren, die eine Basis von L(A, 0) bilden —4— 12 โ Somit ist auch DimK (L(A, 0)) = n−r 4.3 Lineare Abbildungen 4.3.1 Definition: Lineare Abbildung โ : Kn → Kn betrachtet, die also eine Vektor x ∈ K n auf einen Vektor y = F (x) ∈ K m In diesem Abschnitt werden Abbildungen der Form: F abbilden. Beispiele: Sei K = R, n = m = 2, die Abbildung: F : R2 → R2 โก Die Abbildung ordnet jedem Vektor x = (x , x ) ∈ R gespiegelten Vektor F (x) 1 2 2 mit F (x) = −x 2 den am Koordinatenursprung = (−x1 , −x2 ) ∈ R zu. Bspw. wird x = (4, −2) auf F (x) = (−4, 2) abgebildet. Mithilfe einer Matrix: ๎1๎ Ermittlung der Bilder der Standardbasisvektoren des R2 : 1 −1 F (( )) = ( ) und 0 0 −1 0 Daher ist ( 0 0 F (( )) = ( ) 1 −1 0 ) die gesuchte Matrix. Mit ihrer Hilfe kann die Abbildungsvorschrift −1 als: −1 F (x) = Ax = ( 0 Sei K = R, 0 x −x ) ( 1 ) = ( 1 ) = −x geschrieben werden. −1 x2 −x2 n = 3, m = 2, die Abbildung: F : R → R 3 2 โก Die Abbildung ordnet jedem Vektor x = (x , x , x ) ∈ R 1 2 3 3 โx1 โ x mit F (โx2 โ) = ( 1 ) x2 โx3 โ den Vektor F (x) = (x1 , x2 ) ∈ R zu. Bspw. wird x = (2, 3, 7) auf F (x) = (2, 3) abgebildet. 2 Definition - linear —4— 13 ๐ก Seien V (= K n ), W (= K m ) zwei K ๎Vektorräume: ๎1๎ Eine Abbildung φ : V → W heißt linear, falls für alle v1 , v2 ∈ V , λ ∈ K stets gilt: φ(v1 + v2 ) = φ(v1 ) + φ(v2 ) und F (a + b) = F (a) + F (b) und โ φ(λv1 ) = λφ(v1 ) F (ka) = kF (a) bzw. : K n → K m ist genau dann linear wenn sie in der Form F (x) = Ax mit einer (m, n)๎Matrix A geschrieben werden kann. Eine Abbildung F Bilder der Standardbasisvektoren Standardbasisvektoren e1 , … , en โ1 โ โ0 โ โ0 โ Bilder von R : F (โ0โ), F (โ1โ), F (โ0โ) โ0 โ โ0 โ โ1 โ 3 โ1 โ โ0 โ โ0 โ โ0 โ 0โ โ1 โ โ0 โ โ0 โ Bilder von R4 : F (โ โ0โ), F (โ0โ), F (โ1โ), F (โ0โ) etc. โ0 โ โ0 โ โ0 โ โ1 โ Definition - Isomorphismus ๎2๎ Eine lineare Abbildung φ : Abbildung ψ V → W heißt Isomorphismus, falls eine lineare : W → V existiert mit : ψ โ φ = idv und φ โ ψ = idw Definition - isomorph ๎3๎ V und W heißen isomorph, falls ein Isomorphismus φ : V → W existiert. Wir schreiben: V ≅W 4.3.2 โ Good To Know - Lineare Abbildungen โ —4— Jede Matrix A ∈ Matm,n (K) definiert durch Matrixmultiplikation von links eine lineare Abbildung: 14 μA : K n → K m c โฆ Ac In dieser Notation gilt: L(A, b) = μ−1 A (b) → Das LGS zu lösen bedeutet also, das Urbild vom Vektor b unter der Abbildung μA zu bestimmen. โ Ein Isomorphismus ist offensichtlich immer bijektiv. Umgekehrt ist aber auch โ Isomorphie ist ein verallgemeinerter Gleichheitsbegriff für Vektorräume. Zwei jede bijektive lineare Abbildung ein Isomorphismus. isomorphe Vektorräume sind eigentlich völlig identisch, nurtragen ihre Elemente eventuell verschiedene Namen. Ein Isomorphismus φ : V → W gibt dabei einfach die Umbenennung der Elemente an. 4.3.3 Rechenregeln ๐ก Seien V , W zwei K ๎Vektorräume, dann gilt: ๎1๎ φ(0) = 0 und ๎2๎ φ(−v) = −φ(v) 4.3.4 Matrix einer linearen Abbildung Beispiel 1๎ (in der Form F (x) = Ax) โx1 โ x F : R → R mit F (โx2 โ) = ( 1 ) x2 โx3 โ 3 2 โ Die Abbildung ist linear. Begründung: โก โx1 โ a11 x1 + a12 x2 + a13 x3 Die Abbildung ist linear, da sie die Form F (โx2 โ) = ( ) a21 x1 + a22 x2 + a23 x3 โx3 โ hat. โก Die Matrix A erhalten wir, indem wir die Bilder der Standardbasis des R —4— 3 ermitteln: 15 โ1 โ โ0 โ โ0 โ 1 0 0 F (e1 ) = F (โ0โ) = ( ) , F (e2 ) = F (โ1โ) = ( ) , F (e3 ) = F (โ0โ) = ( ) 0 1 0 โ0 โ โ0 โ โ1 โ ๐ก die obersten 2 Werte der Standardbasis werden genommen, weil R 3 auf R2 abgebildet wird โก Diese 3 Vektoren bilden die Spalten von A, also โก 1 Probe: Ax = ( 0 0 1 x 0 โ 1โ x ) ⋅ โx2 โ = ( 1 ) 0 โ โ x2 x3 Beispiel 2๎ (in der Form F (x) = Ax) x x +3 F : R2 → R2 mit F (( 1 )) = ( 1 ) x2 x1 + x2 1 A=( 0 0 1 0 ) 0 โ ๐ซ Die Abbildung ist nicht linear. Begründung: โก Die Abbildung hat nicht die Form F (x) = Ax. โก Würde man die Bilder der Standardbasis R ermitteln: 2 1 4 0 3 F (e1 ) = F (( )) = ( ) und F (e2 ) = F (( )) = ( ) 0 1 1 1 ๐ก damit wäre die Matrix A = (41 31) โก Mit diesem A erhalten wir die lineare Abbildung: 4 Ax = ( 1 3 x 4x + 3x2 ) ⋅ ( 1) = ( 1 ) 1 x2 x1 + x2 ๐ซ Aber diese Abbildung ist ungleich F ! —4— 16 โ Eine Abbildung der Form F (x) = Ax + b (siehe Bsp. 2๎ ist keine lineare Abbildung, sondern wird als affine Abbildung bezeichnet. Beispiel 2๎ (in der Form F (x) = Ax) 4.3.5 Dimensionsformel ๐ก Seien V , W zwei Vektorräume und φ : V → W eine lineare Abbildung. Dann heißt: Kern(φ) := φ−1 (0) = {v ∈ V โฃφ(v) = 0} der Kern von φ. ๐ก Für eine Matrix A ∈ Matm,n (K) gilt offensichtlich: Kern(μA ) = L(A, 0) โ โก Hier gilt: Es sind Kern(φ) โก ⊆ V und Bild(φ) ⊆ W jeweils Untervektorräume. Es ist φ genau dann injektiv, wenn Kern(φ) = {0} gilt Beispiel: ๐ก Wir betrachten die lineare Abbildung: φ : R2 → R2 (a, b)t โฆ a − b = {(a, b)t ∈ R2 โฃa = b} = {(a, a)โฃa ∈ R} genau die Diagonale in R2 , ein eindimensionaler Untervektorraum. Insbesondere ist φ nicht injektiv. Es gilt Bild(φ) = R1 . Es ist Kern(φ) —4— 17 Dimensionsformel: Sei V ein endlich-dimensionaler K ๎Vektorraum, W ein weiterer K ๎Vektorraum und φ : V → W eine lineare Abbildung, dann gilt: dimK (V ) = dimK (Kern(φ)) + dimK (Bild(φ)) โ Seien V , W zwei endlich-dimensionale K ๎Vektorräume mit dimK (V ) = dimK (W ) sowie φ : V → W eine lineare Abbildung, dann sind äquivalent: φ ist injektiv φ ist surjektiv φ ist bijektiv โก โก โก โ โก Für eine quadratische Koeffizientenmatrix A ∈ Matm (K) sind äquivalent: L(A, 0) = {0} Für jedes b ∈ K m besitzt das LGS mit erwiterter Koeffizientenmatrix (A, b) โก eine Lösung. โก A ist invertierbar. 4.3.6 Rang einer Matrix ๐ก ∈ Matm,n (K) definieren wir den Rang als rang(A) := dimK (Bild(μA )) Für A โก Der Rang von A ist also genau die maximale Anzahl linear unabhängiger Spalten von A. โก Der Rang einer Matrix A ist gleich dem Rang der transponierten Matrix A . โก Eine Abbildung ist genau dann surjektiv, wenn rang(A) = m gilt. Genau dann ist auch das LGS (A, b) für jedes b ∈ K lösbar. โก Bei elementaren Zeilenumformungen ändert sich der Rang von A nicht. Solche T m Umformungen entsprechen der Multiplikation von links mit invertierbaren Matrizen. โ —4— In German: Der Rang einer Matrix A ist die Anzahl der linear unabhängigen Zeilen der Matrix. 18 Beispiel: โ1 A = โ0 โ0 2 1 0 0โ 1โ 0โ โก Die 3 Zeilen als Vektoren betrachtet sind linear abhängig, weil jede Menge von Vektoren, die den Nullvektor enthält, linear abhängig ist. Wenn man den Nullvektor weglässt, so bleiben die beiden Zeilen (1 2 0) und (0 1 1) übrig, und die sind linear unabhängig. Daher ist rang(A) = 2. โ Ein LGS ist genau dann lösbar, wenn der Rang der Koeffizientenmatrix gleich dem Rang der erweiterten Koeffizientenmatrix ist. 4.3.7 Bild einer Matrix ๐ก Das Bild einer (m, n)๎Matrix A ist definiert als: Bild(A) = {Axโฃx ∈ K n } ⊆ K m โ In German: Also die Menge aller Vektoren, die durch Anwendung von A auf alle x ∈ K n erreicht werden. Alternativ kann auch vom Bild der linearen Abbildung F : K n → K m , F (x) = Ax gesprochen werden. Die Dimension des Bildes ist daher gleich dem Rang der Matrix A. Beispiel: โ1 A = โ0 โ1 1 1 0 2โ 1โ 1โ ๎1๎ Das Bild wird von den Spaltenvektoren von A aufgespannt, also: โ1 โ โ1 โ โ2 โ Bild(A) = LH{โ0โ , โ1โ , โ1โ} ∈ R3 โ1 โ โ0 โ โ1 โ —4— 19 โก Offensichtlich sind die drei Spaltenvektoren nicht linear unabhängig, denn der dritte ist ja die Summe der ersten beiden. Deshalb ist der dritte überflüssig und wir können ihn weglassen: โ1 โ โ1 โ Bild(A) = LH{โ0โ , โ1โ} โ1 โ โ0 โ โก Die verbleibenden beiden Vektoren sind nun aber linear unabhängig und damit ist das Bild von A die von diesen beiden Vektoren aufgespannte Ebene. Dimension des Bildes = Rang der Matrix = 2 4.3.8 Kern einer Matrix ๐ก โ Der Kern einer (m, n)๎Matrix A ist definiert als: Kern(A) = {xโฃAx = 0} ⊆ K n In German: Also die Menge aller Lösungen des homogenen Gleichungssystems Ax = 0. Der Kern besteht aus allen Vektoren x, die von F auf 0 abgebildet werden. โก Die Lösungen des homogenen Gleichungssystems bilden wieder einen Teilraum, da Addition und Multiplikation mit einem Skalar für Lösungen des homogenen Gleichungssystems wieder eine Lösung des homogenen Gleichungssystems ergibt: ๐ก Der Kern(A) einer (m, n)๎Matrix A bildet einen Teilraum des K n . Beispiel: โ1 A = โ0 โ1 1 1 0 2โ 1โ 1โ ๎1๎ Um den Kern zu bestimmen, muss das homogene Gleichungssystem Ax = 0 gelöst werden x1 + x2 + 2x3 = 0 x2 + x3 = 0 —4— 20 x1 + x3 = 0 ๎2๎ Nach Anwendung des Gauß-Algorithmus erhalten wir: x1 + x3 = 0 x2 + x3 = 0 0=0 = t ∈ R einsetzen. Man sieht, dass die Lösung von der Form (x1 , x2 , x3 ) = (−t, −t, t) ist. Der Kern ist also die Gerade, die vom Vektor (−1, −1, 1) aufgespannt ๎3๎ Für x3 wird โ−1โ Kern(A) = LH{โ−1โ} โ1 โ Die Dimension des Kerns ist somit 1. ๐กโก Zusammengefasst: Für gegebenes b ∈ K m hat das LGS genau dann mind. 1 Lösung, wenn b ∈ Bild(A). โก Hat man irgendeine Lösung x 0 des inhomogenen LGS gefunden, so erhält man alle anderen, indem man alle möglichen Lösungen des homogenen LGS hinzuaddiert: x = x0 + Kern(A) Insbesondere ist die Lösung x0 genau dann eindeutig, wenn der Kern nulldimensional ist: Kern(A) —4— = {0} 21 —5— 5 Die Determinante 5.1 Permutationen 5.1.1 Matrixschreibweise 1 2 … m ∧ σ=( ) σ(1) σ(2) … σ(m) Beispiel: Die Permutation π : {1, 2, 3, 4} → {1, 2, 3, 4} mit π(1) = 2 π(2) = 4 π(3) = 3 π(4) = 1 wird in der Zweizeilenform durch : 1 π=( 2 2 4 3 3 4 ) notiert. 1 5.1.2 Hintereinanderausführung von zwei Permutationen ๐ก —5— Die Hintereinanderausführung ist nicht kommutativ. 1 5.1.3 Inverse Permutation zu σ ๐ก Erhält man , indem man die beiden Zeilen vertauscht und dann die Spalten so ordnet, dass die Einträge in der ersten Zeile wieder in der richtigen Reihenfolge stehen. 5.1.4 Zykelschreibweise —5— 2 5.1.5 Elementfremde Zykeln ๐ก —5— Reihenfolge der Zykeln spielt keine Rolle. 3 5.1.6 Produkt von nicht elementfremden Zykeln ๐ก —5— Bei nicht elementfremden Zykel ist das Prpdukt von der Reihenfolge abhängig: 4 5.1.7 Inverse eines Zykels 5.1.8 Transposition ๐ก Ein Zykel der Länge 2 heißt Transposition. Transpositionen sind selbstinvers, d.h. : (25)−1 = (52) = 25 5.1.9 โ Good To Know - Permutationen โ Jede Permutation σ โ Ist eine Permutation σ ∈ Sm lässt sich als Produkt von elementfremden Zyklen schreiben. Deren Anzahl ist durch σ eindeutig bestimmt. ∈ Sm ein Produkt von k elementfremden Zykeln und τ ∈ Sm eine Transposition, so besteht στ aus k + 1 oder k − 1 elementfremden Zyklen. โ —5— Jede Permutation lässt sich als Produkt von Transpositionen schreiben. Deren Anzahl ist für jede Permuation modulo 2 eindeutig bestimmt. 5 5.1.10 Signatur ๐ก Für σ ∈ Sm ist sgn(σ) := (−1)S โก wobei S die Anzahl von Transpositionen ist. Dadurch erhält man die Signaturabbildung: sgn : Sm → {−1, 1} โ โ ๐ก Ein Zykel hat genau dann Signatur 1, wenn er eine ungerade Lönge hat. Gerade Länge: so gilt sgn(σ) Für σ, τ = (−1)r ∈ Sm gilt: sgn(στ) = sgn(σ) ⋅ sgn(τ) 5.2 Die Determinante 5.2.1 Leibnitz-Formel der Determinante ๐ก Für A = (aij )ij ∈ Matm (K) wird die Determinante definiert als: โก Dadurch ergibt sich die Determinantenabbildung: det : Mat m (K) →K Die Determinante einer (2, 2)๎Matrix A ist die Zahl โฃa det(A) =โฃโฃ 11 โฃ a21 —5— a12 a22 โฃ โฃ= a11 a22 − a21 a12 ∈ K โฃ โฃ 6 โ Die Determinante einer Matrix ist gleich der Determinante ihrer transponierten Matrix: det(A) = det(At ) 5.2.2 Entwicklungssatz von Laplace Die Determinante einer (n, n)๎Matrix ist eine Zahl aus K, die rekursiv berechnet wird. โก det(A) = a 11 → wenn n=1 und โก det(A) = a i+1 i1 (−1) ⋅ det(Ai1 ) + ai2 (−1)i+2 ⋅ det(Ai2 ) + โฏ + ain (−1)i+n ⋅ det(Ain ) für n > 1, wobei Aij jene (n-1, n- 1๎๎ Matrix ist, die aus A entsteht, wenn man die i-te Zeile und die j -te Spalte entfernt. โ In German: Man sucht sich eine Zeile (oder Spalte), in der möglichst viele Elemente gleich 0 sind (denn dann ist weniger zu rechnen). Die Elemente werden der Reihe nach mit der entsprechenden Unterdeterminante multipliziert und mit alternierenden Vorzeichen (siehe Abbildung unten) aufsummiert. โ+ − + … โ โ− + − … โ โ+ − + … โ โ โ โ โฎ โฎ โฎ โฑโ Beispiel: โ2 โ4 โ7 1 0 6 3โ 5โ 8โ โก Zeile 2 hat die meisten Nullen daher: โ Formel zur Erinnerung det(A) = ai1 (−1)i+1 ⋅ det(Ai1 ) + ai2 (−1)i+2 ⋅ det(Ai2 )... det(A) = 4(−1)2+1 ⋅ det(A21 ) —5— + 5(−1)2+3 ⋅ det(A23 ) 7 ๐ก det = Summe der Diagonaleinträge โฃ1 3โฃ โฃ โฃ โฃ −5 โฃ 2 1 โฃ= = −4 โฃโฃ โฃ โฃ7 6โฃ โฃ6 8โฃ โฃ โฃ −4((1 ⋅ 8) − (6 ⋅ 3)) − 5((2 ⋅ 6) − (7 ⋅ 1)) = 40 − 25 = 15 Die Determinante ist 15. 5.2.3 Invertierbarkeit ๐ก Eine (n, n)๎Matrix A ist genau dann invertierbar, wenn det(A) = ๎ 0. = b genau dann eindeutig lösbar, wenn −1 det(A) = ๎ 0 und die Lösung ist dann x = A b. Insbesondere ist das LGS Ax 5.2.4 Lösbarkeit eines Gleichungssystems - Beispiel ๐ก Zu bestimmen sind jeden Zahlen λ Gleichungssystem Ax 1−λ A=( 2 ๎1๎ Ist det(A) ∈ R, für die das homogene = 0 nicht-triviale Lösungen besitzt. 2 ) 1−λ = ๎ 0, so hat das homogene Gleichungssystem genau eine Lösung → die triviale. Also müssen jene Zahlen λ gefunden werden, für die det(A) = 0 gilt, denn dann gibt es auch nicht-triviale Lösungen. Berechnung der Determinante: —5— 8 det(A) = (1 − λ)2 − 4 = λ2 − 2λ − 3 โก Setzt man diese gleich 0 und löst die quadratische Gleichung, so erhält man λ1 = −1, λ2 = 3 5.2.5 Charakteristische Eigenschaften der Determinante โ โ det(I) = 1 Die Determinante ist linear in jeder Spalte. D.h. es gilt det(a1 , … , aj + bj , … , an ) = det(a1 , … , aj , … an ) + det(a1 , … , bj , … , an ) und det(a1 , … , kaj , … , an ) = k ⋅ det(a1 , … , aj , … , an ) fuฬr k ∈ K —5— โ Die Determinante ist alternierend, d.h. bei Vertauschen zweier Spalten ändert โ Wenn eine Spalte(Zeile) von A lauter Nullen enthält, so ist die Determinante โ Wenn zwei Spalten ๎Zeilen) von A gleich sind, so ist die Determinante gleich โ Wenn zwei Spalten ๎Zeilen) von A linear abhängig sind, so ist die โ Multiplikation der (n, n)๎Matrix A mit einem Skalar k sich das Vorzeichen der Determinante. gleich 0. 0. Determinante gleich 0 n Determinante mit k : det(kA) ∈ K multipliziert die = k ⋅ det(A) n 9 ๐ซ ๐ซ โ โ โ —5— Achtung: Es ist also det(kA) Warnung: det(A + B) = ๎ k ⋅ det(A) = ๎ det(A) + det(B) det(AB) = det(A) ⋅ det(B) det(AB) = det(BA) det(A−1 ) = det(A)−1 10 —6— 6 Eigenwerte und Eigenvektoren 6.1 Eigenwerte und Eigenvektoren 6.1.1 Endomorphismus ๐ก φ:V →V … wobei V ein endlich-dimensionaler K-Vektorraum Eine lineare Abbildung von einem Raum in sich selbst heißt Endomorphismus. 6.1.2 Eigenwert und Eigenvektor ๐ก Ein λ ∈ K heißt Eigenwert von φ, falls es ein 0 = ๎ v ∈ V gibt mit φ(v) = λv. โก jedes solche v heißt dann Eigenvektor von φ zum Eigenwert λ. 6.1.3 Eigenraum ๐ก Zu einem Eigenwert λ von φ heißt: Eig(φ, λ) := {v ∈ V โฃφ(v) = λv} der zu λ gehörige Eigenraum von φ. 6.1.4 Spektrum ๐ก —6— Die Menge aller Eigenwerte von φ heißt das Spektrum von φ. 1 6.1.5 โ Good To Know - Eigenwerte und Eigenvektoren โ Ein Vektor 0 โ Die Bedingung 0 = ๎ v ist genau dann ein Eigenvektor von φ, wenn er durch φ nur skaliert, nicht aber in der Richtung verändert wird. = ๎ v ist wichtig, ohne sie wäre jedes λ ∈ K ein Eignewert von φ. Zum Eigenraum Eig(φ, λ) gehört der Nullvektor laut Definition aber immer. โ ๐ก Für jeden Eigenwert λ von φ ist Eig(φ, λ) ein Untervektorraum von V . Für v, w ∈ Eig(φ, λ) und γ ∈ K gilt: φ(v + w) = φ(v) + φ(w) = λv + λw = λ(v + w) und φ(γv) = γφ(v) = γλv = λ(γv) โ Eien Spiegelung des R2 an einer Ursprungsgeraden besitzt die Eigenwerte 1 โ Nicht jede lineare Abbildung besitzt Eigenwerte oder -vektoren. ๐ก Für A und ๎1. Der Eigenraum zum Eigenwert 1 ist die Spiegelungsgerade, die dazu orthogonale Ursprungsgerade ist der Eigenraum zum Eigenwert ๎1. ∈ Matm (K) und λ ∈ K sind äquivalent: โก λ ist Eigenwert von μ . โก Kern(λid m − μ ) =๎ {0} โก λI − A ist nicht invertierbar. โก det(λI − A) = 0 A K A m m —6— 2 Dabei gilt: 6.1.6 Charakteristisches Polynom ๐ก ∈ Matm (K) heißt pA := det(tIm − A) ∈ K[t] das charakteristische Polynom von A. Für A โก Für A ∈ Mat m (K) sind die Eigenwerte von μA gerade die Nullstellen von pA in K . Somti hat μA höchstens m verschiedene Eigenwerte. —6— 3