Lineare Algebra I/II, Dr. Christian Nelius, Zusammenfassung von Florian Schoppmann Das Copyright für die dieser Zusammenfassung zugrunde liegenden Vorlesungsunterlagen (Skripte, Folien, etc.) liegt beim Dozenten. Darüber hinaus bin ich, Florian Schoppmann, alleiniger Autor dieses Dokuments und der genannte Dozent ist in keiner Weise verantwortlich. Etwaige Inkorrektheiten sind mit sehr großer Wahrscheinlichkeit erst durch meine Zusammenfassung/Interpretation entstanden. Zusammenfassung Lineare Algebra §0 Grundlagen und Bezeichnungen 1) Eigenschaften von + und · auf R, (R, + · ) ist ein Körper 4) Axiome für ≤ Reflexivität, Antisymmetrie, Transitivität, Linearität =⇒ R, (R, + · ) ist ein angeordneter Körper 14) allgemeinrichtig: Formel hat immer Wahrheitswert wahr 24) Komplementmenge: CM (U ) := M \U (für U ⊆ M) 12) 2 Vektoren parallel ⇔ Vektorprodukt = 0 (beide Vektoren 6= 0) 13) Spatprodukt: (~u, ~v , w) ~ = h~u × ~v , wi ~ 14) 3 Vektoren linear abhängig ⇔ Spatprodukt =0 15) Cramer’sche Regel 16) Graßmann’scher Entwicklungssatz §5 Koordinatendarstellung von Vektoren 1) Orthonormalsystem 2) Koordinatendarstellung eines Vektors bzgl. eines Koordinatensystems 3) Berechnung der Produkte auf §4 im Anschauungsraum mit Koordinaten §1 Vektoren im Anschauungsraum 1) Vektoraddition 2) Skalarmultiplikation, Vektor der Länge 1 heißt normiert 3) Der Vektorraumbegriff, reeller Vektorraum mit Skalaren aus R §2 Geraden & Ebenen 1) Parameterdarstellung einer Geraden 2) Vektoren ~a, ~b parallel (~ak~b) =⇒ ~a, ~b 6= ~0, ~a = r · ~b, r ∈ R 3) Parameterdarstellung einer Ebenen §3 Lineare (Un-)Abhängigkeit 3) Dimensionsaxiom 4) 3 lin. unabhängige Vektoren b1 , b2 , b3 −→ eindeutig bestimmte Koeffizienten. Jeder Vektor ~v lässt sich darstellen als ~v = a1 b~1 + a2 b~2 + a3 b~3 mit geeig. a1 , a2 , a3 ∈ R §6 Matrizen 1) Def.: (m, n) ist Format einer (m×n)-Matrix 4) Eigenschaften der Addition und skalaren Multiplikation 5) Produkt aus Matrix und Spaltenvektor 8) Assoziativität der Matrizen-Multiplikation, im Allg. keine Kommutativität für n ≥ 2, Distributivität, Einheitsmatrix 10) Inverse Matrix (Berechnung), Einheitsmatrix 12) (A · B)−1 = B −1 · A−1 , (A−1 )−1 = A 13) transponierte Matrix, symmetrische: t A = A, antisymmetrische: t A = -A 14) Eigenschaften von transp. Matrizen (Rechenregeln) 15) Dreiecksmatrizen §7 lineare Gleichungssysteme 0 ··· 0 0 0 ··· 0 .. . §4 Produktbildungen 1) Inneres Produkt (Skalarprodukt) h~v , wi ~ := k~v k · kwk ~ · cos ϕ 3) 2 Vektoren orhtogonal ⇔ Skalarprodukt = 0 4) v1 , . . . , vn 6= 0 ∧ h~ vi , v~k i = 0 ∀i, k = 1, . . . , n, i 6= k 5) Ein Orthogonalsystem ist linear unabhängig 8) Hesse’sche Normalform einer Ebene 9) Abstand Punkt ↔ Ebene 10) Äußeres Produkt (Vektorprodukt) k~v × wk ~ = k~v k · kwk ~ · sin ϕ 11) Eigenschaften: Antisymmetrie, Bilinearitöt, Distributivität . 1) Basismatrizen .. 0 .. . 1 0 .. . .. . .. . 0 ··· 0 0 0 ··· 0 2) A = (aik ) ∈ Mm,n (K), P Pn A= m i=1 k=1 aik Eik 3) Elementarmatrizen: Vertauschungsmatrix, Additionsmatrix, Multiplikationsmatrix 4) Multiplikation einer Elementarmatrix von links → el. Zeilenumformung 5) Elementare Zeilenmatrizen sind invertierbar 1 Lineare Algebra I/II, Dr. Christian Nelius, Zusammenfassung von Florian Schoppmann Das Copyright für die dieser Zusammenfassung zugrunde liegenden Vorlesungsunterlagen (Skripte, Folien, etc.) liegt beim Dozenten. Darüber hinaus bin ich, Florian Schoppmann, alleiniger Autor dieses Dokuments und der genannte Dozent ist in keiner Weise verantwortlich. Etwaige Inkorrektheiten sind mit sehr großer Wahrscheinlichkeit erst durch meine Zusammenfassung/Interpretation entstanden. 6) LGS Ax = b inhomogen, wenn b 6= 0, sonst homogen, (erweiterte) Koeffizientenmatrix 7) Lös(A, b) = Lös(BA, Bb), b ∈ GLm (R) Einschub: Rechtfertigung des Induktionsbeweises auf Grundlage der Peano-Axiome 10) Rang einer Matrix 11) A sei quadr. Matrix: A invertierbar ⇔ rg(A) = n ⇔ T(A) = En ⇔ A ist Produkt von Elementarmatrizen 12) Berechnung der inversen Matrix (vgl. §6.10) 14) Lös(A, b) = v0 +Lös(A, 0m ) (Lösung des inhomogenen LGS setzt sich zusammen aus spezieller und allgemeiner“ Lösung des zu” gehörigen homogenen LGS) 15) Abgeschlossenheit der Lösungsmenge → Vektorraum §8 Gruppen, Ringe & Körper 1) Gruppen (Abgeschlossenheit, Assoziativität, neutr. El., inverse El., (wenn abelsch: Kommutativität) Halbgruppe: Menge mit assoziativer Verknüpfung (z.B. (N, +)) 3) Modulo-Restklassen 4 Untergruppe 6) Ringe: R ist Ring ⇔ (R, +) ist abelsche Gruppe, (R, ·) Halbgruppe mit neutr. El., Distributiv-Gesetz 7) Rechenregeln 9) Unterring: U ist Unterring ⇔ U Untergruppe von (R, +), U abgeschlossen bzgl. · und 1R ∈ U 10) Schiefkörper: Ring, bei dem 1 6= 0 und jedes Element 6= 0 invert. Wenn Mult. kommuativ: Körper 11) Beispiele! 12) Unterkörper: Unterring, das Inverse jedes El. 6= 0 ist wieder im Unterkörper §9 Vektorräume 1) formale Definition 2) Beispiele: Lösungsmengen hom. LGS’e, R über sich selbst 3) Nullteilerfreiheit 4) Unterraum: Abgeschlossenheit bzgl. Addition & skalarer Multiplikation, Nullelement enthalten 6) Schnitt, Addition zweier Unterräume wieder Unterraum, Vereinigung i.A. nicht 7) ,→ Erweiterung auf bel. # von Unterräumen 2 8) Linearkombination, sei E = {v1 , . . . , vn }, P LK (E) = ni=1 Kvi 9) Die Menge aller Linearkombinationen einer bel. Teilmenge eines Vektorraumes ist ein Unterraum 10) LC (1) = {z · 1|z ∈ C} = C 11) LK (E) ist der kleinste Unterraum von V , der E umfasst LK (E) ist der Durchschnitt aller Unterräume von V , die E umfassen 12) Erzeugendensystem E: LK (E) = V . Falls V ein ednl. EZW besitzt, ist V endlich erzeugbar. 13) Beispiel: R ist als Q-Vektorraum nicht endl. erzeugbar 14) vi ∈ LK (v1 , . . . , vi−1 , vi+1 , . . . , vn ) ⇔ LK (v1 , . . . , vn ) = LK (v1 , . . . , vi−1 , vi+1 , . . . , vn ) 15) Neue Definition für linear abhängig: mind. ein Vektor lässt sich als Linearkombination der anderen darstellen 17) Beispiele: {1, i} ist lin. abh. über C, unabh. über R §10 Die Dimension eines Vektorraumes 1) lin. unabh. Basis ⇔ eindeutige Darstellung jedes Vektors darüber 2) Basis = b lin. unabh. EZS 5) T = {v1 , . . . , vn } ⊆ V lin. unabh. ⇒ (∀v ∈ V : T ∪ {v} lin. unabh. ⇔ v ∈ / LK (T )) 6) Basis von V = b min. EZS von V = b max. lin. unabh. Teilmenge von V 7-8) Endl. erzeugbare VR’e haben endl. Basen 10) Austauschlemma 11) Austauschsatz von Steinitz 13) Alle Basen haben gleich viele Elemente 14) Dimension eines VR’s, Zeichen für unendlichDimensionalität: dim(V ) = ∞ 15) Auch unendl.-dim. VR’e besitzen (undendl.) Basen → Zorn’sches Lemma 2. Semester 16) V sei K−VR mit dimK (V ) = n Jede lin. unabh. Teilmenge hat ≤ n Elemente, jede lin. unabh. Menge T ⊆ V mit genau n El. ist Basis, jedes EZS E hat mind. n Elemente, jedes EZS E mit genau n El. ist eine Basis Lineare Algebra I/II, Dr. Christian Nelius, Zusammenfassung von Florian Schoppmann Das Copyright für die dieser Zusammenfassung zugrunde liegenden Vorlesungsunterlagen (Skripte, Folien, etc.) liegt beim Dozenten. Darüber hinaus bin ich, Florian Schoppmann, alleiniger Autor dieses Dokuments und der genannte Dozent ist in keiner Weise verantwortlich. Etwaige Inkorrektheiten sind mit sehr großer Wahrscheinlichkeit erst durch meine Zusammenfassung/Interpretation entstanden. 17) V endl. erzeugbar ⇒ Jede lin. unabh. Teilmenge T eines VR V lässt sich durch Hinzunahme geeigneter Vekotren zu einer Basis ergänzen. 18) Folgerung: U ⊆ V Unterraum, V endl. erzeugbarer VR ⇒ dim(U ) ≤ dim(V ), jede Basis von U lässt sich zu einer Basis von V ergänzen 19) Sei V endl.-dim. VR ⇒ ∀ U ⊆ V Unterraum: ∃ U 0 ⊆ V Unterraum: U + U 0 = 0 ∧ U ∩ U0 = 0 20) Direkte Summe zweier Unterräume, direkter Summand, direktes Komplement 21) V sei K-VR, U1 , U2 ⊆ V Unterräume ⇒ (V = U1 ⊕ U2 ⇔ Jeder Vektor v ∈ V lässt sich darstellen als v = u1 + u2 mit ui ∈ Ui (i = 1, 2)) 22) Direkte Summe mehrerer Vektorräume 23) V sei endl.-dim. K-VR, U1 und U2 Unterräume ⇒ dimK (U1 + U2 ) = dimK (U1 ) + dimK (U2 ) − dimK (U1 ∩ U2 ) Einschub: Abbildungen und Mengen 1) M und N seien Mengen: Eine Abbildung ordnet jedem Element aus M genau ein Element aus N zu. 2) Weitere Definitionen: Definitionsbereich, Wertemenge, Zuordnungsvorschrift, Graph einer Abbildung (eine Relation zwischen M und N ), linkstotal, rechtseindeutig Eine partielle Abbildung ist nur rechtseindeutig 3) Gleichheit zweier Abbildungen ist definiert durch Gleichheit von Wertemenge, Bildbereich und Bildwert jeder einzelnen Stelle der Wertemenge 4) f |U : U −→ N, (f |U )(x) = f (x) ∀x ∈ U 5) Bildmenge einer Teilmenge des Wertebereichs, Bildmenge des Wertebereichs =: Bild der Abbildung f , Urbildmenge einer Teilmenge der Wertemenge 6) g ◦ f heißt die Hintereinanderausführung von f und g 7) ,→ es gilt das Assoziativgesetz 8) injektiv, surjektiv, bijektiv 11) f und g beide injektiv (surjektiv bzw. bijektiv) ⇒ g ◦ f injektiv (surjektiv bzw. bijektiv) g ◦ f injektiv (surjektiv) ⇒ f injektiv (g surjektiv) g ◦ f bijektiv ⇒ f injektiv und g surjektiv 12) f bijektiv ⇔ ∃! g : N −→ M mit g ◦ f = idM und f ◦ g = idN 13) ,→ g = f −1 Umkehrabbildung (inverse Abbildung) 15) M und N seien nichtleere Mengen: M gleichmächtig zu N (M ∼ N ), wenn es eine bijektive Abb. M −→ N gibt, endliche Mengen, die leere Menge ist endlich |∅| = 0, unendliche Mengen (|M | = ∞) 16) N ist eine unendliche Menge, jedoch abzählbar unendlich (|N| = |N0 | = |Z| = |Q| = ℵ0 ), R ist überabzählbar (|R| = ℵ1 ) 19) M und N seien nichtleere endliche Mengen mit |M | = |N |. Für f : M −→ N gilt: f bijektiv ⇔ f injektiv ⇔ f surjektiv 20) ,→ für unedliche Mengen gilt dies i.A. nicht 21) Jede nichtleere endliche Menge natürlicher Zahlen besitzt ein kleinstes und ein größtes Element 20) Wohlordnung der geordneten Menge (N, ≤): Jede nichtleere Teilmenge von N besitzt ein kleinstes Element §11 Lineare Abbildungen 1) V und W seien K-VR’e. Eine Abb. f : V −→ W heißt K-linear, wenn gilt: L1 ) f (v + v 0 ) = f (v) + f (v 0 ) ∀ v, v 0 ∈ V und L2 ) f (av) = a · f (v) ∀ a ∈ K, v ∈ V HomK (V, W ) = b Menge aller K-lin. Abb. von V in W 3) Eigenschaften (Rechenregeln) 4) V und W seien K-VR’e ⇒HomK (V, W ) ⊆Abb(V, W ) K-Unterraum 5) f und g K-lin. ⇒ g ◦ f K-linear (sofern Definitionsbereich von g und Wertemenge von f gleich) 6) f : V −→ W, f K-linear im Folgenden ⇒ Kern(f ) := {v|v ∈ V, f (v) = 0W } ⊆ W 7) U ⊆ V Unterraum ⇒ f (U ) ⊆ W Unterraum X ⊆ W Unterraum ⇒ f −1 (X) ⊆ V Unterraum 8) Bild(f ) = f (V ) ist Unterraum von W , Kern(f ) = f −1 ({0W }) ist Unterraum von V 9) f injektiv ⇔ Kern(f ) = 0 f surjektiv ⇔ Bild(f ) = W 10) Eine bijektive K-lin. Abb. f : V −→ W ist K-Isomorphismus von V auf W V heißt K-isomorph zu W (V ∼ = W ), wenn ∃ K-Isomorphismus von V nach W 3 Lineare Algebra I/II, Dr. Christian Nelius, Zusammenfassung von Florian Schoppmann Das Copyright für die dieser Zusammenfassung zugrunde liegenden Vorlesungsunterlagen (Skripte, Folien, etc.) liegt beim Dozenten. Darüber hinaus bin ich, Florian Schoppmann, alleiniger Autor dieses Dokuments und der genannte Dozent ist in keiner Weise verantwortlich. Etwaige Inkorrektheiten sind mit sehr großer Wahrscheinlichkeit erst durch meine Zusammenfassung/Interpretation entstanden. 11) idV : V −→ V ist K-Isomorphismus f : V −→ W K-Isomporphismus ⇒ f −1 : W −→ V K-Isomorphismus, f : V −→ W und g : W −→ XK-Isomorphismen ⇒ g ◦ f : V −→ XK-Isomorphismus 12) (vgl. §16.16) V ∼ = V, V ∼ = W ⇒ W ∼ = V, ∼ ∼ ∼ V =W ∧W =X ⇒V =X 13) Für eine K-lin. Abbildung gilt: Die Bildmenge einer lin. unabh. Menge ist wieder lin. unabh. Ein EZS wird auf ein EZS des Bildes der Abb. abgebildet Ein EZS wird auf ein EZS der Wertemenge abgebildet, wenn die Abb. surjektiv ist. Ist das Bild der Abb. ein EZS der Wertemenge, so ist die Abb. surjektiv. 14) f, g : V −→ W K−lin. Abbildungen. Ist die Bildmenge eines beliebigen EZS’s unter f und g gleich, so folgt f = g (f |E = g|E ⇒ f = g, E bel. EZS von V ). 15) Lineare Fortsetzung Um eine lin. Abb. zu definieren, braucht man die Zuordnungsvorschrift nur für die Elemente einer (endl.) Basis von V anzugeben. Die Abb. ist dann auf ganz V definiert. 16) V , W endl.-dim. VR’e: V ∼ = W ⇔ dimK (V ) = dimK (W ) 18) rgK (f ) := dim(Bild(f )) 21) f : V −→ W , g : W −→ X, h : X −→ Y Klineare Abbildungen. Es gilt: f surjektiv ⇒ rgK (g ◦ f ) = rgK (g), h injektiv ⇒ rgK (h ◦ g) = rgK (g), f surjektiv und h injektiv ⇒ rgK (h ◦ g ◦ f ) = rgK (g) 22) V endl.-dim. ⇒ ∃U ⊆ V Unterraum mit V = Kern(f ) ⊕ U und U ∼ = Bild(f ) 23) V endl.-dim. ⇒ rgK (f ) < ∞ und dimK (V ) = dimK (Kern(f ))+rgK (f ) 24) dimK (V ) = dimK (W ) und V und W endl.dim. ⇒ (f injektiv ⇔ f surjektiv ⇔ f bijektiv) §12 Darstellungsmatrix einer K-lin. Abbildung K n −→ K m 1) Es gelte im Folgenden: f : K n −→ K m , Darstellungsmatrix von f bezeichnet mit M(f ) 3) Zu jeder Matrix A ∈Mm,n (K) gibt es eine entspr. K-lin. Abb. 4 5) ϕ(f ) : HomK (K n , K m ) −→ Mm,n (K), ϕ(f ) :=M(f ) ∀f ∈HomK (K n , K m ) ist ein K-Isomorphismus 6) M(g ◦ f ) =M(g)·M(f ) (sofern hintereinander ausführbar) 7) ,→ Beweis der Assoziativität der Matrizenmultiplikation möglich (vgl. §6.8) 8) f injektiv ⇒ Spalten von M(f ) lin. anabh. f surjektiv ⇒ Spalten von M(f ) bilden ein EZS von K m f bijektiv ⇒ Spalten von M(f ) bilden eine Basis von K m 9 f ist K-Isomprohismus ⇔ M(f ) invertierbar. Es gilt dann M(f )−1 =M(f −1 ) 10) A invert. ⇔ Spaltenvektoren von A bilden eine Basis von K n ⇔ Spaltenvektoren von A sind lin. unabh. 11) A invert. ⇔ ∃ C ∈Mn (K) : C · A = En ⇔ ∃ D ∈ Mn (K) : A · D = En Spaltenraum, Zeilenraum 12) Spaltenrang, Zeilenrang 14-19) Spaltenrang = Zeilenrang = Rang der Abbildung = Rang der Darstellungsmatrix 21) rg(A) = rg(B) ⇔ ∃ P ∈ GLm (K) und Q ∈ GLn (K) mit B = P · A · Q §13 Lineare Gleichungssysteme (II) 2) Sei A ∈ Mm,n (K): dimK (Lös(A, 0m )) = | {z Anz. der frei wählbaren Parameter } n |{z} − rg(A) Anz. der Unbekannten 3) Lösungsraum eines homogenen LGS 6) Entzerrungsalgorithmus §14 Determinantenformen 1) V ist K-VR, n ∈ N und f : V n −→ K eine Abb. Eigenschaften: n-linear, alternierend, schiefsymmetrisch 2) Die Menge der n-lin. (bzw. alternierenden bzw. schiefsymm.) Abb. von V n nach K ist ein Unterraum des K-VR’s Abb(V n , K). 3) Für eine alternierende n-lin. Abb. f : V n −→ K gilt: Die Addition eines Vielfachen eines Funktionsarguments zu einem anderen ändert nichts am Funktionswert; f ist schiefsymmetrisch; sind die Funktionsargumente lin. abh., so ist der Funktionswert von f = 0; dimK < n ⇒ f = 0 4) Sn ist die Menge aller Permutationen der Zahlen 1, 2, . . . , n Lineare Algebra I/II, Dr. Christian Nelius, Zusammenfassung von Florian Schoppmann Das Copyright für die dieser Zusammenfassung zugrunde liegenden Vorlesungsunterlagen (Skripte, Folien, etc.) liegt beim Dozenten. Darüber hinaus bin ich, Florian Schoppmann, alleiniger Autor dieses Dokuments und der genannte Dozent ist in keiner Weise verantwortlich. Etwaige Inkorrektheiten sind mit sehr großer Wahrscheinlichkeit erst durch meine Zusammenfassung/Interpretation entstanden. 5) Sei n ∈ N: (Sn , ◦) ist symmetrische Gruppe von n Elementen; (Sn , ◦) abelsch ⇔ n ≤ 2; |Sn | = n! 8) V ist K-VR der Dim. n. Eine Abbildung d : V n −→ K heißt Determinantenform auf V , wenn gilt: d ist n-linear und alternierend, d 6= 0 (Nullabbildung) 9) d(v1 , . . . , vn ) 6= 0 ⇔ {v1 , . . . , vn } lin. unabh. ⇔ {v1 , . . . , vn } ist eine Basis von V 10-13) Eindeutigkeit von Determinantenformen: ∃! (d : V n −→ K) : d(v1 , . . . , vn ) = 1K §15 Die Determinante einer Matrix 1) Sei A = (aik ) ∈Mn (K). det(A) := ( a11 (n = 1) Pn 1+k 0 a1k · det(A1k ) (n > 1) k=1 (−1) 2) det(A) ist eine Determinantenform auf K n 4) A ∈ Mn (K) ⇒ (A invertierbar ⇔ det(A) 6= 0K ) 5) Laplace’scher Entwicklungssatz (Entwicklung nach der i-ten Zeile) P det(A) := nk=1 (−1)i+k aik · det(A0ik ) 6) A, B ∈ Mn (K) ⇒ det(A·B) = det(A)·det(B) 7) A ∈ GLn (K) ⇒ det(A−1 ) = det(A)−1 9) A ∈ Mn (K) ⇒ det(t A) = det(A) 11) Laplace’scher Entwicklungssatz (Entwicklung nach der i-ten Spalte) P det(A) := ni=1 (−1)i+k aik · det(A0ik ) 12) Leibniz’sche Determinantenformel P det(A) := π∈Sn sign(π) · aπ(1),1 · . . . · aπ(n),n , mit sign(π) := (−1)ν(π) 13) A = (aik ) ∈ Mn (K) (n ≥ 2). Die Matrix Aad := (αik ) ∈ Mn (K) mit αik := (−1)i+k det(A0ki ) heißt die zu A adjungierte Matrix. 14) A · Aad = Aad · A = det(A) · En 16) Cramer’sche Regel: Sei A ∈ GLn (K) mit den Spalten s1 , . . . , sn und b ∈ K n . Dann ist die eindeutig bestimmte Lösung t (a , . . . , a ) ∈ K n des LGS’s Ax = 1 n b gegeben durch: ai = (det(A))−1 · det(s1 , . . . , si−1 , b, si+1 , . . . , sn ) (i = 1, . . . , n) 17) Eine Matrix A ∈ Mm,n (K) hat genau denn den Rang r ≥ 1, wenn die beiden folgenden Bedingungen erfüllt sind: A besitzt eine r-reihige Unterdeterminante 6= 0K und jede (r + 1)-reihige Unterdeterminante von A ist gleich 0K 18-20) Vandermonde’sche Determinante 21-22) Blockmatrizen: A1 A2 det .. . 0 ∗ At Qt = j=1 det(Aj ) Einschub: Das Vorzeichen einer Permutation 1-4) 5) 6-7) 8) Inversion, Vorzeichen sign(π) π, ρ ∈ Sn : sign(π ◦ ρ) = sign(π)· sign(ρ) Transposition An bezeichnet die Menge aller geraden Permutationen (d.h. ν(π) ist gerade) 9-10) An ist Untergruppe von Sn , (An , ◦) heißt alternierende Gruppe von n Elementen §16 Das Normalformenproblem a1 .. κB (v) = . ∈ K n heißt der Koordinaan tenvektor von v bzgl. der Basis B Darstellungsmatrix bzgl. zweier Basen B = {v1 . . . vn } geordnete Basis MB C (f ) = (κC (f (v1 )) . . . κC (f (vn ))) Rang der Darstellungsmatrix = Rang der Abbildung Die Abb. φB C : HomK (V, W ), die jeder Abb. ihre Darstellungsmatrix bzgl. B und C zuordnet, ist ein K-Isomorphismus. dimK (HomK (V, W )) = dimK (V ) · dimK (W ) C B MB D (g ◦ f ) = MD (g)· MC (f ) B −1 MC (f ) ∈ GLn (K) mit MB = C (f ) C −1 MB (f ) ⇔ f K-Isomporphismus MB B 0 (idV ) ist die Matrix zum Basiswechsel −1 = MB 0 (id ) von B nach B 0 . MB V B B0 0 (idV ) B −1 f : V −→ W , MB C 0 (f ) = P · MC (f ) · Q . Es gibt solche P ∈ GLn (K), Q ∈ GLn (K), wobei |B| = |B 0 | = n ∧ |C| = |C 0 | = m 0 f : V −→ V K-Endomorphismus. MB B 0 (f ) = −1 . Es gibt solch ein P ∈ P · MB B (f ) · P GLn (K). Es gibt Basen bzgl. derer die Darstellungsmatrix einer ! K-lin. Abb. vom Rang r die Form Er 0 hat. 0 0 Äquivalenz: M ∼ N ⇔ M und N sind beide Darst.-matr. einer (derselben) Abb. bezgl. unterschiedlicher Basen Äquivalenzrelation: Reflexivität, Symmetrie, Transitivität 1) 2) 3) 4) 5) 6) 7) 8) 9) 10) 11) 12) 13) 16) 5 Lineare Algebra I/II, Dr. Christian Nelius, Zusammenfassung von Florian Schoppmann Das Copyright für die dieser Zusammenfassung zugrunde liegenden Vorlesungsunterlagen (Skripte, Folien, etc.) liegt beim Dozenten. Darüber hinaus bin ich, Florian Schoppmann, alleiniger Autor dieses Dokuments und der genannte Dozent ist in keiner Weise verantwortlich. Etwaige Inkorrektheiten sind mit sehr großer Wahrscheinlichkeit erst durch meine Zusammenfassung/Interpretation entstanden. 17) Ordnungsrelation: Reflexivität, Antisymmetrie, Transitivität 19) Äquivalenzklasse 22) M/R := {[x]R |x ∈ M } heißt Quotientenmenge von M nach R; S ⊆ M vollst. Vertretersystem von M/R, wenn S aus jeder Äquivalenzklasse von M/R genau ein Element enthält. 24) M ≈ N ⇔ ∃ P ∈ GLn (K) : M = P · N · P −1 25) M ≈ N ⇔ M ∼ N §17 Eigenwerte und Eigenvektoren 6) Eigenraum zum Eigenwert λ: Eig(f, λ) := Kern(f − λ·idV ) 8-9) Eine Menge von Eigenvektoren zu paarweise verschiedenen Eigenwerten ist lin. unabh. 11) Entsprechung Eigenvektor einer Mn (K)Matrix ↔ eines K-Endomorphismus 12) λ Eigenwert von M ⇔ det(M − λ · En ) = 0 dimK (Eig(M, λ)) = n−rg(M − λ · En ) 13) Sei Mn ∈ Mn (K). Dann ist det(M −λ·En ) = Pn i i=0 ai λ , also ein Polynom n-ten Grades. 14) ,→ Charakteristisches Polynom einer Matrix 15) Ähnliche Matrizen haben das gleiche char. Polynom und daher auch dieselben Eigenwerte 16) Entsprechung charakteristisches Polynom einer Matrix ↔ eines Endomorphismus 17-18) Abspalten“ von Nullstellen ” 19) µ(p, α) ≤ grad(p) bezeichnet die Vielfachheit der Nullstelle α im Polynom p. 21) Fundamentalsatz der Algebra: Ein beliebiges Polynom p über C vom Grad ≥ 0 hat mindestens eine Nullstelle in C. D.h. p zerfällt in Linearfaktoren. §18 Diagonalisierbare Endomorphismen und Matrizen 1) diagonalisierbar: Matrix: ähnlich zu Diagonalmatrix, Endomorphismus: Darstellungsmatrix zu einer geeigneten Basis ist Diagonalmatrix 4) f sei K-End. in V . Es gilt: f diagonalisierbar ⇔ Es ex. eine Eigenbasis von V ⇔ Sind v1 , . . . , vs ∈ K alle (paarw. verschiedenene) Eigenwerte von f , so gilt: V = Ls i=1 Eig(f, λ − i) 6 5) dimK (V ) = n. Es gilt für einen Eigenwert λ: 1 ≤ dimK (Eig(f, λ)) ≤ µ(pf , λ) ≤ n | {z } geometrische Vielfachheit | {z } algebraische Vielfachheit 6) f diagonalisierbar ⇔ Das char. Polynom pf zerfällt in K[T ] in Linearfaktoren, und für jeden Eigenwert gilt: dimK (Eig(f, λ)) = µ(pf , λ) §19 Trigonalisierbare Endomorphismen und Matrizen 1) trigonalisierbar: Matrix: ähnlich zu oberer Dreiecksmatrix, Endomorphismus: Darstellungsmatrix zu einer geeigneten Basis ist obere Dreickecksmatrix 3) M ∈ Mn (K), es gilt: M trigonalisierbar ⇔ das char. Polynom pM von M zerfällt in K[T ] in Linearfaktoren 4) Jeder C-Endomorphismus über einem endl.dim. C-VR ist trigonalisierbar. 6) Ein Unterraum U eines Vektorraums heißt f -invariant, falls im End. f gilt: f (U ) ⊆ U 7) V unzerlegbar bzgl. f ⇔ V 6= 0 und V ist nicht direkte Summe zweier f -invarianter Unterräume 6= 0 von V . 8) f besitze einen Eigenwert λ ∈ K. V unzerlegbar bzgl. f ⇒ Es ex. eine Basis B von V mit λ 1 ··· 0 . . .. . . . . . ... B MB (f ) = . = Jn (λ) ∈ .. . . 1 . 0 ··· ··· λ Mn (K) Jn (λ) heißt Jordan-Matrix zum Eigenwert λ von f . 9) Jordan’sche Normalform, B geeignete Basis Jn1 (λ1 ) 0 Jn2 (λ2 ) B MB (f ) = .. . 0 Jns (λs ) ∈Mn (K) Diese Matrix heißt Jordan’sche Normalform (JNF) von f . 13) Satz von Cayley-Hamilton (für Matrizen): Einsetzen einer Matrix als Unbekannte (für T ) in ihr char. Polynom ergibt 0 (die Nullmatrix). 14) Zu einer Matrix M ∈ Mn (K) ex. ein eindeutig bestimmtes normiertes Polynom kleinsten Lineare Algebra I/II, Dr. Christian Nelius, Zusammenfassung von Florian Schoppmann Das Copyright für die dieser Zusammenfassung zugrunde liegenden Vorlesungsunterlagen (Skripte, Folien, etc.) liegt beim Dozenten. Darüber hinaus bin ich, Florian Schoppmann, alleiniger Autor dieses Dokuments und der genannte Dozent ist in keiner Weise verantwortlich. Etwaige Inkorrektheiten sind mit sehr großer Wahrscheinlichkeit erst durch meine Zusammenfassung/Interpretation entstanden. Grades qM mit qM (M ) = 0. Dieses Polynom heißt Minimalpolynom von M . §20 Euklidische Vektorräume 1) V sei bel. VR über R. Eine Abb. s : V × V −→ R heißt Skalarprodukt auf V , wenn gilt: s bilinear, s symmetrisch, s positiv definit (d.h. s(v, v) > 0 ∀v ∈ V {0V }). (V, s) heißt dann p euklidischer R-VR. 3) Norm: kvk := hv, vi Eigenschaften: ∀v ∈ V : kvk ≥ 0 ∧ kvk = 0 ⇔ v = 0V , ∀a ∈ R ∀v ∈ V : kavk = |a| · kvk, ∀v, w ∈ V : kv + wk ≤ kvk + kwk (Dreiecksungleichung) 4) Cauchy-Schwarz’sche Ungleichung |hv, wi| ≤ kvk · kwk ∀v, w ∈ V Es lässt sich ein Winkel zwischen v und w hv,wi definieren: cos(φ) = kvk·kwk 5) Definition Orthonormalsystem wie in §5.1 8) Zu einem n-dim. euklidischen VR (V, h, iV ) gibt es einen R-Isomoprphismus f : V −→ Rn mit der Eigenschaft: hf (v), f (w)i = hv, wiV ∀v, w ∈ V 9) Ein R-Endomorphismus f auf V heißt orthogornal, wenn hf (v), f (w)i =i = hv, wi ∀v, w ∈ V ; Eine Matrix M ∈ Mn (R) heißt orthogornal, wenn t M · M = En gilt. 10) Eine Abbildung ist genau dann orthogonal, wenn sie längentreu ist; Eine Matrix ist genau dann orthogonal, wenn ihre Spalten bzw. Zeilen ein Orthonormalsystem in Rn bilden. 11) B sei beliebige Orthonormalbasis: f orthogonal ⇔ MB B (f ) ist orthogonale Matrix 13) Ein orthonogonaler Endomorphismus setzt sich ausschließlich aus Spiegelungen, Drehungen oder Beibehaltung von Basisvektoren zusammen. 14) Ein Endomorphismus f auf V heißt symmetrisch, wenn gilt: hf (v), wi = hv, f (w)i ∀v, w ∈ V 15) Ist (V, h, i) ein n-dim. euklidischer VR, so ist f ∈ EndR (V ) genau dann symmetrisch, wenn MB B (f ) bzgl. einer bel. Orthonormalbasis B von V eine symmetrische Matrix ist. 16) Spektralsatz: V sei n-dim. eukl. VR, f symmetrisch: Dann ex. eine Orthonormalbasis B von V mit MB B (f ) = diag(λ1 , . . . , λn ) (λi ∈ R ∀i = 1, . . . , n) 17) Eine symm. Matrix M ∈ Mn (R) besitzt n reele Eigenwerte und ist diagonalisierbar. §21 Unitäre Vektorräume 1) V sei ein C-VR. Eine Abb. h : V × V −→ C heißt Hermite’sche Form auf V , wenn gilt: H ist C-linear im ersten Argument und h(v, w) = h(w, v) ∀v, w ∈ V . Eine Hermite’sche Form h auf V heißt positiv definit, wenn gilt: h(v, v) > 0∀v ∈ V, v 6= 0V . Ein Skalarprodukt s auf V ist eine positiv definite Hermite’sche Form auf V . (V, s) heißt dann ein unitärer C-VR. Beispiel: Das kanonische Skalarprodukt 7