1 Zahlen I: Natürliche Zahlen N : t1, 2, 3, . . .u ist die Menge der Grundeigenschaften von natürlichen Zahlen, N0 : N Y t0u. N: Es gibt eine kleinste natürliche Zahl, nPN Jede natürliche Zahl Jedes Wenn M M nPN wird von 1 1. hat einen unmittelbaren Nachfolger, n 1. aus erreicht, indem man endlich oft den Nachfolger bildet. N eine nichtleere Menge (M H) von natürlichen Zahlen ist, dann enthält ein eindeutig bestimmtes kleinstes Element. 1.1 Prinzip der vollständigen Induktion Sei M N eine Menge natürlicher Zahlen mit den folgenden beiden Eigenschaften: 1 P M (1 liegt in der Menge), @n : n P M ñ n dann muss auch Dann gilt: M 1 n PM 1 in (für alle natürlichen Zahlen M n gilt: wenn n in M liegt, liegen). N 1.2 Summenformeln ņ (a) j j 1 npn2 1q (d.h. 1 ņ (b) j2 np n j 1 (c) q 1ñ ņ qj j 0 1qp2n 6 2 ... n p q n n 1 ) 2 1q 1 1 q q n 1 ("geometrische Summe") 1.3 Erste Grundaufgabe der Kombinatorik zu Permutationen Gegeben sind n verschiedene Gegenstände. Auf wieviele verschiedene Arten kann man diese Gegenstände anordnen? Antwort: Es gibt n! : 1 2 . . . pn 1q n viele Möglichkeiten. Y : tpx0, y0q : x0 P X, y0 P Y u ist das kartesische Produkt von X und Y , d.h. die Menge aller Paare px0 , y0 q mit x0 P X und y0 P Y . X Eine Abbildung mit px0, y0q P f. 1.4 Denition f :X Sei ÑY f :X ist eine Teilmenge ÑY f X Y, so dass gilt: @x0 P X D!y0 P Y eine Abbildung. P X : f px1q f px2q ñ x1 x2. f ist surjektiv :ô @y0 P Y Dx0 P X so dass f px0 q y0 . f ist injektiv :ô @x1 , x2 1 f ist bijektiv :ô f ist injektiv und surjektiv. f : X Ñ Y eine Abbildung. Dann gilt: f ist bijektiv ô Dg : Y Ñ X eine Abbildung, so dass g f : x0 ÞÑ g pf px0 qq die Identität x0 ÞÑ x0 auf X ist und f g : y0 ÞÑ f pg py0 qq die Identität y0 ÞÑ y0 auf Y . Bezeichnung: g f ist die Komposition (Hintereinanderausführung) von f und g . |X | |Y | :ô Df : X Ñ Y und g : Y Ñ X mit g f idX und f g idY . 1.5 Proposition Sei 1.6 Zweite Grundaufgabe zu Permutationen Gegeben sind n Objekte, die k verschiedene Farben haben. Auf wieviele verschiedene Arten kann man diese Objekte anordnen, wenn man gleichfarbige Objekte nicht voneinander unterscheiden will? fj : |tx Objekt mit Farbe Variante: Gegeben sind k j u|, also man daraus bilden, wenn man den Antwort n! f1 !f2 !...fk ! ... f q! pf f f!f !...f . ! 1 n f1 f2 ... fk . verschiedene Buchstaben. Wieviele Wörter der Länge 2 1 2 j ten Buchstaben fj kann k k 1.7 Dritte Grundaufgabe zu Kombinationen ohne Wiederholung seien n mal verwenden darf ? n verschiedene Objekte und k Gegeben ¤ n. Wieviele Möglichkeiten gibt es, k Objekte aus- zuwählen, unter Berücksichtigung der Anordnung = Reihenfolge (Kombinationen ohne Wiederholung mit Berücksichtigung der Anordnung) bzw. ohne Berücksichtigung der Anordnung? Antwort: n! pnkq! mit Berücksichtigung der Anordnung n! k! n k ! ohne Berücksichtigung der Anordnung n k pq : n! k! n k ! heiÿt pq Binomialkoezient. Es gilt: n k n 1 k n n k n k n k 1 1.8 Binomischer Lehrsatz Dann gilt: pa bqn ņ j 0 1.9 Korollar Sei M Seien a n j nj a b . j eine Menge mit (a) M hat genau 2n (b) M hat genau 2n1 und b reelle (oder komplexe) Zahlen und n P N. |M | n P N. Dann gilt: viele verschiedene Teilmengen. viele verschiedene Teilmengen mit gerader Elementezahl und ebenso viele verschiedene Teilmengen mit ungerader Elementezahl. 1.10 Vierte Grundaufgabe zu Kombinationen mit Wiederholung seien n verschiedene Objekte und k Gegeben ¤ n. Wieviele Möglichkeiten gibt es, k viele Objekte auszuwählen, wobei Wiederholungen erlaubt sind (mit bzw. ohne Berücksichtigung der Anordnung)? 2 Antwort: nk mit Berücksichtigung der Anordnung n k 1 k 2 ohne Berücksichtigung der Anordnung Zahlen II: Rationale, reelle und komplexe Zahlen Z : tganze u t. . . , 2, 1, 0, 1, 2, . . .u Zahlen 2.1 Denition Eine Menge R mit zwei Verknüpfungen :RRÑR heiÿt (a) (b) (c) (d) Ring, und :RRÑR wenn gilt: @ a, b P R : a b b a (Addition ist kommutativ) @ a, b, c P R : pa bq c a pb cq (Addition ist assoziativ) D 0 P R : @ a P R : a 0 a 0 a (Existenz eines neutralen Elements bzgl. ) @ a P R : D a P R : a paq 0 paq a (Existenz von inversen Elementen bzgl. ) @ a, b, c P R : pa bq c a pb cq (Multiplikation ist assoziativ) (f ) D 1 0 P R : @a P R : a 1 a 1 a (Existenz eines neutralen Elements bzgl. ) (g) @ a, b, c P R : pa bq c a c b c, a pb cq a b a c (Distributivgesetze) Falls zusätzlich @ a, b P R : a b b a gilt, dann heiÿt R (genauer pR, , q) (e) ein kommutativer Ring. 2.2 Denition Ein kommutativer Ring k heiÿt @x P R, x 0 D x1 P R : x x1 1 x1x. Körper, wenn gilt: k ein angeordneter Körper und X k eine nichtleere Teilmenge von k . Ein Element t P k heiÿt obere Schranke für X , wenn @x0 P X : x0 ¤ t gilt. X heiÿt nach oben beschränkt, wenn es eine obere Schranke für X gibt. Ein Element s P k heiÿt kleinste obere Schranke für X , wenn s eine obere Schranke ist und für jede obere Schranke t gilt: s ¤ t. Dann wird s auch Supremum von X genannt; Bezeichnung s supX . Der Körper k heiÿt vollständig, wenn jede nichtleere nach oben beschränkte 2.3 Denition Sei Teilmenge ein Supremum besitzt. R ist der einzige angeordnete vollständige Körper (Was "vollständig"für wird in HM II erklärt). C C bedeutet, ist auch ein vollständiger Körper, aber nicht angeordnet. C : tpx, y q : x, y P Ru mit px1, y1q px2, y2q : px1 x2, y1 y2q px1, y1q px2, y2q : px1x2 y1y2, y1x2 x 1 y2 q p0, 1q schreiben wir i, dann gilt: i2 1. Wenn wir px, y q als x iy schreiben, Für 3 px2 iy2q px1 x2q ipy1 y2q. ist die Multiplikation px1 iy1 q px2 iy2 q px1 x2 y1 y2 q ipx1 y2 y1 x2 q. Des Weiteren zeigt bzw. deniert man für z a bi in C mit a, b P R: • Falls z 0, dann z 1 aabib . • z̄ a bi heiÿt komplex konjugiert zu z a bi. ? • |z | a2 b2 heiÿt der Betrag von z . • Dreiecksungleichung: @z, w P C : |z w| ¤ |z | |w|. • Repz q : a heiÿt der Realteil von z . Impz q : b heiÿt der Imaginärteil von z. Repz q und Impz q sind die kartesischen Koordinaten von z . • Es existiert ϕ P R mit 0 ϕ ¤ 2π so dass z |z |pcos ϕ i sin ϕq. • arg pz q : ϕ heiÿt das Argument von z . Das Paar p|z |, ϕq nennt man auch die ist die Addition px 1 iy1 q 2 Polarkoordinaten • Für also von 2 z. z |z | pcos ϕ i sin ϕq ist z arg pz q 2π ϕ. |z| pcospϕq i sinpϕqq |z| pcos ϕ i sin ϕq, |w| pcos ψ i sin ψq ist z w |z| |w| pcospϕ 1 1 Für z 0 : z |z | pcos ϕ i sin ϕq. • Für • w ψq i sinpϕ ψ qq. a 0 : wk : |z| pcosp ϕn k 2πn q i sinp ϕn k 2πn qq für k 0, . . . , n 1 sind n verschiedene n te Wurzeln aus z , und dies sind auch alle n ten Wurzeln aus • Für n z z. 2.4 Theorem Seien n¥1 (Fundamentalsatz der Algebra): und ppxq a0 a1 x ... an xn mit a0 , . . . , an P C, an 0, ein nichtkonp eine Nullstelle, d.h. D z P C stantes Polynom mit komplexen Koezienten. Dann hat mit ppz q 0. 2.5 Beispiel Es existiert ein Körper F2 mit nur zwei Elementen 0, 1. Multiplikation bzw. Addition sind wie folgt gegeben: 3 0 1 0 1 0 0 1 0 0 0 1 1 0 1 0 1 Vektorräume 3.1 Denition Sei k ein Körper. Ein k -Vektorraum (oder: ein Vektorraum über k ) V mit zwei Operationen : V V Ñ V, pv1 , v2 q ÞÑ v1 v2 und : k V Ñ V, pλ, v1q ÞÑ λv1 mit den folgenden Eigenschaften: ist eine Menge ist kommutativ: ist assoziativ: v1 pv 1 v2 v1 @v1, v2 P V . v2 q v3 v1 pv2 v3 q @v1 , v2 , v3 P V . v2 4 erlaubt ein neutrales Element erlaubt inverse Elemente: 0 P V : v1 @v1 P V Dv2 P V 0 v1 : v1 0 v1 @v1 P V . v2 v2 v1 0, und @v1, v2 P V @λ, µ P k : p λ µ q v1 λ v1 µ v1 λ p v1 v2 q λ v1 λ v2 p λ µ q v1 λ p µ v1 q 1k v1 v1 Die Elemente in V 3.2 Denition Sei nennen wir V (oder Unterraum) von Vektoren, die in k Skalare. ein k -Vektorraum. Eine Teilmenge U V, wenn gilt: V heiÿt Untervektorraum p U V 1q U H pU V 2q @u1, u2 P U : u1 u2 P U (abgeschlossen unter Addition) pU V 3q @u1 P U, λ P k : λ u1 P U (abgeschlossen unter Multiplikation mit Skalaren) Die Lösungsmenge eines Systems von homogenen linearen Gleichungen, in n Variablen n (kurz: homogenes LGS) ist ein Untervektorraum von k . U, U 1 ñ U X U 1 Unterraum von V . 3.3 Denition Sei V ein k-Vektorraum, v1 , . . . , vn P V. Ein Vektor x P V Linearkombination der v1 , . . . , vn :ô Dλ1 , . . . , λn P k : x λ1 v1 . . . λn vn . Das Unterräume von Erzeugnis der V v1 , . . . , v n ist eine ist die Menge Sp pv1 , . . . , vn q : tx P V : x Linearkombination der v1 . . . , vn aufgespannte Menge). Sp pv1 , . . . , vn q V, nennen wir v1 , . . . , vn v1 , . . . , v n u (die von Falls Sp pv1 , . . . , vn q ist ein Untervektorraum von ein Erzeugendensystem von V. V. P V. v1 , . . . , vn sind linear abhängig: ô Dλ1 , . . . , λn P k , mindestens ein λi 0, so dass λ1 v1 . . . λn vn 0. v1 , . . . , vn sind linear unabhängig: ô @λ1 , . . . , λn P k : λ1 v1 . . . λn vn 0 ñ λ1 . . . λn 0. 3.4 Denition Sei V ein k -Vektorraum, v1 , . . . , vn Ein Erzeugendensystem von Basis von V, das aus linear unabhängigen Vektoren besteht, heiÿt V. Wenn unendlich viele vi pi P I Indexmenge) gegeben sind, nennt man sie linear abhängig, vi1 , . . . , vin ndet, die linear abhängig sind. wenn man endlich viele 5 3.5 Theorem Jeder Vektorraum hat eine Basis. Wenn eines Vektorraums Wenn n V n dimV Bezeichnung: P I , und uj , j P J , Basen I und J. n P N vielen Elementen besitzt, dann hat jede Basis von V Dimension von V . Eine Basis ist ein unverkürzbares Erzeugendensystem: tj uq V. Sp pbi , i P I q V, aber Eine Basis ist eine unverlängerbare linear unabhängige Menge von Vektoren, d.h. linear unabhängig, aber 4 genau heiÿt dann die 8, falls keine endliche Basis existiert. Sp pbi , i P I vi , i sind, dann gibt es eine Bijektion zwischen eine Basis mit viele Elemente. dimV V bi , i P I zusammen mit irgendeinem v0 PV bi sind linear abhängig. Gauÿsches Eliminationsverfahren (Gauÿ-Algorithmus) 4.1 Denition Gegeben sei ein LGS a11 x1 a12 x2 ... a21 x1 a22 x2 ... b1 a2n xn b2 a1n xn . . . al1 x1 (alle aij al2 x2 ... a11 . . . Koezientenmatrix Das Zahlenschema a1n . . . . . . al1 ... aln des LGS a1n b1 a11 . . . . . . al1 heiÿt bl P k, bi P k, l Zeilen, n Unbekannte, n Spalten mit aij , eine Spalte mit bi.) Das Zahlenschema heiÿt aln xn erweiterte Koezientenmatrix ... aln bl des LGS Allgemein heiÿt ein rechteckiges Zahlenschema C c11 . . . . . . cl1 (mit cij c1k ... P k Körper) eine l k-Matrix. 6 clk sind C hat Zeilenstufenform, C 0 0 0 0 0 wenn es die folgende Form hat: 0 c1k1 c2k ... 0 2 c3k ... ... 0 3 cik ... ... ... 0 i ... ... ... ... 0 ... ... ... ... ... 0 sind, oberhalb der Stufenlinie irgendungleich 0 sind und unterhalb von jedem wobei die Einträge unterhalb der Stufenlinie alle welche Skalare stehen, die ciki alle Einträge 0 c1k1 , . . . , cjkj alle sind. 4.2 Grundeigenschaft des Gauÿ-Algorithmus: Jede Matrix (mit Einträgen in ei- nem Körper) kann man in Zeilenstufenform bringen, indem man endlich viele elementare Zeilenumformungen durchführt: P k wird die λ-fache Zeile mit Nr. a zur Zeile mit Nr. b addiert. (Im Fall a b darf man die Zeile mit Nr. a mit λ 0 multiplizieren.) (EZ1) Für λ (EZ2) Die Zeile mit Nr. 4.3 Grundaufgabe: entscheiden ist, ob a wird mit der Zeile mit Nr. Im Vektorraum v1 , . . . , v n Falls sind Vektoren v1 , . . . , v n gegeben. Zu λ1 , . . . , λn aufstellen und lösen. Die Vektoren liefern die Spalten der Koezientenmatrix. n ¡ l dimV, so müssen 4.4 Grundaufgabe: U kl vertauscht. linear unabhängig sind. Lösung: Homogenes LGS mit Unbekannten v1 , . . . , v n V b v1 , . . . , v n Im Vektorraum linear abhängig sein. kl V sind Vektoren v1 , . . . , v n Sppv1, . . . , vnq erzeugen. Zu bestimmen ist eine Basis von U . Lösung: Matrix, deren Zeilen den Vektoren v1 , . . . , v n gegeben, die entsprechen, in Zeilenstufenform bringen und dann die Nullzeilen weglassen. 5 Matrizen M atpl n, k q ist die Menge aller Matrizen mit l Zeilen und n Spalten und Einträgen in k. Seien A, B P M atpl n, k q, zwei Matrizen gleicher Gröÿer, mit Einträgen in demselben Körper k, A paij q, B pbij q. Die Summe C A B, C pcij q ist deniert durch cij : aij d.h. C a11 C a1n . . . al1 Dann ist auch b11 . . . b1n . . . bl1 ... aln P M atpl n, kq. Addition von Matrizen ist assoziativ und kommutativ. 7 bln bij . Die Matrix 0 0 ... 0 . . . . . . 0 ... 0 ist M atpl n, k q neutrales Element in bezüglich Addi- tion. A P M atpl n, k q, B C Dann ist P M atpn p, kq A B deniert durch cij : ņ aih bhj . C P M atpl p, kq h 1 Multiplikation ist assoziativ: pA Bq C AC BC pA B q C A pB C q, und es gilt das Distributivgesetz A pB C q A B A C sowie nicht Multiplikation von Matrizen ist Mit El E l bezeichnen wir dielte 1 0 0 ... 0 0 1 0 ... 0 0 Für . . . . . . . . . k .. . . . . Einheitsmatrix, P M atpl l, kq (quadratische Matrix) 0 0 0 ... 1 A P M atpl n, k q gilt El A A A En . 5.1 Proposition in . . . 0 1 kommutativ. Die Menge M atpn n, k q der quadratischen Matrizen mit Einträgen En . Für n ¥ 2 ist dieser Ring nicht kommutativ. bildet einen Ring mit Einselement M atpl n, k q ist für beliebiges l, n ein k -Vektorraum mit λ paij q pλaij q. Eine Basis besteht aus den Matrizen: 0 Eij ... .. . . . . 0 . . . . .. ... 0 ... ... 0 ... ... 0 i-te ... ... 0 . . . 0 Si pλq, Qji pλq . . . . . . 0 0 ... . . . 0 1 0 0 . . . . . . j -te Die folgenden Matrizen ... Zeile Spalte und Pij 8 nennen wir Elementarmatrizen. 1 λ P K, λ 0 .. . . . . . . . 0, Si λ : ... . .. 0 0 ... ... 0 1 0 . . . 0 .. . . . . 1 0 . . . . . . . . . . .. 0 .. . . . 0 0 ... ... 0 ... ... 1 0 . . . 0 .. λ ... . . . . . . . . . i-te . . . 0 0 ... ... 1 . . . .. . . . . ... ... 0 j -te 1 0 1 0 . . . i-te . . . . . . 0 0 0 . . . 1 . 1 ... ... Zeile 1 Spalte 1 Pij Zeile Spalte 0 . 0 ... 0 1 0 0 0 0 0 . . . Qji pλq 0 0 λ i-te ... 1 pq 0 ... .. i-te Zeile j -te Zeile . 1 0 ... . . . 1 0 1 ... 1 0 . . . ... .. 0 . . . . . . . 1 ... ... 0 1 .. . 1 i-te j -te Spalte Si pλq A bedeutet: die Einträge in der A S i pλ q bedeutet: ite Spalte von A iten Zeile von wird mit 9 Spalte λ A werden mit multipliziert. λ multipliziert. Qji pλq A bedeutet: λ j Zeile Multiplikation von links mit wird zu Zeile Pij Multiplikation von rechts mit i addiert. vertauscht die Zeilen Pij i und vertauscht die Spalten i j. und j. Linksmultiplikation mit Elementarmatrizen: Zeilenoperation. Rechtsmultiplikation mit Elementarmatrizen: Spaltenoperation. P M atpl n, kq eine Matrix. Dann existieren Elementarmatrizen B1 . . . Bp A eine Matrix in Zeilenstufenform ist. 5.3 Denition Sei A P M atpl n, kq eine Matrix mit Einträgen aij P k. Die transponierte Matrix zu A hat die Einträge bij : aji . Bezeichnung: AT oder At . 5.4 Lemma pA B qT B T AT pA B qT AT B T , und pAT qT A. Si pλqT Si pλq Qji pλqT Qij pλq pPij qT Pij 5.2 Korollar B1 , . . . , Bp 6 Sei A (endlich viele), so dass Lineare Abbildungen 6.1 Denition Seien V und W Vektorräume über einem Körper k . Eine Abbildung α : V Ñ W heiÿt lineare Abbildung (oder: k linear oder VektorraumHomomorphismus). :ô @v1 , v2 P V @λ P k : αpv1 v2 q αpv1 q αpv2 q und α pλv1 q λ αpv1 q. 6.2 Theorem V und W seien (a) Eine lineare Abbildung k Vektorräume, tbi |i P I u α:V ÑW sei eine Basis von ist festgelegt durch die Werte V. αpbi q. tci|i P I u irgendwelche Vektoren in W . Dann gibt es eine (und wegen (a) β : V Ñ W mit β pbi q ci @i P I. 6.3 Theorem V und W seien endlich-dimensionale kVektorräume, dimV n, dimW l, tb1 , . . . , bn u eine Basis von V, tc1 , . . . , cl u eine Basis von W und α : V Ñ W eine lineare Ñ Ñ Abbildung. Dann gibt es genau eine Matrix A P M atpl n, k q, so dass αp x q A x ist Ñ für x P V. Die Spalten von A sind αpb1 q, . . . , αpbn q. (b) Seien genau eine) lineare Abbildung 6.4 Denition A heiÿt die darstellende Matrix b1 , . . . , bn und c1 , . . . , cl . Die Matrix bezüglich der Basen Bei linearen Abbildungen = zur linearen Abbildung α pV Rq Homomorphismen vereinbaren wir spezielle Bezeich- nungen: ÐÑ Monomorphismus surjektiv ÐÑ Epimorphismus bijektiv ÐÑ Isomorphismus injektiv 10 Wenn es einen Isomorphismus α : V ÑW gibt, sagen wir, dass V und W isomorph sind. Ein Homomorphismus α : V Ñ W ist ein Isomorphismus genau α eine Basis von V auf eine Basis von W abbildet. In diesem Fall gilt dimV dimW und α bildet dann jede Basis von V auf eine Basis von W ab. 6.5 Proposition dann, wenn Wichtiges Beispiel: Sei Basis b1 , . . . , bn . Sei W V ein k Vektorraum mit Dimension n P N. Dann hat V kn mit Basis e1, . . . , en, wobei eine 0 ei .. . 0 1 i-te 0 . . Zeile . . 0 Ñ kn mit αpbiq ei. 1 : kn Ñ V, ei ÞÑ bi . Nach 6.5 ist das ein Isomorphismus. Die inverse Abbildung ist α Nach 6.2 (b) gibt es eine eindeutige lineare Abbildung α α bildet v1 auf seinen Koordinatenvektor in hängt von der Wahl der Basis 6.6 Theorem eine Matrix b1 , . . . , bn kn α:V ab. ab. A P M atpn n, k q ist invertierbar genau dann, wenn sie ein Produkt von Elementarmatrizen ist. Konstruktion von A B1 A B2 B1 A A1 . . . . . . Bs . . . B1 A En 7 En B1 En B1 B2 B1 En B2 B1 BS . . . B1 En Bs . . . B1 A1 Kern, Bild und Rang Ñ W eine lineare Abbildung. 1 p0 W q. Der Kern von α ist Kernpαq : tv0 P V |αpv0 q 0W u α Das Bild von α ist Bildpαq : tw0 P W |Dv0 P V : αpv0 q w0 u αpV q. 7.1 Denition Sei α:V 7.2 Proposition ô Kernpαq 0V . (b) α ist surjektiv ô Bildpαq W. 7.3 Dimensionsformel: Sei dimV 8, α : V Ñ W linear. Dann gilt: dim V dim Kernpαq dim Bildpαq. Also: α injektiv ô dim V dim Bildpαq. (a) α ist injektiv 11 7.4 Denition Sei Äquivalenzrelation, X eine Menge und R X X eine Teilmenge von X X. R heiÿt wenn die folgenden Eigenschaften erfüllt sind: @x0 P X : px0, x0q P R pR ist reexiv). @x0, y0 P X : px0, y0q P R ñ py0, x0q P R pR ist symmetrisch). @x0, y0, z0 P X : px0, y0q P R und py0, z0q P R ñ px0, z0q P R pR ist transitiv). Wenn px0 , y0 q P R, dann sagt man x0 und y0 sind äquivalent und man schreibt: x0 y0 (oder x0 R y0 ). 7.5 Denition Sei R X X eine Äquivalenzrelation, x0 P X. Die Äquivalenzklasse von x0 ist die Menge ty0 P x : x0 y0 u. 7.6 Denition Sei R X X eine Äquivalenzrelation. Die Menge der Äquivalenzklassen wird mit X {R (oder X {q bezeichnet. Elemente von Äquivalenzklassen sind Repräsentanten der Äquivalenzklassen. k Vektorraum und U ein Unterraum. x R y : x y P U deniert eine Äquivalenzrelation auf V . Die Menge der Äquivalenzklassen, V {, wird mit V {U bezeichnet. V {U ist selbst ein k Vektorraum und heiÿt der Quotienten(vektor)raum ”V modulo U ”. 7.7 Quotientenvektorraum: dim V dim U dim V {U Sei (falls V ein dim V 8). Ñ W eine lineare Abbildung. Dann ist Bildpαq V {Kernpαq. 7.9 Denition Sei α : V Ñ W eine lineare Abbildung. Die Dimension von Bildpαq wird mit Rang von α, kurz Rang pαq, bezeichnet. Es gilt also: Rang pαq dim V dim Kernpαq. Ñ Ñ Wenn α : V Ñ W die Form x ÞÑ A x für eine Matrix A hat, nennt man Rang pαq auch den Rang der Matrix A und schreibt Rang pAq. Rang pAq Rang pAT q. Es gilt: Rang pAq ¤ l und Rang pAq ¤ n für A P M atpl n, k q. 7.10 Denition A P M atpn n, kq heiÿt regulär, wenn RangpAq n, und singulär, wenn Rang pAq n. 7.11 Theorem Sei α : V Ñ W, mit dim V dim W n,Ñeine lineare Abbildung, die Ñ bezüglich gegebener Basen von V und W die Form x ÞÑ A x hat, für eine quadratische Matrix A P M atpn n, k q. Dann sind die folgenden Aussagen äquivalent: 7.8 Proposition Sei α:V (a) α ist ein Isomorphismus, d.h. bijektiv. (b) α ist ein Monomorphismus, d.h. injektiv, d.h. (c) α ist ein Epimorphismus, d.h. surjektiv, d.h. (d) Rang pαq n. (e) A ist invertierbar. (f ) A ist regulär, d.h. A hat Zeilenrang n. 12 Kernpαq t0u. Bildpαq W . (g) AT A ist regulär, d.h. hat Spaltenrang 0. In der Spaltenstufenform von A sind alle Diagonalelemente 0. Ñ Das LGS A x 0 hat nur den Nullvektor als Lösung. (h) In der Zeilenstufenform von (i) (j) Ñ b (k) Für jede Wahl von 8 n. A sind alle Diagonalelemente Ñ Ax hat das LGS Ñ b genau eine Lösung. Determinanten Sei n P N, σ P Σn tPermutationen von n Elementenu. Fehlstand von σ ist ein Paar pi, j q mit i j und σ piq ¡ σ pj q. Das Vorzeichen von σ , Bezeichnung sgnpσ q, ist als 1 deniert, wenn σ eine gerade Anzahl von Fehlständen hat und als 1, wenn die Anzahl der Fehlstände ungerade ist. 8.1 Denition Ein 8.2 Denition ¸ detpAq : P Sei A paij q P M atpn n, k q. sgnpσ q n ¹ aiσpiq i 1 σ Σn ¸ P sgnpσ q a1σp1q a2σp2q . . . anσpnq (Leibniz- Formel) a11 a12 a13 a21 a22 a23 Regel von Sarrus : a31 a32 a33 Sei Determinante von A ist deniert als σ Σn 8.3 Lemma Die A P M atpn n, k q also genau dann invertierbar, wenn a11 a22 a33 a11 a23 a32 ZSF . Dann detA 0. in 8.4 Multiplikationsregel für Determinanten: detpA B q detpAq detpB q. detpA B q detpB Aq. Allgemeinen ist detpA B q detpAq gilt: a12 a23 a31 a12 a21 a33 a13 a21 a32 a13 a22 a31 detA a11 a22 . . . ann . A Seien ist A, B, P M atpn n, k q. Dann gilt: Also auch: Im detpB q. 8.5 Theorem Sei A P M atpn n, kq. Dann gilt: A ist invertierbar ô detA 0. Dann detpA1 q pdetAq1 . ist Elementare Zeilen- und Spaltenumformungen können detA 0 ist (bzw. 0). 8.6 Entwicklungssatz von Laplace: die Matrix in j ten iten M atpn 1 n 1, k q, Spalte entsteht. Dann gilt: Zeile) und detA A P M atpn n, k q. Für 1 ¤ i, j ¤ n sei Aij aus A durch Streichen der iten Zeile und der ņ ail p1qi l detAil (Entwicklung nach der l 1 ņ ändern, aber nicht, dass Sei die detA detA alj p1ql j detAlj (Entwicklung nach der j ten Spalte). l 1 9 Eigenvektoren, Eigenwerte und Diagonalmatrizen 9.1 Denition Sei V k Vektorraum, α : V Ñ V ein Endomorphismus (lineare λ P k heiÿt Eigenwert von α :ô Dv0 P V, v0 0 mit v0 heiÿt dann Eigenvektor von α zum Eigenwert λ. ein Selbstabbildung). Ein Skalar αpv0 q λv0 . Ein solches 13 9.2 Denition Sei α:V ÑV λ linear und P k. Der Eigenraum zu α bezüglich λ ist deniert als Eig pα, λq : tv0 P V : v0 Eigenvektor von α zu λu Y t0u tv1 P V : αpv1q λv1u. Das bedeutet: Eig pα, λq t0u ô λ ist ein Eigenwert ô es gibt einen Eigenvektor zum Eigenwert Eig pα, λq λ. ist (für jedes λ) ein Untervektorraum von V. Die Summe von zwei Eigenvektoren zu zwei verschiedenen Eigenwerten ist im Allgemeinen kein Eigenvektor (zu irgendeinem Eigenwert) 9.3 Proposition derer Sei α : kn Ñ kn linear. Es gibt genau dann eine Basis von kn bezüglich α durch eine Diagonalmatrix beschrieben (diagonalisierbar) ist, wenn es eine Basis aus Eigenvektoren gibt. Eig pα, 0q Kernpαq. Allgemein: λ1 ist EW ô detpA λ1 En q 0 Dann ist: v1 EV zu λ1 ô v1 p 0q P Kernpα λ1 idq (Lösungsmenge LGS ). Betrachte λ als Variable, d.h. betrachte detpA tEn q - das ist ein Beobachtung: eines homogenen Polynom, dessen Nullstellen gerade die Eigenwerte sind. α : V Ñ V linear, dimV n, und b1 , . . . , bl1 linear unabhängige EV zum EW λ1 , c1 , . . . , cl2 linear unabhängige EV zum EW λ2 λ1 , d1 , . . . , dl3 linear unabhängige EV zum EW λ3 λ1 , λ2 , usw. Dann sind die Vektoren bi , cj , dk , . . . 9.4 Proposition Sei insgesamt linear unabhängig. 9.5 Denition detpA tEn q A P M atpn n, k q und t eine Variable. charakteristisches Polynom von A. Sei heiÿt Verfahren zur Diagonalisierung: Gegeben eine Matrix 1. Schritt: Bestimme das charakteristische Polynom terminante 2. Schritt: detpA tEn q. Bestimme die Nullstellen von stellen von χA pt q. χA pt q. Das sind genau die Das Polynom χA ptq : A P M atpn n, k q. χA ptq durch Berechnung der De- λ1 , . . . , λl die verschiedenen Eigenwerte von A. Falls es keine gibt: Seien Nullnicht diagonalisierbar. 3. Schritt: Eig pA, λi q für jeden Eigenwert λi , als Lösungsmenge des homopA λiEnqÑx 0. Bestimme eine Basis. Falls alle Basen aller Eig pA, λi q zusammen n Vektoren enthalten: Das ist eine Bestimme genen LGS 4. Schritt: Basis von V , bezüglich derer die zu A gehörende lineare Abbildung diagonalisierbar n Vektoren sind: A ist nicht diagonalisierbar. ist. Falls es weniger als 10 Basiswechsel und Normalformen 10.1 Regel zum Basiswechsel: bezüglich BV und CW . Basiswechsel von S . Dann ist A SAT 1 und Gegeben BV ϕ : V zu BV ÑW durch die darstellende Matrix von CW . 14 ϕ mit darstellender Matrix T und von CW zu CW A durch bezüglich der neuen Basen BV 10.2 Denition Seien invertierbare Matrizen (b) A, B P M atpl n, k q. A und B heiÿen äquivalent, wenn es P M atpl l, kq und T P M atpn n, kq gibt mit B SAT 1. P M atpl n, kq. Dann sind äquivalent: A und B sind äquivalent, d.h. DS P M atpl l, k q, T P M atpn n, k q invertierbar 1 . mit B SAT Dϕ : V Ñ W, ϕ linear, dimV n, dimW l, und es gibt Basen BV und BV von 10.3 Theorem (a) S V und und CW CW Seien und A, B CW ist, und B von W , so dass A die darstellende Matrix von ϕ bezüglich BV die darstellende Matrix von ϕ bezüglich BV und CW . (c) Rang pAq Rang pB q r (d) Dr P t0, . . . , mintl, nuu, so dass A und B beide äquivalent zur l n Matrix C 1 1 10.4 Denition 10.5 Theorem ist Einsen sind. 0 A, B P M atpn n, k q heiÿen ähnlich, wenn T P M atpn n, k q gibt mit B T AT 1 . Zwei quadratische Matrizen es eine invertierbare Matrix A mit r . 0 (a) 0 .. P t0, . . . , mintl, nuu. Sei A P M atpn n, k q. diagonalisierbar, Dann sind äquivalent: d.h. ähnlich zu einer Diagonalmatrix: DT mit T AT 1 Diagonalmatrix. χA ptq ist ein Produkt von Linearfaktoren, χA ptq pt λ1 qa1 pt λ2 qa2 . . . pt λl qal , und die Vielfachheiten der Linearfak- (b) Das charakteristische Polynom toren stimmen mit den Dimensionen der Eigenräume überein: dimEig pA, λ1 q a1 , . . . , dimEig pA, λl q al . λ 1 λ Beispiel: λ P C, Jn pλq : 0 1 .. . .. . λ 1 λ 0 der Gröÿe n n, 10.6 Theorem zum Eigenwert Sei A , 1 so eine Matrix heiÿt Jordanblock λ λ. eine Matrix mit komplexen Einträgen. Dann ist A ähnlich zu einer Matrix der folgenden Form, wobei in den Kästchen Jordanblöcke stehen. 15 Jordan-Normalform: 0 0 . . . 0 . . . . . . .. ... . . . . 0 0 11 ... ... ... 0 Skalarprodukte 11.1 Denition Abbildung V , ¡: V V Sei ein Vektorraum über dem Körper R der reellen Zahlen. Eine Ñ R heiÿt Skalarprodukt, wenn sie die folgenden Eigenschaften hat: (B1) (B2) (S) (P) @v1, v2 P V @w P V @λ P R : v1 v2, w ¡ v1, w ¡ v2, w ¡ λv1, w ¡ λ v1, w ¡ (linear in der ersten Variablen). @v0 P V @w1, w2 P V @λ P R : v0, w1 w2 ¡ v0, w1 ¡ v0, w2 ¡ v0, λw1 ¡ λ v0, w1 ¡ (linear in der zweiten Variablen). @v1, v2 P V : v1, v2 ¡ v2, v1 ¡. @v1 P V, v1 0 : v1, v1 ¡ ¡ 0. (B1) und (B2) stehen für bilinear , (S) für symmetrisch , (P) für positiv denit. (B2) folgt aus (B1) und (S). Sei V ein Vektorraum über R und , ¡ ein Skalarprodukt. V mit , ¡ euklidischer Vektorraum. ? v , v ¡. k v k heiÿt die Norm (oder die Länge) von v . Für v1 P V sei k v1 k: 1 1 1 1 Für v1 , v2 P V sei dpv1 , v2 q :k v1 v2 k . dpv1 , v2 q heiÿt der Abstand (oder die Distanz) zwischen v1 und v2 . Vektoren v1 und v2 heiÿen orthogonal (oder senkrecht) zueinander, wenn v1 , v2 ¡ 0. Schreibweise: v1 K v2 . Der Winkel α zwischen zwei Vektoren v1 0 und v2 0 ist deniert durch 11.2 Denition heiÿt dann ein cos α : 11.3 Proposition Sei V v1, v2 ¡ . k v1 k k v2 k ein euklidischer Vektorraum und x, y, z P V, sowie λ P R. Dann gilt: (1) kx y k 2 k x k 2 (2) kx y k2 (3) | x, y ¡|¤ k x k k y k . Gleichheit gilt genau dann, wenn x und y linear abhängig k y k2 2 x, y k x y k2 2 pk x k2 ¡ (verallgemeinerter Satz des Pythagoras) k y k2 q ( Parallelogrammgleichung) sind. (Cauchy-Schwarzsche Ungleichung) 16 (4) (5) k λ x k | λ | k x k k x y k ¤ k x k k y k (Dreiecksungleichung) k x k 0 ô x 0 (Eigenschaft der Norm) dpx, y q dpy, xq dpx, z q ¤ dpx, y q dpy, z q (Dreiecksungleichung) dpx, y q 0 ô x y (Eigenschaften des Abstands) 11.4 Denition Sei V ein euklidischer Vektorraum. (a) Zwei Untervektorräume v1 (b) Sei als U1 und K v2. Schreibweise U1 K U2 U2 heiÿen orthogonal : ô @ v1 P U1, v2 P U2 gilt U ein Untervektorraum. Das orthogonale Komplement U K U K : tv1 P V : v1 K u1 @ u1 P U u. pviqiPI von Vektoren heiÿt orthogonal:ô @ i j; vi K vj orthonormal:ô orthogonal und k vi k 1 @ i P I Orthonormalbasis pON B q : ô orthonormal und zu U ist deniert (c) Eine Familie 11.5 Algorithmus zur Schmidt): Sei V eine Basis Orthonormalisierung einer Basis (Verfahren von Gram und ein endlich-dimensionaler euklidischer Vektorraum, u1 , . . . , un . Dann erzeugt das folgende ON B w1 , . . . , wn von U . Für jedes l mit 1 ¤ l ¤ n gilt sogar: Span pu1 , . . . , ul q Span pw1 , . . . , wl q. tervektorraum mit Basis Start: u1 , setze 2.Schritt: Sei v2 : w1 , u2 w1 : ¡ w1 . w2 : U V ein Un- Verfahren eine u1 . k u1 k u2 v2 . k u2 v2 k ¡ w1 w2, u3 ¡ w2. u3 v3 . w3 : k u3 v3 k 11.6 Denition Sei V Rn mit Basis b1 , . . . , bn und s : V V Ñ R eine symmetrische Bilinearform, d.h. pB1q, pB2q und pS q gelten, aber vielleicht nicht pP q . Die Matrix M psq mit Einträgen spbi , bj q heiÿt darstellende Matrix von s. 11.7 Proposition Die Zuordnung s ÞÑ M psq ist eine bijektive Abbildung von der Menge der symmetrischen Bilinearformen s : V V Ñ R auf die Menge der symmetrischen dim V dim V Matrizen. 11.8 Denition Sei V ein euklidischer Vektorraum und α : V Ñ V ein Endomorphismus. α heiÿt orthogonal, wenn @ v1 , v2 P V : αpv1 q, αpv2 q ¡ v1 , v2 ¡ . 11.9 Proposition Sei A P M atpn n, Rq invertierbar. Dann sind äquivalent: 1 AT (a) A 3.Schritt: v3 : w1 , u3 17 (b) Die Spaltenvektoren von bilden eine Orthonormalbasis von Rn , bzgl. Standard- bilden eine Orthonormalbasis von Rn , bzgl. Standard- A skalarprodukt. (c) Die Zeilenvektoren von A skalarprodukt Solche Matrizen Sei V V. Sei A orthogonal. heiÿen ein endlich-dimensionaler euklidischer Raum und ÑV ϕ:V linear. Dann ist A darstellende Matrix 11.10 Theorem Sei ϕ eine Orthonormalbasis von eine orthogonale Abbildung genau dann, wenn die ON B B bezüglich der V B eine orthogonale Matrix ist. ein endlich-dimensionaler euklidischer Raum und ϕ : V Ñ V ein V , bezüglich orthogonaler Endomorphismus. Dann gibt es eine Orthonormalbasis von derer die darstellende Matrix von 11.11 Theorem die folgende Form hat: 1 wobei die Kästchen ϕ .. . 1 1 .. . 1 .. 2 2-Matrizen zu Drehungen sind. A P M atpn n, Rq S , so dass Sei orthogonale Matrix . S T AS eine symmetrische Matrix. Dann gibt es eine λ1 0 .. 0 . λn eine Diagonalmatrix ist. Das Standardskalarprodukt auf Cn ist deniert durch: ņ , ¡: Cn Cņn Ñ C Ñx , Ñy ¡ xj yj ÑÑ j 1 Dann gilt: ņ x , x ¡ j 1 ÑÑ λ x , y ¡ ņ λxj yj xj xj | xj |2¡ 0 für Ñx 0. j 1 ÑÑ λ x, y ¡ j 1 18 x, y ¡ y, x ¡ Hermitische Form. Das deniert eine Wenn die Hermitische Form positiv denit ist, heiÿt sie auch Skalarprodukt. Rn A AT symmetrisch x, y ¡ xT Ay Cn A AT Hermitisch x, y ¡ xT Ay orthogonale Matrix AT A1 unitäre Matrix T A AT A1 11.12 Proposition Sei (a) Dann gilt für alle A P M atpn n, Cq x, y (b) Alle Eigenwerte von eine Hermitische Matrix, d.h. P Cn : Ax, y ¡ x, Ay ¡ . A AT A. sind reell. Geometrische Anwendungen: (1.) Seien s 0 0 und Gerade. Wenn Für beliebiges heiÿt in R2 g gegeben. tu P R2 : s, u v ¡ 0u beschreibt eine k s k 1 gewählt wird, ist diese Form die Hessesche Normalform der g. Geraden s v u P R2 ist Normalenvektor | s, u v ¡| der Abstand von u zur Geraden g. zu g. (2.) Hauptachsentransformation bei Quadriken (Kegelschnitten) y2 25 x2 g x2 g 1 Ellipse. y2 1 2 1? 5y 2 px, y q 5y 2 8xy 5x2 8xy 5 4 4 5 und y Achse 5 4 4 5 x y A hat charakteristisches Polynom pt 1qpt 9q ñ EW 1 und 9 ?1 EV zu 1 : ? 12 2 ?1 w1 EV zu 9 : ?12 S ?1 ?1 12 ?12 ? 2 A SDS T w2 2 D Bezüglich dieser Basis ist die Matrix sind Hauptachsen Hyperbel. Dieselben Hauptachsen. 5 5x2 x 1 0 0 9 1 S T ist orthogonal ñ S 2 1 ?1 ? 2 2 ?1 ?1 2 2 ñ (neue Koordinaten)1 xT Ay xT SDS T y 1p x?2y q2 Ellipse, deren Hauptachsen durch w1 und 19 w2 gegeben sind. 9p x?2y q2 ñ