2.4 Polynomringe Wir lernen nun einen ganz wichtigen Ring kennen, den Polynomring: Definition 2.56. Sei R ein kommutativer Ring mit 1 (in den meisten Fällen wird R ein Körper sein). Wir betrachten die Menge X R[x] := { αi xi : nur endlich viele αi 6= 0, αi ∈ R}. i∈N0 Dann können wir in R[x] eine Addition definieren X X X αi xi + βi xi := (αi + βi )xi i∈N0 i∈N0 sowie eine Multiplikation X αi xi · i∈N0 i∈N0 X βi xi := i∈N0 mit γi = X γ i xi i∈N0 X αj βk . j,k∈N0 ,j+k=i Proposition 2.57. (R[x], +, ·, 0) ist ein kommutativer Ring mit 1, wobei 1 = 1 · x0 ist und 0 das “Nullpolynom”. Beweis. Wollen Sie das wirklich nachrechnen?? P αi 6= 0. Definition 2.58. Der Grad des Polynoms i αi xi ist das größte i mitP Das Nullpolynom hat keinen Grad. Bezeichnung: Grad(f ). Ein Polynom i αi xi vom Grad d heißt monisch wenn αd = 1 gilt. Ab jetzt betrachten wir nur noch Polynomringe über Körpern K. Wir können dann einen Divisionsalgorithmus, vergleichbar der Division mit Rest über den ganzen Zahlen, definieren: Satz 2.59. Seien f, g ∈ K[x], g 6= 0. Dann gibt es eindeutig bestimmte Polynome q, r ∈ K[x] mit f = g · q + r und Grad(r) < Grad(g) oder r = 0. Im Fall r = 0 sagen wir, g teilt f (geschrieben g|f ). Beweis. r ist das Polynom kleinsten Grades in der Menge {f + gq : q ∈ K[x]}, oder r = 0, falls das Nullpolynom darin liegt. Wir wollen uns nun überlegen, dass K[x], ähnlich wie Z, ein Hauptidealring ist. Satz 2.60. Sei {0} = 6 I ≤ K[x]. Sei d das eindeutig bestimmte monische Polynom kleinsten Grades in I. Dann gilt hdi = I. Beweis. Basiert weitgehend auf Satz 2.59. 18 Definition 2.61. Seien p1 , . . . , ps Polynome in K[x], nicht alle = 0. Dann nennen wir den eindeutig bestimmten monischen Erzeuger des Ideals hp1 , . . . , ps i den größten gemeinsamen Teiler (ggT) der pi . Bemerkung 2.62. Man mache sich klar, dass der Begriff “ggT” hier gerechtfertigt ist. Insbesondere ist der ggT wirklich ein Teiler aller pi ! Ferner mache man sich klar, dass es Polynome f1 , . . . , fs gibt mit d= s X f i pi i=1 (Vielfachsummendarstellung des ggT). Wenn d′ alle pi teilt, dann gilt d′ |d. Für spätere Anwendungen benötigen wir noch, dass man jedes Polynom eindeutig als Produkt irreduzibler Polynome schreiben kann: Definition 2.63. Ein Polynom f ∈ K[x] heißt irreduzibel, wenn es keine zwei Polynome g, h vom Grad ≥ 1 gibt mit f = gh. Proposition 2.64. Sei p ein irreduzibles Polynom. Wenn p ein Teiler von f g ist, dann muss p ein Teiler von f oder g sein. Beweis. Angenommen, p teilt nicht f . Dann ist 1 der ggT von p und f , also 1 = pp0 + f f0 für zwei Polynome p0 und f0 . Multiplikation mit g liefert g = gpp0 + gf f0 . Nun ist p aber ein Teiler von gf und von gpp0 , also muss p auch ein Teiler von g sein. Mit Induktion folgt: Korollar 2.65. Ist p irreduzibel und teilt ein Produkt f1 · · · fs , dann teilt p mindestens einen der Faktoren. Satz 2.66. Sei f ein monisches Polynom in K[x] vom Grad ≥ 1. Dann kann f als Produkt monischer irreduzibler Polynome vom Grad ≥ 1 geschrieben werden. Diese Darstellung ist bis auf die Reihenfolge der Faktoren eindeutig. Beweis. I. Existenz. Klar wenn f irreduzibel ist. Sonst faktorisiert man in zwei Polynome kleineren Grades und fährt so fort (also Induktion über den Grad von f ). II. Eindeutigkeit. Angenommen f = p1 · · · ps = q1 · · · qt sind zwei Zerlegungen in irreduzible monische Polynome vom Grad ≥ 1. Induktion über den Grad von f : p1 muss eines der irreduziblen Polynome q1 , . . . , qt teilen, oBdA sei dies q1 . Damit gilt aber (weil q1 irreduzibel ist) p1 = q1 . Dann gilt f /p1 = p2 · · · ps = q2 · · · qt . Weil der Grad von f /p1 kleiner als der von f ist, sind wir mit Induktion fertig. 19 2.5 Algebren Definition 2.67. Sei V ein K-Vektorraum. Wir nennen V eine K-Algebra, wenn zusätzlich zur Addition und zur skalaren Multiplikation im Vektorraum V noch eine Multiplikation · : V × V → V definiert ist, die folgende Eigenschaften hat: (A1) (v · w) · u = v · (w · u), (A2) v · (w + u) = v · w + v · u, (v + w) · u = v · u + w · u, (A3) λ(v · w) = (λv) · w = v · (λw) für alle u, v, w ∈ V und alle λ ∈ K. Bemerkung 2.68. Offenbar ist (V, +, ·, 0) ein Ring. Wir nennen daher die Algebra naheliegenderweise kommutativ, wenn dieser Ring kommutativ ist, und wir sprechen von einer Algebra mit 1, wenn es zusaätzlich ein multiplikativ neutrales Element gibt. Beispiel 2.69. Der Matrizenring K(n,n) ist eine K-Algebra mit 1 = In . Diese ist nicht kommutativ für n > 1. Der Polynomring ist eine kommutative Algebra (ebenfalls mit 1, nämlich 1 = x0 ). Interessant ist, dass wir in Polynome f ∈ K[x] für x nicht nur, wie man naheliegenderweise vermutet, Elemente aus K einsetzen können, sondern sogar Elemente aus einer beliebigen K-Algebra. Für uns wird der Fall wichtig, dass wir in Polynome auch Matrizen einsetzen können: Definition 2.70. Sei V eine K-Algebra mit neutralem Element 1, und sei v ∈ V P fest gewählt. Dann definieren wir für jedes Polynom f = i∈N0 αi xi f (v) := X αi v i , i∈N0 wobei v 0 = 1 sei. Satz 2.71. Unter den Voraussetzungen wie in Definiton 2.70 gilt für alle Polynome f, g ∈ K[x] und alle λ ∈ K: (f g)(v) = f (v) · g(v), (λf + g)(v) = λf (v) + g(v). Beweis. Einfaches Nachrechnen! Korollar 2.72. Sei V eine K-Algebra mit 1. Ferner sei v ∈ V festgewählt. Dann ist die Menge {f (v) : f ∈ K[x]} mit den in V definierten Verknüpfungen eine kommutative Algebra mit 1. 20 Beweis. Es gilt f (v) · g(v) = (f g)(v) = (gf )(v) = g(v) · f (v). Weil wir also Polynome vertauschen können, kann man bei der Multiplikation f (v) und g(v) vertauschen. Abschließend wollen wir uns noch überlegen, warum (x − λ) Teiler eines Polynomes f genau dann ist, wenn f (λ) = 0 gilt. Proposition 2.73. Sei f ∈ K[x], λ ∈ K. Dann gilt: (x − λ) teilt f ⇔ f (λ) = 0. Beweis. Division mit Rest zeigt, dass es q, r gibt mit f = (x − λ)q + r, wobei Grad(r) < Grad(x − λ) = 1 oder r = 0 gilt. Nun gilt (x − λ)|f genau dann wenn r = 0 gilt. Einsetzen von λ zeigt, dass dies genau dann der Fall ist, wenn f (λ) = 0. 3 Determinanten In diesem Kapitel betrachten wir Matrizen über kommutativen Ringen R mit 1. Matrizenmultiplikation ist immer noch assoziativ und die Distributivgesetze gelten ebenso. Wir bezeichnen die i-te Zeile einer Matrix A mit ai . 3.1 Definition und Existenz der Determinante Definition 3.1. Sei R ein kommutativer Ring mit 1. Eine Abbildung D : R(n,n) → R heißt n-linear, wenn für alle 1 ≤ i ≤ n und alle Matrizen a1 a1 .. .. . . ai , a′ i . . .. .. an an und alle λ ∈ K gilt: a1 a1 .. .. . . ′ ′ D λ · a i + a i = λ · D a 1 + D ai .. . . .. .. . an an an a1 .. . Lax gesprochen: D ist linear in jeder Zeile, sofern die anderen Zeilen festgehalten werden. Beispiel 3.2. In der Vorlesung bestimmen wir alle n-linearen Funktionen auf R(2,2) . 21 Lemma 3.3. Seien D und E zwei n-lineare Funktionen auf R(n,n) , und seien γ, µ ∈ R. Dann ist auch γD + µE eine n-lineare Funktion (wobei natürlich (γD + µE)(A) = γD(A) + µE(A) gelte). Definition 3.4. Sei D eine n-lineare Funktion auf R(n,n) , wobei R ein kommutativer Ring mit 1 ist. Wir nennen D alternierend, wenn gilt: (A1) D(A) = 0 wenn A zwei gleiche Zeilen hat. (A2) D(A) = −D(A′ ) wenn A′ aus A durch Vertauschen zweier Zeilen hervorgeht. Gilt zusätzlich D(In ) = 1, so heißt D eine Determinantenfunktion oder einfach eine Determinante. α1,1 α1,2 = α1,1 α2,2 − Beispiel 3.5. Die Abbildung D auf R(2,2) mit D α2,1 α2,2 α1,2 α2,1 ist eine Determinante. Unser erstes Ziel wird sein, die Existenz einer Determinante zu beweisen. Proposition 3.6. D sei n-linear. Angenommen D(A) = 0 wenn A zwei gleiche Zeilen hat. Dann ist D alternierend. Beweis. (Skizze.) Man zeigt zunächst, dass das Vertauschen zweier benachbarter Zeilen das Vorzeichen von D ändert. Danach zeigt man, dass sich durch das Vertauschen beliebiger Zeilen das Vorzeichen ändert. Abschließend zeigt man D(A) = 0 wenn immer A zwei beliebige gleiche Zeilen hat. Definition 3.7. Sei A ∈ R(n,n) , und sei 1 ≤ i, j ≤ n. Dann bezeichnen wir die Matrix, die aus A durch Streichen von Zeile i und Spalte j entsteht, mit A(i|j). Ist D eine (n − 1)-lineare Funktion, so definieren wir auf R(n,n) : Di,j (A) := D(A(i|j)). Satz 3.8. Sei n > 1 und sei D eine (n − 1)-lineare Abbildung. Ferner sei 1 ≤ j ≤ n. Dann ist die Abbildung Ej auf R(n,n) definiert durch Ej (A) = n X (−1)i+j αi,j D(A(i|j)) i=1 alternierend und n-linear auf R(n,n) . Ist D sogar eine Determinante (in dem Fall muss R eine 1 enthalten), dann ist auch Ej eine Determinante. Beweis. Vorlesung! Weil wir bereits eine Determinante auf R(2,2) kennengelernt haben, gilt: Korollar 3.9. Zu jedem kommutativen Ring R mit 1 und jedem n gibt es eine Determinante auf R(n,n) . Achtung: Auf den ersten Blick sieht es so aus, als ob wir hier n verschiedene Determinanten definieren, für jedes j eine. Es wird jetzt unser Ziel sein, die Eindeutigkeit der Determinante zu beweisen. 22 3.2 Eindeutigkeit der Determinante und das Vorzeichen von Permutationen Wir haben bereits Permutationen auf {1, . . . , n} kennengelernt: Das sind bijektive Abbildungen {1, . . . , n} → {1, . . . , n}. Definition 3.10. Sei R ein kommutativer Ring mit 1. Ferner sei σ ∈ Sn . Dann definieren wir die Matrix Pσ ∈ R(n,n) wie folgt: Die Zeile i von Pσ ist der σ(i)-te Einheitsvektor (als Zeile geschrieben). Bemerkung 3.11. Es gilt Pσ◦τ = Pτ · Pσ sowie Pσ−1 = P⊺ . Offenbar können wir die Matrix Pσ aus In durch sukzessive Zeilenvertauschungen erhalten. Ist D eine Determinante, so gilt D(Pσ ) = ±1, wobei wir den Wert +1 haben, wenn wir Pσ aus In durch eine gerade Anzahl Vertauschungen erhalten, andernfalls ist D(Pσ ) = −1. Nun wissen wir, dass es (mindestens) eine Determinante D gibt. Diese Determinante zeigt dann, dass wir Pσ aus In durch eine gerade oder eine ungerade Anzahl Zeilenvertauschungen erhalten. Es ist zwar möglich, dass dasselbe Pσ durch verschiedene Abfolgen von Zeilenvertauschungen erhalten werden kann, aber die Anzahl der Vertauschungen st entweder stets gerade oder ungerade. Das zeigt, dass die folgende Definition sinnvoll ist: Definition 3.12. Sei σ ∈ Sn . Wir definieren 1 Pσ kann aus In durch eine gerade Anzahl sgn(σ) := Zeilenvertauschungen erhalten werden −1 sonst. Satz 3.13. Sei D eine n-lineare und alternierende Funktion auf R(n,n) , wobei R ein kommutativer Ring mit 1 ist. Dann gilt X α1,σ(1) · · · αn,σ(n) · sgn(σ)D(In ). D(A) = σ∈Sn Beweis. Man muss einfach nacheinander nach den Zeilen entwickeln und beachten, dass Matrizen mit zwei gleichen Zeilen den D-Wert 0 haben. Korollar 3.14. Sei R ein kommutativer Ring mit 1. Dann gibt es genau eine Determinante auf R(n,n) (nenne diese det). Es gilt X α1,σ(1) · · · αn,σ(n) · sgn(σ). (7) det(A) = σ∈Sn Diese Gleichung heißt auch Leibniz-Formel. Ist D alternierend und n-linear, dann gilt D(A) = det(A) · D(In ). 23 Wir haben in Satz 3.8 gesehen, dass man die Determinante einer n × n - Matrix durch Zurückführen auf die Berechnung von Determinanten von (n−1)×(n−1) Matrizen bestimmen kann. Man nennt dies auch den Laplace’schen Entwicklungssatz (Entwickeln nach Spalte j). In Satz 3.8 hing das Ergebnis scheinbar von der Auswahl der Spalte j ab; jetzt, da wir gezeigt haben, dass die Determinante eindeutig ist, wissen wir, dass wir für jede Auswahl von j denselben Wert erhalten. 3.3 Eigenschaften von Determinanten Satz 3.15 (Determinantenproduktsatz). Es gilt det(AB) = det(A) · det(B). Beweis. Sei B fest. Man zeigt, dass D(A) := det(AB) alternierend und n-linear ist, also (Korollar 3.14) D(A) = det(A) · D(In ). Beachte nun D(In ) = det(B). Korollar 3.16. Eine Transposition ist eine Permutation in Sn , die zwei Elemente vertauscht und die restlichen Elemente festlässt. Jede Permutation σ ist Produkt von Transpositionen. Die Anzahl von Transpositionen ist modulo 2 genau sgn(σ). Beweis. Benutze Pτ ◦σ = Pσ · Pτ und den Determinantenproduktsatz. Satz 3.17. Es gilt det(A) = det(A⊺ ). Beweis. Leibnizformel. Satz 3.18. Ist A eine obere Dreiecksmatrix, dann ist die Determinante das Produkwo wir wissent der Diagonaleinträge. Beweis. Auch hier: Leibnizformel oder Induktion mit Laplace (Entwickeln nach der ersten Spalte). Elementare Zeilenumformungen einer Matrix werden durch Multiplikation von links mit Elementarmatrizen realisiert. Vertauschen zweier Zeilen ändert das Vorzeichen der Determinante, Addition des Vielfachen einer Zeile zu einer anderen ändert die Determinante nicht, und wenn wir eine Zeile mit einer Zahl multiplizieren wird die Determinante dadurch auch entsprechend multipliziert. Wenn wir also konkret eine Determinante ausrechnen wollen, wenden wir GaußElimination an (transformiere in eine obere Dreiecksmatrix) und berechnen erst dann die Determinante. Wegen Satz 3.17 darf man hier sogar Zeilen- und Spaltenumformungen anwenden. 24 Beispiel 3.19. In der Vorlesung berechnen wir die Determinante von 1 −1 2 3 2 2 0 2 4 1 −1 −1 1 2 3 0 (diese ist 128). Proposition 3.20. Seien A ∈ R(n,n) , B ∈ R(n,m) und C ∈ R(m,m) . Dann gilt A B det = det(A) · det(C). 0 C A B Beweis. Zeige: D(C) = det ist für feste A, B alternierend und m0 C linear, also A B det = det(C) · D(I). 0 C Nun gilt A B A 0 = det 0 I 0 I A 0 und man überlegt sich ähnlich det = det(A). 0 I D(I) = det Definition 3.21. Sei A ∈ R(n,n) . Wir definieren die Kofaktoren γi,j := (−1)i+j det(A(i|j)), wobei A(i|j) aus A durch Streichen von Zeile i und Spalte j entsteht. Die Matrix adj(A) := (γj,i )i,j=1,...,n heißt die Adjunkte von A. Satz 3.22. Es gilt adj(A) · A = (det(A)) · In . Insbesondere ist A in R tierbar ist. (n,n) invertierbar genau dann wenn det(A) in R inver- Beweis. Vorlesung. Abschließend erwähnen wir noch die Cramer’sche Regel, die man in der Praxis nicht benutzt, um lineare Gleichungssysteme zu lösen, die aber manchmal von theretischem Interesse ist: 25 Satz 3.23 (Cramer’sche Regel). Sei A ∈ K(n,n) eine invertierbare Matrix, und sei b ∈ Kn . Dann hat Ax = b genau eine Lösung x = (xi )i=1,...,n . Mit Bj bezeichnen wir die Matrix, die wir aus A erhalten, indem wir Spalte j durch b ersetzen. Dann gilt det(Bj ) . xj = det(A) Beweis. Vorlesung: Die Determinante det(Bj ) ist gleich der Determinante der Matrix, die man aus A durch Multiplikation von Spalte j mit xj erhält. 26