2.4 Polynomringe

Werbung
2.4
Polynomringe
Wir lernen nun einen ganz wichtigen Ring kennen, den Polynomring:
Definition 2.56. Sei R ein kommutativer Ring mit 1 (in den meisten Fällen
wird R ein Körper sein). Wir betrachten die Menge
X
R[x] := {
αi xi : nur endlich viele αi 6= 0, αi ∈ R}.
i∈N0
Dann können wir in R[x] eine Addition definieren
X
X
X
αi xi +
βi xi :=
(αi + βi )xi
i∈N0
i∈N0
sowie eine Multiplikation
X
αi xi ·
i∈N0
i∈N0
X
βi xi :=
i∈N0
mit
γi =
X
γ i xi
i∈N0
X
αj βk .
j,k∈N0 ,j+k=i
Proposition 2.57. (R[x], +, ·, 0) ist ein kommutativer Ring mit 1, wobei 1 =
1 · x0 ist und 0 das “Nullpolynom”.
Beweis. Wollen Sie das wirklich nachrechnen??
P
αi 6= 0.
Definition 2.58. Der Grad des Polynoms i αi xi ist das größte i mitP
Das Nullpolynom hat keinen Grad. Bezeichnung: Grad(f ). Ein Polynom i αi xi
vom Grad d heißt monisch wenn αd = 1 gilt.
Ab jetzt betrachten wir nur noch Polynomringe über Körpern K. Wir können
dann einen Divisionsalgorithmus, vergleichbar der Division mit Rest über den
ganzen Zahlen, definieren:
Satz 2.59. Seien f, g ∈ K[x], g 6= 0. Dann gibt es eindeutig bestimmte Polynome q, r ∈ K[x] mit f = g · q + r und Grad(r) < Grad(g) oder r = 0. Im Fall
r = 0 sagen wir, g teilt f (geschrieben g|f ).
Beweis. r ist das Polynom kleinsten Grades in der Menge {f + gq : q ∈ K[x]},
oder r = 0, falls das Nullpolynom darin liegt.
Wir wollen uns nun überlegen, dass K[x], ähnlich wie Z, ein Hauptidealring ist.
Satz 2.60. Sei {0} =
6 I ≤ K[x]. Sei d das eindeutig bestimmte monische Polynom kleinsten Grades in I. Dann gilt hdi = I.
Beweis. Basiert weitgehend auf Satz 2.59.
18
Definition 2.61. Seien p1 , . . . , ps Polynome in K[x], nicht alle = 0. Dann nennen wir den eindeutig bestimmten monischen Erzeuger des Ideals hp1 , . . . , ps i
den größten gemeinsamen Teiler (ggT) der pi .
Bemerkung 2.62. Man mache sich klar, dass der Begriff “ggT” hier gerechtfertigt ist. Insbesondere ist der ggT wirklich ein Teiler aller pi ! Ferner mache
man sich klar, dass es Polynome f1 , . . . , fs gibt mit
d=
s
X
f i pi
i=1
(Vielfachsummendarstellung des ggT). Wenn d′ alle pi teilt, dann gilt d′ |d.
Für spätere Anwendungen benötigen wir noch, dass man jedes Polynom eindeutig als Produkt irreduzibler Polynome schreiben kann:
Definition 2.63. Ein Polynom f ∈ K[x] heißt irreduzibel, wenn es keine zwei
Polynome g, h vom Grad ≥ 1 gibt mit f = gh.
Proposition 2.64. Sei p ein irreduzibles Polynom. Wenn p ein Teiler von f g
ist, dann muss p ein Teiler von f oder g sein.
Beweis. Angenommen, p teilt nicht f . Dann ist 1 der ggT von p und f , also
1 = pp0 + f f0 für zwei Polynome p0 und f0 . Multiplikation mit g liefert g =
gpp0 + gf f0 . Nun ist p aber ein Teiler von gf und von gpp0 , also muss p auch
ein Teiler von g sein.
Mit Induktion folgt:
Korollar 2.65. Ist p irreduzibel und teilt ein Produkt f1 · · · fs , dann teilt p
mindestens einen der Faktoren.
Satz 2.66. Sei f ein monisches Polynom in K[x] vom Grad ≥ 1. Dann kann f
als Produkt monischer irreduzibler Polynome vom Grad ≥ 1 geschrieben werden.
Diese Darstellung ist bis auf die Reihenfolge der Faktoren eindeutig.
Beweis. I. Existenz. Klar wenn f irreduzibel ist. Sonst faktorisiert man in zwei
Polynome kleineren Grades und fährt so fort (also Induktion über den Grad von
f ).
II. Eindeutigkeit. Angenommen f = p1 · · · ps = q1 · · · qt sind zwei Zerlegungen
in irreduzible monische Polynome vom Grad ≥ 1. Induktion über den Grad von
f : p1 muss eines der irreduziblen Polynome q1 , . . . , qt teilen, oBdA sei dies q1 .
Damit gilt aber (weil q1 irreduzibel ist) p1 = q1 . Dann gilt f /p1 = p2 · · · ps =
q2 · · · qt . Weil der Grad von f /p1 kleiner als der von f ist, sind wir mit Induktion
fertig.
19
2.5
Algebren
Definition 2.67. Sei V ein K-Vektorraum. Wir nennen V eine K-Algebra,
wenn zusätzlich zur Addition und zur skalaren Multiplikation im Vektorraum V
noch eine Multiplikation · : V × V → V definiert ist, die folgende Eigenschaften
hat:
(A1) (v · w) · u = v · (w · u),
(A2) v · (w + u) = v · w + v · u,
(v + w) · u = v · u + w · u,
(A3) λ(v · w) = (λv) · w = v · (λw)
für alle u, v, w ∈ V und alle λ ∈ K.
Bemerkung 2.68. Offenbar ist (V, +, ·, 0) ein Ring. Wir nennen daher die
Algebra naheliegenderweise kommutativ, wenn dieser Ring kommutativ ist,
und wir sprechen von einer Algebra mit 1, wenn es zusaätzlich ein multiplikativ
neutrales Element gibt.
Beispiel 2.69. Der Matrizenring K(n,n) ist eine K-Algebra mit 1 = In . Diese
ist nicht kommutativ für n > 1. Der Polynomring ist eine kommutative Algebra
(ebenfalls mit 1, nämlich 1 = x0 ).
Interessant ist, dass wir in Polynome f ∈ K[x] für x nicht nur, wie man naheliegenderweise vermutet, Elemente aus K einsetzen können, sondern sogar
Elemente aus einer beliebigen K-Algebra. Für uns wird der Fall wichtig, dass
wir in Polynome auch Matrizen einsetzen können:
Definition 2.70. Sei V eine K-Algebra mit neutralem Element
1, und sei v ∈ V
P
fest gewählt. Dann definieren wir für jedes Polynom f = i∈N0 αi xi
f (v) :=
X
αi v i ,
i∈N0
wobei v 0 = 1 sei.
Satz 2.71. Unter den Voraussetzungen wie in Definiton 2.70 gilt für alle Polynome f, g ∈ K[x] und alle λ ∈ K:
(f g)(v)
=
f (v) · g(v),
(λf + g)(v)
=
λf (v) + g(v).
Beweis. Einfaches Nachrechnen!
Korollar 2.72. Sei V eine K-Algebra mit 1. Ferner sei v ∈ V festgewählt.
Dann ist die Menge
{f (v) : f ∈ K[x]}
mit den in V definierten Verknüpfungen eine kommutative Algebra mit 1.
20
Beweis. Es gilt f (v) · g(v) = (f g)(v) = (gf )(v) = g(v) · f (v). Weil wir also
Polynome vertauschen können, kann man bei der Multiplikation f (v) und g(v)
vertauschen.
Abschließend wollen wir uns noch überlegen, warum (x − λ) Teiler eines Polynomes f genau dann ist, wenn f (λ) = 0 gilt.
Proposition 2.73. Sei f ∈ K[x], λ ∈ K. Dann gilt:
(x − λ) teilt f
⇔
f (λ) = 0.
Beweis. Division mit Rest zeigt, dass es q, r gibt mit f = (x − λ)q + r, wobei
Grad(r) < Grad(x − λ) = 1 oder r = 0 gilt. Nun gilt (x − λ)|f genau dann
wenn r = 0 gilt. Einsetzen von λ zeigt, dass dies genau dann der Fall ist, wenn
f (λ) = 0.
3
Determinanten
In diesem Kapitel betrachten wir Matrizen über kommutativen Ringen R mit
1. Matrizenmultiplikation ist immer noch assoziativ und die Distributivgesetze
gelten ebenso. Wir bezeichnen die i-te Zeile einer Matrix A mit ai .
3.1
Definition und Existenz der Determinante
Definition 3.1. Sei R ein kommutativer Ring mit 1. Eine Abbildung D :
R(n,n) → R heißt n-linear, wenn für alle 1 ≤ i ≤ n und alle Matrizen
 
 
a1
a1
 .. 
 .. 
.
.
 
 
 ai  ,  a′ 
 
 i
.
.
 .. 
 .. 
an
an
und alle λ ∈ K gilt:




 
a1
a1


 .. 
 .. 


.
.


 
 ′
′




D λ · a i + a i  = λ · D  a 1  + D 
 ai 





..
.
.


 .. 
 .. 
.
an
an
an
a1
..
.
Lax gesprochen: D ist linear in jeder Zeile, sofern die anderen Zeilen festgehalten
werden.
Beispiel 3.2. In der Vorlesung bestimmen wir alle n-linearen Funktionen auf
R(2,2) .
21
Lemma 3.3. Seien D und E zwei n-lineare Funktionen auf R(n,n) , und seien
γ, µ ∈ R. Dann ist auch γD + µE eine n-lineare Funktion (wobei natürlich
(γD + µE)(A) = γD(A) + µE(A) gelte).
Definition 3.4. Sei D eine n-lineare Funktion auf R(n,n) , wobei R ein kommutativer Ring mit 1 ist. Wir nennen D alternierend, wenn gilt:
(A1) D(A) = 0 wenn A zwei gleiche Zeilen hat.
(A2) D(A) = −D(A′ ) wenn A′ aus A durch Vertauschen zweier Zeilen hervorgeht.
Gilt zusätzlich D(In ) = 1, so heißt D eine Determinantenfunktion oder
einfach eine Determinante.
α1,1 α1,2
= α1,1 α2,2 −
Beispiel 3.5. Die Abbildung D auf R(2,2) mit D
α2,1 α2,2
α1,2 α2,1 ist eine Determinante.
Unser erstes Ziel wird sein, die Existenz einer Determinante zu beweisen.
Proposition 3.6. D sei n-linear. Angenommen D(A) = 0 wenn A zwei gleiche
Zeilen hat. Dann ist D alternierend.
Beweis. (Skizze.) Man zeigt zunächst, dass das Vertauschen zweier benachbarter
Zeilen das Vorzeichen von D ändert. Danach zeigt man, dass sich durch das
Vertauschen beliebiger Zeilen das Vorzeichen ändert. Abschließend zeigt man
D(A) = 0 wenn immer A zwei beliebige gleiche Zeilen hat.
Definition 3.7. Sei A ∈ R(n,n) , und sei 1 ≤ i, j ≤ n. Dann bezeichnen wir die
Matrix, die aus A durch Streichen von Zeile i und Spalte j entsteht, mit A(i|j).
Ist D eine (n − 1)-lineare Funktion, so definieren wir auf R(n,n) :
Di,j (A) := D(A(i|j)).
Satz 3.8. Sei n > 1 und sei D eine (n − 1)-lineare Abbildung. Ferner sei
1 ≤ j ≤ n. Dann ist die Abbildung Ej auf R(n,n) definiert durch
Ej (A) =
n
X
(−1)i+j αi,j D(A(i|j))
i=1
alternierend und n-linear auf R(n,n) . Ist D sogar eine Determinante (in dem
Fall muss R eine 1 enthalten), dann ist auch Ej eine Determinante.
Beweis. Vorlesung!
Weil wir bereits eine Determinante auf R(2,2) kennengelernt haben, gilt:
Korollar 3.9. Zu jedem kommutativen Ring R mit 1 und jedem n gibt es eine
Determinante auf R(n,n) .
Achtung: Auf den ersten Blick sieht es so aus, als ob wir hier n verschiedene
Determinanten definieren, für jedes j eine. Es wird jetzt unser Ziel sein, die
Eindeutigkeit der Determinante zu beweisen.
22
3.2
Eindeutigkeit der Determinante und das Vorzeichen
von Permutationen
Wir haben bereits Permutationen auf {1, . . . , n} kennengelernt: Das sind bijektive Abbildungen {1, . . . , n} → {1, . . . , n}.
Definition 3.10. Sei R ein kommutativer Ring mit 1. Ferner sei σ ∈ Sn . Dann
definieren wir die Matrix Pσ ∈ R(n,n) wie folgt: Die Zeile i von Pσ ist der σ(i)-te
Einheitsvektor (als Zeile geschrieben).
Bemerkung 3.11. Es gilt Pσ◦τ = Pτ · Pσ sowie Pσ−1 = P⊺ .
Offenbar können wir die Matrix Pσ aus In durch sukzessive Zeilenvertauschungen erhalten. Ist D eine Determinante, so gilt
D(Pσ ) = ±1,
wobei wir den Wert +1 haben, wenn wir Pσ aus In durch eine gerade Anzahl
Vertauschungen erhalten, andernfalls ist D(Pσ ) = −1. Nun wissen wir, dass es
(mindestens) eine Determinante D gibt. Diese Determinante zeigt dann, dass
wir Pσ aus In durch eine gerade oder eine ungerade Anzahl Zeilenvertauschungen erhalten. Es ist zwar möglich, dass dasselbe Pσ durch verschiedene Abfolgen
von Zeilenvertauschungen erhalten werden kann, aber die Anzahl der Vertauschungen st entweder stets gerade oder ungerade. Das zeigt, dass die folgende
Definition sinnvoll ist:
Definition 3.12. Sei σ ∈ Sn . Wir definieren

 1 Pσ kann aus In durch eine gerade Anzahl
sgn(σ) :=
Zeilenvertauschungen erhalten werden
 −1 sonst.
Satz 3.13. Sei D eine n-lineare und alternierende Funktion auf R(n,n) , wobei
R ein kommutativer Ring mit 1 ist. Dann gilt
X
α1,σ(1) · · · αn,σ(n) · sgn(σ)D(In ).
D(A) =
σ∈Sn
Beweis. Man muss einfach nacheinander nach den Zeilen entwickeln und beachten, dass Matrizen mit zwei gleichen Zeilen den D-Wert 0 haben.
Korollar 3.14. Sei R ein kommutativer Ring mit 1. Dann gibt es genau eine
Determinante auf R(n,n) (nenne diese det). Es gilt
X
α1,σ(1) · · · αn,σ(n) · sgn(σ).
(7)
det(A) =
σ∈Sn
Diese Gleichung heißt auch Leibniz-Formel. Ist D alternierend und n-linear,
dann gilt D(A) = det(A) · D(In ).
23
Wir haben in Satz 3.8 gesehen, dass man die Determinante einer n × n - Matrix
durch Zurückführen auf die Berechnung von Determinanten von (n−1)×(n−1) Matrizen bestimmen kann. Man nennt dies auch den Laplace’schen Entwicklungssatz (Entwickeln nach Spalte j). In Satz 3.8 hing das Ergebnis scheinbar
von der Auswahl der Spalte j ab; jetzt, da wir gezeigt haben, dass die Determinante eindeutig ist, wissen wir, dass wir für jede Auswahl von j denselben Wert
erhalten.
3.3
Eigenschaften von Determinanten
Satz 3.15 (Determinantenproduktsatz). Es gilt det(AB) = det(A) · det(B).
Beweis. Sei B fest. Man zeigt, dass
D(A) := det(AB)
alternierend und n-linear ist, also (Korollar 3.14)
D(A) = det(A) · D(In ).
Beachte nun D(In ) = det(B).
Korollar 3.16. Eine Transposition ist eine Permutation in Sn , die zwei Elemente vertauscht und die restlichen Elemente festlässt. Jede Permutation σ ist
Produkt von Transpositionen. Die Anzahl von Transpositionen ist modulo 2 genau sgn(σ).
Beweis. Benutze Pτ ◦σ = Pσ · Pτ und den Determinantenproduktsatz.
Satz 3.17. Es gilt det(A) = det(A⊺ ).
Beweis. Leibnizformel.
Satz 3.18. Ist A eine obere Dreiecksmatrix, dann ist die Determinante das
Produkwo wir wissent der Diagonaleinträge.
Beweis. Auch hier: Leibnizformel oder Induktion mit Laplace (Entwickeln nach
der ersten Spalte).
Elementare Zeilenumformungen einer Matrix werden durch Multiplikation von
links mit Elementarmatrizen realisiert. Vertauschen zweier Zeilen ändert das
Vorzeichen der Determinante, Addition des Vielfachen einer Zeile zu einer anderen ändert die Determinante nicht, und wenn wir eine Zeile mit einer Zahl
multiplizieren wird die Determinante dadurch auch entsprechend multipliziert.
Wenn wir also konkret eine Determinante ausrechnen wollen, wenden wir GaußElimination an (transformiere in eine obere Dreiecksmatrix) und berechnen erst
dann die Determinante. Wegen Satz 3.17 darf man hier sogar Zeilen- und Spaltenumformungen anwenden.
24
Beispiel 3.19. In der Vorlesung berechnen wir die Determinante von


1 −1 2
3
2 2
0
2


4 1 −1 −1
1 2
3
0
(diese ist 128).
Proposition 3.20. Seien A ∈ R(n,n) , B ∈ R(n,m) und C ∈ R(m,m) . Dann gilt
A B
det
= det(A) · det(C).
0 C
A B
Beweis. Zeige: D(C) = det
ist für feste A, B alternierend und m0 C
linear, also
A B
det
= det(C) · D(I).
0 C
Nun gilt
A B
A 0
= det
0 I
0 I
A 0
und man überlegt sich ähnlich det
= det(A).
0 I
D(I) = det
Definition 3.21. Sei A ∈ R(n,n) . Wir definieren die Kofaktoren
γi,j := (−1)i+j det(A(i|j)),
wobei A(i|j) aus A durch Streichen von Zeile i und Spalte j entsteht. Die Matrix
adj(A) := (γj,i )i,j=1,...,n
heißt die Adjunkte von A.
Satz 3.22. Es gilt
adj(A) · A = (det(A)) · In .
Insbesondere ist A in R
tierbar ist.
(n,n)
invertierbar genau dann wenn det(A) in R inver-
Beweis. Vorlesung.
Abschließend erwähnen wir noch die Cramer’sche Regel, die man in der Praxis nicht benutzt, um lineare Gleichungssysteme zu lösen, die aber manchmal
von theretischem Interesse ist:
25
Satz 3.23 (Cramer’sche Regel). Sei A ∈ K(n,n) eine invertierbare Matrix, und
sei b ∈ Kn . Dann hat Ax = b genau eine Lösung x = (xi )i=1,...,n . Mit Bj
bezeichnen wir die Matrix, die wir aus A erhalten, indem wir Spalte j durch b
ersetzen. Dann gilt
det(Bj )
.
xj =
det(A)
Beweis. Vorlesung: Die Determinante det(Bj ) ist gleich der Determinante der
Matrix, die man aus A durch Multiplikation von Spalte j mit xj erhält.
26
Herunterladen