Lehrplan - Userpage - Freie Universität Berlin

Werbung
LINEARE ALGEBRA II: LEHRPLAN
VICTORIA HOSKINS
Webseite: http://userpage.fu-berlin.de/hoskins/LAII.html
Inhaltsverzeichnis
1. Jordan-Normalform
2. Bilinearformen und quadratische Formen
3. Euklidische und unitäre Vektorräume
4. Ringe und Moduln
Literatur
1
11
19
31
38
1. Jordan-Normalform
Mit der Jordan-Normalform werden wir alle komplexen Matrizen bis auf Ähnlichkeit klassifizieren. Wir werden eine Normalform, die Jordan-Normalform finden, so dass es in jeder
Ähnlichkeitsklasse genau eine1 komplexe Matrix in Normalform gibt. Wir werden Invarianten
für die Ähnlichkeitsklassen (d.h. etwas, dass das Gleiche für zwei ähnliche Matrizen ist) entdecken: alte Invarianten (das charakteristische Polynom, Eigenwerte) und neue Invariante (das
Minimalpolynom, geometrische und algebraische Vielfachheit der Eigenwerte).
[19.04.17]
1.1. Erinnerung an Eigenwerte und Diagonalisierung. Sei K ein Körper.
Definition.
(1) Für einen linearen Endomorphismus f ∈ EndK (V ) eines K-Vektorraumes V sagen wir,
dass v ∈ V mit v 6= 0V ein Eigenvektor zum Eigenwert λ ∈ K ist, falls
f (v) = λ · v.
Für λ ∈ K definieren wir den λ-Eigenraum von f
Eig(f, λ) := {v ∈ V : f (v) = λ · v}.
Die geometrische Vielfachheit von λ ist µg (f, λ) := dimK (Eig(f, λ)).
(2) Für eine Matrix A ∈ Matn×n (K) sagen wir, dass x ∈ K n mit x 6= 0 ein Eigenvektor
zum Eigenwert λ ∈ K ist, falls
Ax = λx.
Der λ-Eigenraum von A ist Eig(A, λ) = {x ∈ K n : Ax = λx} und die geometrische
Vielfachheit von λ ist µg (A, λ) := dimK (Eig(A, λ)).
Bemerkung. Nach [LAI, Satz 5.10] gelten:
(1) Wenn V endlichdimensional ist (so dass det(f ) für f ∈ EndK (V ) definiert ist), gilt: λ
ist ein Eigenwert von f ⇐⇒ det(λ · IdV − f ) = 0.
(2) λ ist genau dann ein Eigenwert von A ∈ Matn×n (K), wenn det(λIn − A) = 0.
Definition.
1(bis auf die Reihenfolge der Jordanblöcke)
1
2
VICTORIA HOSKINS
(1) Für A ∈ Matn×n (K) ist das charakteristische Polynom von A
χA (t) = det(tIn − A) ∈ K[t].
Die algebraische Vielfachheit von λ ist µa (f, λ) := µ(χf , λ) := max{n : (t − λ)n |χf (t)}.
(2) Für einen linearen Endomorphismus f : V → V eines endlichdimensionalen K-Vektorraumes
V ist das charakteristische Polynom von f
χf (t) = det(tIdV − f ) ∈ K[t].
Die algebraische Vielfachheit von λ ist µa (A, λ) := µ(χA , λ).
Bemerkung. Wenn dimK (V ) = n (bzw. A ∈ Matn×n (K)), ist χf (t) (bzw. χA (t)) ein normiertes2 Polynom vom Grad n und die Nullstellen des charakteristischen Polynoms sind die
Eigenwerte von f (bzw. A) [LAI, Satz 5.13].
Lemma.[LAI] Die algebraische Vielfachheit ist größer oder gleich die geometrische Vielfachheit für jeden Eigenvektor eines linearen Endomorphismus von einem endlichdimensionalen
K-Vektorraum.
Definition.
(1) Ein linearer Endomorphismus f : V → V eines endlichdimensionalen K-Vektorraumes
V heißt diagonalisierbar, wenn es eine geordnete Basis B von V gibt, so dass MBB (f )
eine Diagonalmatrix ist.
(2) Eine Matrix A ∈ Matn×n (K) heißt diagonalisierbar, wenn der Endomorphismus FA ∈
EndK (K n ) mit FA (x) = Ax diagonaliserbar ist.
(3) Zwei Matrizen A, B ∈ Matn×n (K) heißen ähnlich (schreibweise: A ∼ B), wenn es
S ∈ GLn (K) gibt mit A = SBS −1 .
Übung.
(1) Ähnlichkeit auf Matn×n (K) ist eine Äquivalenzrelation.
(2) Eine Matrix A ∈ Matn×n (K) ist genau dann diagonalisierbar, wenn A ähnlich zu einer
Diagonalmatrix ist.
(3) Wenn f : V → V ein linearer Endomorphismus eines K-Vektorraumes der Dimension
n ist, sind alle zugehörigen Matrizen von f ähnlich (d.h. für geordnete Basen A und B
A (f ) ∼ M B (f )).
von V gilt MA
B
(4) Für zwei ählinche Matrizen A ∼ B gilt χA (f ) = χB (f ).
Bermerkung. Sei V ein endlichdimensionaler K-Vektorraum und f ∈ EndK (V ).
(1) Nach [LAI, Satz 5.11] ist f genau dann diagonalisierbar, wenn V eine Basis aus Eigenvektoren von f besitzt.
(2) Nach [LAI, Satz 5.12] ist f diagonalisierbar, wenn f genau n = dim(V ) paarweise
verschiedene Eigenwerte λ1 , . . . , λn hat.
(3) Nach [LAI, Satz 5,14] ist äquivalent:
(a) f ist diagonalisierbar.
(b) Das charakteristische Polynom χf (t) zerfällt in Linearfaktoren und die geometrische
und algebraische Vielfachheiten aller Eigenwerte λ ∈ K übereinstimmen:
µg (f, λ) = µa (f, λ).
(c) Wenn λ1 , · · · , λk die paarweise verschiedene Eigenwerte von f sind, dann gilt
V =
k
M
Eig(f, λi ) := Eig(f, λ1 ) ⊕ · · · ⊕ Eig(f, λk ).
i=1
2P (t) = a tn + · · · a ist normiert, falls a = 1
n
0
n
LINEARE ALGEBRA II: LEHRPLAN
3
1.2. Nullstellen von Polynomen. Für einen Körper K kann man fragen, wann zerfällt jedes
Polynom P (t) ∈ K[t] in Linearfaktoren? Oder wann hat jedes nicht-konstante Polynom mit
Koeffizienten in K eine Nullstelle?
Definition. Ein Körper K heißt algebraisch abgeschlossen, wenn jedes nicht-konstante Polynom
mit Koeffizienten in K eine Nullstelle in K hat.
Beispiel. Für K = R hat das Polynom P (t) = t2 + 1 keine Nullstelle in R und deshalb ist R
nicht algebraisch abgeschlossen.
Lemma. Wenn K algebraisch abgeschlossen ist, zerfällt jedes Polynom P (t) ∈ K[t] in Linearfaktoren.
Satz 1.1 (Fundamentalsatz der Algebra3). Die komplexen Zahlen C sind algebraisch abgeschlossen, d.h. jedes nicht-konstante Polynom mit C-Koeffizienten besitzt mindestens eine Nullstelle
in C.
Bemerkung. Es gibt einen Körper-Homomorphismus R → C mit x 7→ x + i0 . Deshalb gibt es
einen Ring-Homomorphismus R[t] → C[t], der auch injektiv ist. Da C algebraisch abgeschlossen
ist, hat jedes nicht-konstante Polynom P (t) ∈ R[t] mindestens eine Nullstelle in C. Ferner gilt
für P (t) ∈ R[t] und eine Nullstelle α ∈ C von P (t)
(1) Die konjugiert komplexe Zahl α ist auch eine Nullstelle von P . Ferner haben α und α
die gleiche Vielfachheit: µ(P, α) = µ(P, α).
(2) Q(t) := (t − α)(t − α) ∈ R[t] und es gibt eine Zerlegung P (t) = Q(t)R(t) in R[t].
(3) Wenn Grad(P ) ungerade ist, hat P mindestens eine Nullstelle in R.
Lemma. Für P (t) ∈ K[t] gibt es einen injektiven Körper-Homomorphismus K → L (was wir
eine Körpererweiterung nennen), so dass P (t) in Linearfaktoren aus L[t] zerfällt.4
Beispiel. Für K = R oder K = C können wir L = C wählen, weil C algebraisch abgeschlossen
ist. Dann zerfällt jedes Polynom P (t) ∈ K[t] in Linearfaktoren in L[t].
1.3. Trigonalisierung. Sei V ein endlichdimensionaler K-Vektorraum und f ∈ EndK (V ). Was
A (f ) folgern, wenn nur χ (t) in Linearfaktoren
können wir über f und die zugehörige Matrizen MA
f
zerfällt (aber die geometrische und algebraische Vielfachheiten der Eigenwerte nicht übereinstimmen)?
Definition. Sei f : V → V ein linearer Endomorphismus.
(1) Ein Untervektorraum U ⊂ V heißt f -invariant, falls f (U ) ⊂ U .
(2) Eine Fahne in einem n-dimensionalen K-Vektorraum V ist eine Kette von Untervektorräume
{0V } = V0 ( V1 ( · · · ( Vn−1 ( Vn = V
mit dimK (Vr ) = r. Diese Fahne heißt f -invariant, wenn jeder Unterraum Vr in der Fahne
f -invariant ist.
Beispiel.
(1) Für alle f ∈ EndK (V ) sind {0V } und V offensichtlich f -invariant.
(2) Die Eigenräume Eig(f, λ) sind f -invariant.
(3) Für V = K n gibt es die Standard-Fahne mit Vr := Span(e1 , . . . , er ).
(4) Jede Fahne von V ist IdV -invariant.
3Für den Beweis, siehe Analysis (oder den Kurs ‘Funktionentheorie’).
4Diese Lemma wird in der Algebra und Zahlentheorie bewiesen.
[24.04.17]
4
VICTORIA HOSKINS
(5) Sei A ∈ Matn×n (K) eine obere Dreiecksmatrix, d.h. aij = 0 für i > j. Für die zugehörige
lineare Abbildung FA : K n → K n ist die Standard-Fahne FA -invariant.
Lemma. Für einen linearen Endomorphismus f : V → V eines n-dimensionalen K-Vektorraumes
ist äquivalent:
(1) Es gibt eine f -invariante Fahne von V ,
A (f ) eine obere Dreiecksmatrix ist.
(2) Es gibt eine geordnete Basis A von V , so dass MA
Definition.
(1) Ein linearer Endomorphismus f : V → V eines n-dimensionalen K-Vektorraumes heißt
trigonalisierbar, wenn es eine f -invariante Fahne von V gibt.
(2) Eine Matrix A ∈ Matn×n (K) heißt trigonalisierbar, wenn A ähnlich zu einer oberen
Dreiecksmatrix ist.
Bemerkung.
(1) A ∈ Matn×n (K) ist genau dann trigonalisierbar, wenn es FA : K n → K n ist.
A (f ) (für eine geordnete
(2) f ∈ EndK (V ) ist genau dann triangonalisierbar, wenn es MA
Basis A von V ) ist.
(3) Jeder diagonalisierbare Endomorphismus ist auch trigonalisierbar, aber die Umkehrung
ist falsch: zum Beispiel ist
1 1
A=
0 1
trigonalisierbar aber nicht diagonalisierbar, weil 1 = µg (A, 1) < 2 = µa (A, 1) [LAII, Satz
5.14].
Satz 1.2. Für einen linearen Endomorphismus f : V → V eines n-dimensionalen K-Vektorraumes
ist äquivalent:
(1) f ist trigonalisierbar,
(2) χf (t) zerfällt in Linearfaktoren.
Korollar.
(1) Jede komplexe Matrix A ∈ Matn×n (C) ist trigonalisierbar.
(2) Jeder Endomorphismus eines endlichdimensionalen C-Vektorraumes ist trigonalisierbar.
Beispiel. Sind die folgende reelle Matrizen diagonalisierbar (bzw. trigonalisierbar)?
2 −3
3 −2
1 1
A=
B=
0 1
0 3
−1 1
Wir berechnen die charakteristische Polynome und Vielfachheiten jeder Matrix:
• A ist trigonaliserbar, weil χA (t) = (t − 2)(t − 1) in Linearfaktoren zerfällt. Ferner ist A
diagonalisierbar, weil
3
1
Eig(A, 1) = Span
Eig(A, 2) =
,
1
0
so dass µg (A, λ) = 1 = µa (A, λ) für λ = 1, 2.
• B ist trigonalisierbar, weil χB (t) = (t − 3)2 , aber B ist nicht diagonalisierbar, weil
1
µg (B, 3) = dimK Eig(B, 3) = dimK Span
= 1 < 2 = µa (B, 3).
0
• C ist nicht trigonalisierbar (und deshalb auch nicht diagonalisierbar), weil
χC (t) = (t − 1)(t − 1) + 1 = t2 − 2t + 2
keine Nullstellen in R hat (die Diskriminante von χC ist negativ: (−2)2 −4×2 = −4 < 0).
LINEARE ALGEBRA II: LEHRPLAN
5
1.4. Der Satz von Cayley-Hamilton. Für einen K-Vektorraum V ist EndK (V ) ein KVektorraum und ein Ring: man kann Polynome miteinander punktweise addieren und die Komposition von Abbildung liefert eine Multiplikation auf EndK (V ). Deshalb können wir die Potenzen eine Abbildung f ∈ EndK (V ) betrachten: f 0 := IdV , f 1 := f , f 2 := f ◦ f , u.s.w. Für ein
Polynom P (t) = an tn + an−1 tn−1 + · · · + a0 ∈ K[t] definieren wir
P (f ) := an f n + an−1 f n−1 + · · · + a0 IdV ∈ EndK (V )
und wir schreiben P (f ) = 0, wenn dieser Endomorphismus die Nullabbildung ist.
Lemma. Sei V ein n-dimensionaler K-Vektorraum und f ∈ EndK (V ). Dann gibt es ein nichtNull Polynom P (t) ∈ K[t] mit P (f ) = 0.
Definition. Sei V ein endlichdimensionaler K-Vektorraum und f ∈ EndK (V ). Ein normiertes
nicht-Null Polynom mf (t) ∈ K[t] heißt Minimalpolynom von f wenn
i) mf (f ) = 0.
ii) Für alle andere nicht-Null Polynome P (t) ∈ K[t] mit P (f ) = 0 gilt Grad(mf ) ≤
Grad(P ).
Ebenso definieren wir das Minimialpolynom von A ∈ Matn×n (K), so dass mA (t) = mFA (t) für
FA : K n → K n , x 7→ Ax.
Bemerkung.
(1) Sei V ein endlichdimensionaler K-Vektorraum und f ∈ EndK (V ) mit dem Minimalpolynom mf (t) ∈ K[t]. Für alle P (t) ∈ K[t] mit P (f ) = 0 gilt mf (t)|P (t): nach der
Division mit Rest für Polynome gilt
P (t) = Q(t)mf (t) + r(t)
und Grad(r) < Grad(mf )
und falls r 6= 0, gilt r(f ) = 0, was ein Widerspruch zu der Minimalität von mf gibt.
(2) Das Minimalpolynom existiert nach dem Lemma oben und es ist eindeutig (weil es
normiert ist).
(3) Zwei ähnlich Matrizen A ∼ B haben das gleiche Minimalpolnom: mA (t) = mB (t).
Satz 1.3 (Satz von Cayley-Hamilton). Sei V ein endlichdimensionaler K-Vektorraum und f ∈
EndK (V ) mit dem charakteristischen Polynom χf (t) ∈ K[t]. Dann gilt χf (f ) = 0. Insbesondere
gilt mf (t)|χf (t).
Korollar. Sei V ein n-dimensionaler K-Vektorraum und f ∈ EndK (V ). Dann gilt χf |mnf .
Beispiel. Die Matrix
A=
1 1
0 1
hat das charakteristische Polynom χA (t) = (t − 1)2 = t2 − 2t + 1. Das Minimalpolynom von
A ist entweder t − 1 oder (t − 1)2 , da mA (t)|χA (t) nach dem Satz von Cayley–Hamilton. Da
A − I2 6= 0, ist t − 1 nicht das Minimalpolynom von A. Deshalb ist mA (t) = χA (t) = (t − 2)2 .
Nach dem Satz von Cayley–Hamilton gilt
A2 − 2A + I2 = 0.
Es folgt, dass A(A − 2I2 ) = −I2 , so dass A(2I2 − A) = I2 . Insbesonder ist A−1 = 2I2 − A.
Bemerkung. Mit dem Satz von Cayley-Hamilton können wir für jede invertierbare Matrix A ∈
Matn×n (K) die inverse Matrix A−1 finden. Wir erinnern uns, dass A genau dann invertierbar
ist, wenn det(A) 6= 0. Für das charakteristiche Polynom
χA (t) := det(tIn − A) = tn + cn−1 tn−1 + · · · + c1 t + c0
[26.04.17]
6
VICTORIA HOSKINS
gilt χA (0) = det(−A) = (−1)n det(A) = c0 . Insbesondere c0 6= 0 ⇐⇒ det(A) 6= 0. Nach dem
Satz von Cayley-Hamilton gilt
An + cn−1 An−1 + · · · + c1 A + c0 In = 0.
Diese Gleichung ist äquivalent zu
A(An−1 + cn−1 An−2 + · · · c1 In ) = −c0 In
und wenn c0 6= 0 ist die inverse Matrix A−1 =
−1
n−1
c0 (A
+ cn−1 An−2 + · · · c1 In ).
1.5. Nilpotente Endomorphismen und Haupträume. Haupträume sind verallgemeinerte
Eigenräume5 und wir werden Haupträume benutzen, um die Jordan-Zerlegung zu beschreiben.
Definition.
(1) Ein linearer Endomorphismus f : V → V eines K-Vektorraumes heißt nilpotent, falls es
gibt r ∈ N mit f r = 0 (die Nullabbildung).
(2) Eine Matrix A ∈ Matn×n (K) heißt nilpotent, falls es gibt r ∈ N mit Ar = 0 (die Nullmatrix).
[03.05.17]
Lemma. Sei f : V → V ein linearer Endomorphismus eines n-dimensionalen K-Vektorraumes.
Dann ist äquivalent:
(1) f ist nilpotent,
(2) Es gibt 1 ≤ r ≤ n mit f r = 0,
(3) χf (t) = tn ,
(4) Es gibt eine geordnete Basis A von V mit


0 ∗ ∗


A
MA
(f ) =  ... . . . ∗  .
0 ··· 0
Bemerkung. Sei V ein endlichdimensionaler K-Vektorraum. Für h ∈ EndK (V ) und die Potenzen von h gilt
{0V } = ker(h0 ) ⊂ ker(h) ⊂ ker(h2 ) ⊂ · · ·
und
V = Bild(h0 ) ⊃ Bild(h) ⊃ Bild(h2 ) ⊃ · · ·
und dimK (V ) = dimK (ker(hr )) + dimK (Bild(hr )) nach der Dimensionsformel für hr , aber im
allgemeinen ist diese Summe nicht direkt: ker(hr ) ∩ Bild(hr ) 6= {0V }. Da V endlichdimensional
ist, können beide Ketten nicht endlos aufsteigen (bzw. absteigen).
Lemma (von Fitting). Sei V ein endlichdimensionaler K-Vektorraum. Für h ∈ EndK (V ) sei
d = min{r ∈ N : ker(hr ) = ker(hr+1 )}.
Dann gilt
(i) d = min{r ∈ N : Bild(hr ) = Bild(hr+1 )},
(ii) U := ker(hd ) und W := Bild(hd ) sind h-invariante Untervektorräume von V ,
(iii) h|W : W → W ist ein Isomorphismus,
(iv) h|U : U → U ist nilpotent mit dem Minimalpolynom mh|U (t) = td ,
(v) ker(hd ) = ker(hd+i ) und Bild(hd ) = Bild(hd+i ) für alle i ∈ N,
(vi) V = U ⊕ W ,
(vii) d ≤ dimK (U ) = µa (h, 0).
5Ein Hauptaum eines Eigenwertes λ (eines Endomorphismuses) ist größer als der λ-Eigenraum und die Dimension eines Hauptraumes ist die algebraische Vielfachheit von λ. Wir erinnern uns, dass die Dimension eines
Eigenraumes (d.h. die geometrische Vielfachheit) ist kleiner oder gleich die algebraische Vielfachheit.
LINEARE ALGEBRA II: LEHRPLAN
7
Insbesondere gibt es eine geordnete Basis A von V , so dass
N 0
A
MA (h) =
mit N d = 0 (nilpotent) und B invertierbar.
0 B
Definition. Sei f : V → V ein linearer Endomorphismus eines endlichdimensionalen KVektorraumes. Für einen Eigenwert λ von f definieren wir den Hauptraum von f zum Eigenwert
λ durch
Hau(f, λ) := ker((λIdV − f )µa (f,λ) ).
Bemerkung. Es gilt
Eig(f, λ) := ker(λIdV − f ) ⊂ ker((λIdV − f )µa (f,λ) ) =: Hau(f, λ).
Satz 1.4 (Jordan-Zerlegung). Sei f : V → V ein linearer Endomorphismus eines endlichdimensionalen K-Vektorraumes, so dass
χf (t) =
k
Y
(t − λi )ri
i=1
in Linearfaktoren in K[t] zerfällt, wobei λ1 , . . . , λk die paarweise verschiedene Eigenwerte sind
und ri = µa (f, λi ). Dann gelten:
(1) Jeder Hauptraum Hau(f, λi ) ist f -invariant mit Dimension ri ,
(2) V ist die direkte Summe der Haupträume von f :
V =
k
M
Hau(f, λi ),
i=1
(3) Es gibt eine Jordan-Zerlegung f = fN + fD mit fN nilpotent, fD diagonalisierbar und
fN ◦ fD = fD ◦ fN .
Korollar. Jeder lineare Endomorphismus f eines endlichdimensionalen C-Vektorraumes V hat
eine Jordan-Zerlegung f = fD +fN (und die entsprechende Aussage für komplexe Matrizen gilt).
Beispiel. Sei
A=
2 −3
3 −4
∈ Mat2×2 (K).
Dann χA (t) = (t + 1)2 , also λ := −1 ist ein Eigenwert von A mit µa (A, −1) = 2. Da das charakteristische Polynom von A in Linearfaktoren zerfällt, hat A (und die entsprechende Abbildung
FA : K 2 → K 2 ) eine Jordan-Zerlegung. Es gilt
1
0 0
Eig(A, −1) = Span
( Hau(A, −1) := ker((−I2 − A)2 ) = ker
= K 2.
1
0 0
Deshalb haben wir die Jordan-Zerlegung K 2 = Hau(A, −1). Ferner gibt es eine nilpotente
Matrix N und eine diagonale Matrix D mit N D = DN , so dass A ∼ D + N (nach Teil (3) des
Satzes 1.4). Die Matrix
3 −3
B := A − (−1I2 ) =
3 −3
ist nilpotent (B ist analog zu die Abbildung gi = f − λi IdV in dem Beweis des Satzes 1.4) und
deshalb gibt es eine geordnete Basis
1
1
0 6
A
A=
,
mit MA (FB ) =
=: N
1
−1
0 0
Dann gilt
A
A
A
(FA ) = MA
(−1IdK 2 ) + MA
(B) = D + N
A ∼ MA
mit D = −I2 .
[08.05.17]
8
VICTORIA HOSKINS
1.6. Jordan-Normalform. Für d ∈ N definieren wir den (nilpotenten) Jordanblock


0 1
0
.. ..


.
.


Jd := 
 ∈ Matd×d (K)
..

. 1 
0
0
und für λ ∈ K definieren wir den Jordan-Block Jd (λ) = λId + Jd ∈ Matd×d (K).
Definition. Wir sagen eine Matrix A in Jordan-Normalform (JNF) ist, falls A eine blockdiagonale Form hat, die aus Jordan-Blöcke entsteht, d.h.


Jd1 (µ1 )
0


..
A=
,
.
0
Jds (µs )
wobei µi = µj und di = dj möglich ist. Wir sagen, dass A eine Jordan-Normalform hat,
wenn A ähnlich zu einer Matrix in JNF ist. Für einen Endomorphismus f ∈ EndK (V ) eines
endlichdimensionalen K-Vektorraumes V sagen wir, dass f eine Jordan-Normalform hat, wenn
A (f ) eine JNF hat.
für eine geordnete Basis A von V die Matrix MA
Satz 1.5 (Jordan-Normalform für nilpotente Endomorphismen). Sei g : V → V ein nilpotenter
Endomorphismus eines n-dimensionalen K-Vektorraumes V und d := min{r ∈ N : g r = 0}.
Dann gibt es eindeutig bestimmte Zahlen s1 , . . . , sd ∈ N mit
d
X
ksk = n
k=1
A (g) in JNF ist:
und eine geordnete Basis A von V , so dass MA

Jd
..

.



Jd

..

.

A
MA (g) = 
..

.


J1


..

.















J1
mit sk Kopien von Jk .
Bemerkung. Nach dem Beweis des Satzes 1.5 folgt, dass sd > 0.
[10.05.17]
Beispiel. Für die folgende nilpotente Matrix




0 1 1
0 0 1
A =  0 0 1  mit A2 =  0 0 0 
0 0 0
0 0 0
A3 = 0
finden wir eine JNF von A wie folgt. Sei d := min{r ∈ N : Ar = 0} = 3 und für 0 ≤ i ≤ d = 3
sei Ui := ker(Ai ) = {x ∈ K 3 : Ai x = 0}, dann
{0} = U0 ( U1 = Span(e1 ) ( U2 = Span(e1 , e2 ) ( U3 = K 3 .
Wir finden eine Zerlegung K 3 = U2 ⊕ W3 mit W3 = Span(e3 ). Es gilt A(W3 ) = A(Span(e3 )) =
Span(Ae3 ) = Span(e1 + e2 ) ⊂ U2 . Wir müssen eine Zerlegung K 3 = U1 ⊕ W2 ⊕ W3 finden mit
LINEARE ALGEBRA II: LEHRPLAN
9
A(W3 ) ⊂ W2 . Aus dim(U1 ) = dim(W3 ) = 1 folgt dim(W2 ) = 1, also W2 = Span(e1 + e2 ). Dann
ist W1 = U1 = Span(e1 ) und
K 3 = W1 ⊕ W2 ⊕ W3 = Span(e1 ) ⊕ Span(e1 + e2 ) ⊕ Span(e3 ).
Es gilt s3 = dim(W3 ) = 1 und s2 = dim(W2 ) − dim(W3 ) = 0 und s1 = dim(W1 ) − dim(W2 ) = 0.
(3)
Wir wählen eine Basis von K 3 wie folgt: sei v1 := e3 eine Basis von W3 und wir erweitern
(3)
A(v1 ) = Ae3 = e1 + e2 zu einer Basis von W2 (da s2 = 0 haben wir die triviale Erweiterung
mit 0 zusätzlichen Vektoren) und wir erweitern A(e1 + e2 ) = A2 (e3 ) = e1 zu einer Basis von W1
(wegen s1 = 0 ist diese Erweiterung trivial).
Basis von W3 :
Basis von W2 :
Basis von W1 :
(3)
(3)
(3)
v1 = e3
(3)
A(v1 ) = e1 + e2
(3)
A2 (v1 ) = e1
(3)
Für A = (A2 (v1 ), A(v1 ), v1 ) = (e1 , e1 + e2 , e3 ) ist


0 1 0
A
MA
(FA ) =  0 0 1 
0 0 0
in Jordan-Normalform. Für die standard Basis B = (e1 , e2 , e3 ) ist
Basiswechselsformel gilt

1
A
B
MA
(FA ) = SAS −1 mit S := MA
(IdK 3 ) =  0
0
MBB (FA ) = A und nach dem

−1 0
1 0 .
0 1
Satz 1.6. Sei f : V → V ein linearer Endomorphismus eines endlichdimensionalen K-Vektorraumes
V , so dass das charakteristische Polynom von f
χf (t) =
k
Y
(t − λi )ri
i=1
in Linearfaktoren zerfällt mit λ1 , . . . , λk die paarweise verschiedenen Eigenwerte von f . Dann
gibt es eine Basis A von V , so dass


λ1 Ir1 + N1
0
···
0
..
.


0
λ2 Ir2 + N2 . .
.


A
MA (f ) = 

..
..


.
.
0
0
...
0 λk Irk + Nk
A (f ) in
mit Ni ∈ Matri ×ri (K) nilpotente Matrizen in Jordan-Normalform. Insbesondere ist MA
JNF, also hat f eine JNF.
Lemma.
(1) Zwei Jordan-Blöcke Jr (λ) und Js (µ) sind genau dann ähnlich, wenn r = s und λ = µ.
(2) Zwei Matrizen in JNF A und B sind genau dann ähnlich, wenn sie die gleiche Anzahl
von jedem Jordan-Block Jr (λ) haben.
Satz 1.7. Die Jordan-Normalform eines Endomorphismus f eines endlichdimensionalen KVektorraumes mit einem charakteristischen Polynom, das in Linearfaktoren zerfällt, ist bis auf
die Reihenfolge der Jordan-Blöcke eindeutig durch f bestimmt, d.h. unabhängig von der Wahl
der Basis.
Korollar. Jede komplexe Matrix hat eine JNF, d.h. in der Ähnlichkeitsklasse der komplexen
Matrix gibt es eine Matrix in JNF. Ferner klassifiziert die Jordan-Normalform (bis auf die
Reihenfolge der Jordan-Blöcke) alle komplexen Matrizen bis auf Ähnlichkeit, d.h. in jeder Ähnlichkeitsklasse einer komplexen Matrix gibt es genau eine Matrix in JNF (bis auf die Reihenfolge
[15.05.17]
10
VICTORIA HOSKINS
der Jordan-Blöcke).
Beispiel. Sei A eine Matrix mit dem charakteristischen Polynom χA (t) = (t − 5)(t − 3)2 . Mit
nur diesen Informationen können wir die mögliche JNF wie folgt bestimmen. Die Eigenwerte
sind λ1 = 5 und λ2 = 3 und es gilt für jeder Eigenwert λi von A:
dimK (Hau(A, λi )) = µa (A, λi ) ≥ µg (A, λi ) ≥ 1.
Wegen µa (A, 5) = 1, folgt µg (A, 5) = 1 und wegen µa (A, 3) = 2, folgt µg (A, 3) = 1 oder
µg (A, 3) = 2. Um die JNF zu berechnen, betrachen wir die nilpotente Abbildungen
gi := (FA − λi Id)|Hau(A,λi ) : Hau(A, λi ) → Hau(A, λi )
(i)
(i)
und wenn di := min{r ∈ N : gir ≡ 0}, gibt es Zahlen s1 , . . . , sdi ∈ N, die eindeutig durch gi
definiert wird, mit
di
X
(1)
(i)
jsj = µa (A, λi )
j=1
(Satz 1.5). Ferner gilt
0 < di ≤ dimK (Hau(A, λi )) = µa (A, λi ).
(2)
(i)
Dann hat die JNF von A den Jordan-Block Jj (λi ) mit der Vielfalt sj .
(1)
Für λ1 = 5 folgt es, dass d1 = 1 nach (2) und s1 = 1 nach (1). Dann die JNF von g1 hat
(1)
(1)
1 = s1 Jordan-Block J1 und die JNF von A hat 1 = s1 Jordan-Block J1 (5).
(2)
Für λ2 = 3 folgt es, dass d2 = 1 oder d2 = 2 nach (2). Wenn d2 = 1, dann ist s1 = 2 nach
(2)
(2)
(1) und g2 hat 2 = s1 Jordan-Blöcke J1 und A hat 2 = s1 Jordan-Blöcke J1 (3). Wenn d2 = 2
(2) (2)
(2)
(2)
(i)
gibt es Zahlen s1 , s2 ∈ N mit 1s1 + 2s2 = µa (A, λ2 ) = 2 und wegen sdi > 0 (siehe die
(2)
(2)
Bemerkung nach dem Satz 1.5) haben wir s1 = 0 und s2 = 1. In diesem Fall hat g2 einen (da
(2)
(2)
s2 = 1) Jordan-Block J2 und A hat 1 = s2 Jordan-Block J2 (3).
Abschließend gibt es zwei Möglichkeiten:
(1)
(2)
a) Wenn (d1 = 1, s1 = 1) und (d2 = 1, s1

5
 0
0
= 2), ist die JNF von A

0 0
3 0 
0 3
und das Minimalpolynom von A ist mA (t) = (t − 5)(t − 3).
(1)
(2)
(2)
b) Wenn (d1 = 1, s1 = 1) und (d2 = 2, s1 = 0, s2 = 2), ist die JNF von A


5 0 0
 0 3 1 
0 0 3
und das Minimalpolynom von A ist mA (t) = (t − 5)(t − 3)2 .
Definition. Eine Funktion j : Matn×n (K) → X (für eine Menge X) heißt Invariant für Matrizen (bis auf Ähnlichkeit), falls j konstant auf jeder Ähnlichkeitsklasse ist, so dass, es eine
induziierte Abbildung gibt
j̄ : Matn×n (K)/ ∼ → X.
Beispiel. Die folgenden Funktionen sind Invarianten für Matrizen (bis auf Ähnlichkeit):
(1) das charakteristische Polynom χ : Matn×n (K) → K[t],
(2) das Minimalpolynom m : Matn×n (K) → K[t],
(3) die Determinante det : Matn×n (K) → K,
(4) die Spurabbildung Spur : Matn×n (K) → K,
(5) der Rang einer Matrix Rang : Matn×n (K) → N,
LINEARE ALGEBRA II: LEHRPLAN
11
(6) die Menge der Eigenwerte Eig : Matn×n (K) → {endliche Teilmenge von K},
(7) die algebraische (bzw. geometrische) Vielfachheiten von λ ∈ K:
µa (−, λ) : Matn×n (K) → N
(bzw. µg (−, λ) : Matn×n (K) → N).
(8) (falls K algebraisch abgeschlossen ist, so dass jede Matrix eine JNF hat) die Anzahl
sk (λ) von jedem Jordan-Block Jk (λ) in einer JNF einer Matrix.
2. Bilinearformen und quadratische Formen
2.1. Bilinearformen. Seien V , W und U Vektorräume über einen Körper K. Zur Erinnerung:
eine Abbildung f : V → W heißt K-linear (oder linear), wenn für alle v, v 0 ∈ V und λ ∈ K gilt
f (v + v 0 ) = f (v) + f (v 0 )
und f (λ · v) = λ · f (v),
oder, äquivalent, für alle v, v 0 ∈ V und µ, λ ∈ K gilt
f (µv + λv 0 ) = µf (v) + λf (v 0 ).
Definition.
(1) Eine Abbildung f : V × W → U heißt bilinear 6, wenn für alle Vektoren v, v 0 ∈ V und
w, w0 ∈ W und Elemente µ, λ ∈ K gilt
i) f (µv + λv 0 , w) = µf (v, w) + λf (v 0 , w),
ii) f (v, µw + λw0 ) = µf (v, w) + λf (v, w0 ).
(2) Eine bilineare Paarung zwischen V und W ist eine bilineare Abbildung f : V × W → K.
(3) Eine Bilinearform (BLF) auf V ist eine bilinear Abbildung b : V × V → K. Wenn
dimK V = n ∈ N und A = (v1 , · · · , vn ) eine geordnete Basis von V ist, dann nennen
wir die Matrix B := (b(vi , vj ))1≤i,j≤n ∈ Matn×n (K) die Matrix zu der Bilinearform b
bezüglich der Basis A und wir schreiben B = b(A, A). Die Menge der Bilinearformen
auf V wird mit BilK (V ) bezeichnet.
Beispiel.
(1) Die Abbildung b : K 2 × K 2 → K, die durch
x1
y1
b
,
:= x1 y2 − x2 y1
x2
y2
definiert wird, ist bilinear. Für die geordnete Basis (e1 , e2 ) von K 2 ist die zugehörige
Matrix
0 1
B=
.
−1 0
(2) Die kanonische Bilinearform auf K n ist die Abbildung b : K n × K n → K
n
X
b(x, y) =
x i yi
i=1
und die zugehörige Matrix für die geordnete Standardbasis A = (e1 , . . . , en ) von K n ist
die Einheitsmatrix: In = b(A, A).
(3) Für jeder K-Vektorraum V mit dem Dualraum V ∗ := HomK (V, K) ist die Abbildung
b:V∗×V →K
b(ϕ, v) := ϕ(v)
eine bilineare Paarung zwischen V ∗ und V .
Bemerkung. Sei V ein K-Vektorraum der endlichen Dimension n und A = (v1 , · · · , vn ) eine
geordnete Basis von V . Dann gibt es genau einen linearen Isomorphismus ΦA : V → K n mit
ΦA (vi ) = ei für 1 ≤ i ≤ n [LAI, Satz 4.4].
6Man kann diese Definition erweitern: wenn V , · · · , V und W K-Vektorräume sind, heißt eine Abbildung
1
n
f : V1 × V2 × · · · × Vn → W multilinear, wenn f in jeder Komponente linear ist, d.h. für alle 1 ≤ i ≤ n und für
alle vj ∈ Vj für j 6= i ist die Abbildung Vi → W , die durch vi 7→ f (v1 , · · · , vn ) definiert wird, linear.
12
VICTORIA HOSKINS
(1) Wenn b : V × V → K eine Bilinearform ist und B die Matrix zu b bzgl. der Basis A ist,
dann gilt für alle v, v 0 ∈ V
b(v, v 0 ) = ΦA (v)t B ΦA (v 0 ).
(2) Umgekehrt definiert B ∈ Matn×n (K) eine Bilinearform bA
B auf V durch
0
t
0
bA
B (v, v ) := ΦA (v) B ΦA (v )
und die zugehörige Matrix dieser Bilinearform bA
B bzgl. der Basis A ist wieder B.
Bemerkung. Man kann Bilinearformen auf V punktweise addieren: für Bilinearformen b1 , b2 :
V × V → K definieren wir b1 + b2 : V × V → K durch
(b1 + b2 )(v, v 0 ) := b1 (v, v 0 ) + b2 (v, v 0 ),
und b1 + b2 ist auch bilinear. Man kann auch eine Bilinearform b : V × V → K mit einem Skalar
λ ∈ K multiplizieren, um eine neue Bilinearform λ · b : V × V → K zu definieren
(λ · b)(v, v 0 ) := λ · b(v, v 0 ).
[17.05.17]
Deshalb ist die Menge der Bilinearformen auf V ein Untervektorraum des K-Vektorraumes
Abb(V × V, K) der Abbildungen von V × V nach K.
Satz 2.1. Sei V ein K-Vektorraum der endlichen Dimension n und A = (v1 , · · · , vn ) eine
geordnete Basis von V . Die Abbildung
ΨA : BilK (V ) → Matn×n (K),
die zu jeder Bilinearform b die zugehörige Matrix B = b(A, A) bzgl. der Basis A zuordnet, ist
ein linearer Isomorphismus.
Satz 2.2 (Basiswechsel). Seien A, B geordnete Basen eines endlichdimensionalen K-Vektorraumes
V . Dann gilt für eine Bilinearform b auf V
B
B
b(B, B) = MA
(IdV )t b(A, A) MA
(IdV )
B (Id ) die Basiswechselmatrix für die Identität auf V ist.
wobei MA
V
Definition. Zwei Matrizen A, B ∈ Matn×n (K) heißen kongruent, wenn es eine Matrix S ∈
GLn (K) gibt mit A = S t BS. Schreibweise: A ≈ B.
Übung. Die Relation der Kongruenz auf Matn×n (K) ist eine Äquivalenzrelation. Für eine
Bilinearform b auf einem K-Vektorraum der Dimension n sind alle die Matrizen b(A, A) für
verschiedene geordnete Basen A von V kongruent (nach der Basiswechsel-Formel).
Bemerkung. Wenn b : V × V → K eine Bilinearform auf V ist, können wir eine Abbildung
fb : V → V ∗ durch
fb (v) := b(−, v) : V → K
definieren. Wegen der Linearität von b im ersten Argument ist fb wohldefiniert. Wegen der
Linearität von b im zweiten Argument ist fb linear.
Wenn dimK (V ) = n und A = (v1 , . . . , vn ) eine geordnete Basis von V ist, können wir die
A (f ) ∈ Mat
∗
zugehörige Matrix C := MA
∗
n×n (K) betrachten (wobei A die duale Basis ist). Es
b
gilt
n
X
fb (vj ) =
cij vi∗
i=1
und deshalb folgt es, dass
b(vk , vj ) =: fb (vj )(vk ) =
n
X
i=1
d.h.
A (f )
MA
∗
b
ist die Matrix b(A, A) zu b bzgl. A.
cij vi∗ (vk ) = ckj
LINEARE ALGEBRA II: LEHRPLAN
13
Satz 2.3. Sei V ein endlichdimensionalen K-Vektorraum. Dann ist die Abbildung
BilK (V ) → HomK (V, V ∗ )
b
7→ fb : V → V ∗
ein linearer Isomorphismus.
2.2. Symmetrische Formen. Zur Erinnerung: eine Matrix A ∈ Matn×n (K) heißt symmetrisch, wenn At = A. Sei MatSym
n×n (K) die Teilmenge von Matn×n (K), die symmetrische Matrizen
enthält.
Definition. Eine Bilinearform b auf einem K-Vektorraum V heißt
(1) symmetrisch, wenn b(v, v 0 ) = b(v 0 , v) für alle v, v 0 ∈ V . Die Menge aller symmetrischen
Bilinearformen auf V bildet ein Untervektorraum Bilsym (V ) von Bil(V ).
(2) antisymmetrisch, wenn b(v, v 0 ) = −b(v 0 , v) für alle v, v 0 ∈ V .
Eine Matrix A ∈ Matn×n (K) heißt antisymmetrisch, wenn At = −A.
Bemerkung.
(1) Die Menge Bilsym (V ) (bzw. Bila-sym (V )) aller symmetrischen (bzw. antisymmetrischen)
Bilinearformen ist ein Untervektorraum von Bil(V ). Ebenso ist die Menge Matsym
n×n (K)
(bzw. Mata-sym
(K))
aller
symmetrischen
(bzw.
antisymmetrischen)
ein
Untervektorraum
n×n
von Matn×n (K).
(2) Wenn 2 := 1 + 1 = 0 in K stimmen die Begriffe symmetrische und antisymmetrisch
überein.
(3) Wenn 2 6= 0 in K (so dass 2 ∈ K invertierbar ist), dann gilt
a-sym
Matn×n (K) = Matsym
n×n (K) ⊕ Matn×n (K),
weil eine n × n-Matrix A die Form A = 21 (A + At ) + 21 (A − At ) hat.
Lemma. Sei b eine Bilinearform auf einem K-Vektorraum V der Dimension n. Die zugehörige
Matrix B = b(A, A) bzgl. einer geordneten Basis A von V ist genau dann symmetrisch (bzw.
antisymmetrisch), wenn b symmetrisch (bzw. antisymmetrisch) ist. Ferner gibt es einen linearen
Isomorphismus
Bilsym (V ) → Matsym
n×n (K) .
b
7→
b(A, A)
Beispiel. Die kanonische Bilinearform b : K n × K n → K
b(x, y) =
n
X
x i yi
i=1
ist symmetrisch.
Definition. Eine Bilinearform b auf einem K-Vektorraum V heißt alternierend, wenn b(v, v) = 0
für alle v ∈ V .
Lemma. Sei b : V × V → K eine Bilinearform.
(1) Wenn b alternierend ist, dann ist b antisymmetrsich.
(2) Wenn 2 6= 0 ∈ K und b antisymmetrisch ist, dann ist b alternierend.
[22.05.17]
2.3. Orthogonalität und nicht ausgeartete Formen.
Definition. Sei b : V × V → K eine Bilinearform auf einem K-Vektorraum V . Wir sagen, dass
v ∈ V orthogonal zu w ∈ V ist (bzgl. b), wenn b(v, w) = 0 und wir schreiben v ⊥ w. Für eine
Teilmenge M ⊂ V definieren wir die Menge M ⊥ aller Vektoren, die rechtsorthogonal auf M
bzgl. b sind
M ⊥ := {v ∈ V : b(m, v) = 0 ∀m ∈ M }
14
VICTORIA HOSKINS
und die Menge ⊥ M aller Vektoren, die linksorthogonal auf M bzgl. b sind
⊥
M := {v ∈ V : b(v, m) = 0 ∀m ∈ M }.
Die Menge M ⊥ (bzw. ⊥ M ) heißt Rechtsorthogonalraum (bzw. Linksorthogonalraum) von M in
V.
Bemerkung. Wenn b symmetrisch oder alternierend ist, dann gilt v ⊥ w ⇐⇒ w ⊥ v. Insbesondere ist M ⊥ = ⊥ M für alle M ⊂ V .
Beispiel. Für die kanonische Bilinearform auf K 3 und M = {e1 , e2 } gilt




x1


⊥


x2
: b(e1 , x) = b(e2 , x) = 0 = Span(e3 ) =⊥ M.
M := x =


x3
Lemma. Sei b : V × V → K eine Bilinearform auf einem K-Vektorraum V und M ⊂ V eine
Teilmenge. Dann sind M ⊥ und ⊥ M Untervektorräume von V .
Definition. Eine Bilinearform b auf einem K-Vektorraum V heißt nicht ausgeartet, wenn für
alle v ∈ V gelten die folgende Aussagen:
(1) b(v 0 , v) = 0 für alle v 0 ∈ V =⇒ v = 0 (d.h. V ⊥ = {0V }),
(2) b(v, v 0 ) = 0 für alle v 0 ∈ V =⇒ v = 0 (d.h. ⊥ V = {0V }).
Sonst sagen wir, dass b ausgeartet ist.
Beispiel.
(1) Die kanonische Bilinearform auf K n
b(x, y) =
n
X
x i yi
i=1
ist nicht ausgeartet: aus b(x, y) = 0 für alle y ∈ K n folgt x = 0, da b(x, ei ) = xi , und
aus b(x, y) = 0 für alle x ∈ K n folgt y = 0.
(2) Sei b : K 2 × K 2 → K die Bilinearform
x1
y1
b
,
:= x1 y1 + x2 y1
x2
y2
mit zugehörigen Matrix
b(A, A) =
1 0
1 0
bzgl. der Standardbasis A = (e1 , e2 ). Diese Bilinearform ist nicht symmetrisch und für
M = {e2 } gilt M ⊥ 6= ⊥ M :
0
y1
y1
b
,
= y1 so dass M ⊥ =
∈ K 2 : y1 = 0
1
y2
y2
und
b
x1
x2
0
,
=0
1
so dass
⊥
M = K 2.
Diese Bilinearform b ist ausgeartet, weil
y1
2
2 ⊥
∈ K : y1 = 0 6= {0V }.
(K ) =
y2
LINEARE ALGEBRA II: LEHRPLAN
15
Zur Erinnerung: für einen K-Vektorraum V und eine Bilinearform b : V × V → K gibt es
eine lineare Abbildung fb : V → V ∗ mit
fb (v) := b(−, v) : V → K
A (f ) = b(A, A).
und wenn A = (v1 , . . . , vn ) eine geordnete Basis von V ist, gilt MA
∗
b
Satz 2.4. Sei b : V ×V → K eine Bilinearform auf einem endlichdimensionalen K-Vektorraum
V mit einer geordneten Basis A. Dann sind die folgenden Bedingungen äquivalent:
(1) b ist nicht ausgeartet,
(2) V ⊥ = {0V },
(3) ⊥ V = {0V },
(4) die zugehörige Matrix B = b(A, A) ist invertierbar,
(5) die lineare Abbildung fb : V → V ∗ , die durch v 7→ b(−, v) definiert wird, ist ein Isomorphismus.
Beispiel. Die Einschränkung einer nicht ausgearteten Bilinearform kann ausgeartet sein: für
V = K 2 und die Bilinearform
b(x, y) := x1 y2 + x2 y1 ,
ist b|U ×U ≡ 0 für U := Span(e1 ) ⊂ V . Insbesondere ist b nicht ausgeartet, aber b|U ×U ist ausgeartet.
Definition. Sei U ein Untervektorraum eines K-Vektorraumes V . Dann definieren wir den
Annullator von U
Ann(U, V ∗ ) := {ϕ ∈ V ∗ : ϕ(u) = 0V ∀ u ∈ U } ⊂ V ∗ .
Für W ⊂ V ∗ , definieren wir Ann(W, (V ∗ )∗ ) ⊂ (V ∗ )∗ wie oben und
Ann(W, V ) := {v ∈ V : ϕ(v) = 0V ∀ ϕ ∈ W } ⊂ V.
Bemerkung. Sei V ein K-Vektorraum und U ⊂ V und W ⊂ V ∗ Untervektorräume.
(1) Der Annullator Ann(U, V ∗ ) ist ein Untervektorraum von V ∗ .
(2) Wenn V endlichdimensional ist, wir behaupten dass
dimK (Ann(U, V ∗ )) = dimK (V ) − dimK (U ).
Seien {u1 , · · · , ur } eine Basis von U und B = {u1 , · · · , ur , v1 , · · · , vs } eine Basis von V ,
dann sind die Linearformen vi∗ ∈ Ann(U, V ∗ ) ⊂ V ∗ für 1 ≤ i ≤ s linear unabhängig. Es
gilt
Span(v1∗ , . . . , vs∗ ) = Ann(U, V ∗ ),
da ‘⊂’ klar ist, und jede Abbildung ϕ ∈ Ann(U, V ∗ ) ⊂ V ∗ als eine Linearkombination
der Basisvektoren B ∗ geschrieben werden kann:
ϕ = λ1 u∗1 + · · · + λr u∗r + µ1 v1∗ + · · · + µs vs∗
mit λi = ϕ(ui ) = 0K für 1 ≤ i ≤ r. Daher ist {v1∗ , . . . , vs∗ } eine Basis von Ann(U, V ∗ ).
(3) Wenn V endlichdimensional ist, haben wir einen linearen Isomorphismus
Φ: V
v
→
(V ∗ )∗
7→ Φv : V ∗ → K,
wobei Φv (ϕ) := ϕ(v). Dann gilt Φ(Ann(W, V )) = Ann(W, (V ∗ )∗ ).
Satz 2.5. Sei b : V ×V → K eine Bilinearform auf einem endlichdimensionalen K-Vektorraum
V und U ein Untervektorraum von V . Dann gilt
dim(U ) + dim(⊥ U ) = dim(V ) + dim(U ∩ V ⊥ ).
und
dim(U ) + dim(U ⊥ ) = dim(V ) + dim(U ∩
⊥
V ).
16
VICTORIA HOSKINS
Korollar. Sei b : V × V → K eine nicht ausgeartete Bilinearform auf einem endlichdimensionalen K-Vektorraum V . Für einen Untervektorraum U ⊂ V gilt
dim(V ) = dim(U ) + dim(⊥ U ) = dim(U ) + dim(U ⊥ ).
Ferner haben wir U =
⊥ (U ⊥ )
= (⊥ U )⊥ .
Korollar. Sei b : V × V → K eine Bilinearform auf einem endlichdimensionalen K-Vektorraum
V . Für einen Untervektorraum U ⊂ V ist äquivalent:
(1) b|U ×U ist nicht ausgeartet,
(2) V = U ⊕ U ⊥ .
Übung. Sei K ein Korper mit 1 + 1 6= 0 und V ein endlichdimensionaler K-Vektorraum. Für
jede antisymmetrische Bilinearform b : V ×V → K beweisen Sie (durch Induktion nach dim(V )),
dass es eine Basis A von V gibt mit


0 0
...
0
.
.


 0 .. ..


.. 
..
..


. 0
.
. 
0 1

b(A, A) =  .
.
 für S =
..
..
−1 0
 ..

.
.
S




.. ..

.
. 0 
0
[24.05.17]
...
0
S
Was ist eine notwendige Bedingung für V eine nicht ausgeartete antisymmetrische Bilinearform
zu haben?
2.4. Quadratische Formen.
Definition. Ein Polynom in n Variablen t1 , · · · , tn über K ist ein formaler Ausdruck P der
Form
X
P (t1 , . . . , tn ) =
aI ti11 ti22 · · · tinn
I=(i1 ,...,in )∈Nn
mit Koeffizienten aI ∈ K, so dass nur endliche viele Koeffizienten aI ungleich Null sind. Der
Grad eines nicht-Null Polynoms P ist
grad(P ) := max{i1 + · · · + in : aI 6= 0}.
Ein Polynom P heißt homogen vom Grad d, wenn für alle I = (i1 , . . . , in ) ∈ Nn gilt
aI 6= 0 =⇒ i1 + · · · + in = d.
Insbesondere ist das Nullpolynom homogen von jedem Grad d. Die Menge aller Polynome in n
Variablen t1 , . . . , tn über K wird mit K[t1 , . . . , tn ] bezeichnet; diese Menge ist eine Teilmenge der
Menge Abb(K n , K). Die Menge K[t1 , . . . , tn ] mit der Addition und Multiplikation von Polynome
bildet einen Ring und ist auch ein K-Vektorraum. Die Teilmenge K[t1 , . . . , tn ]d ⊂ k[t1 , . . . , tn ]
von allen homogenen Polynome des Grads d ist ein endlichdimensionalen Untervektorraum.
Übung. Ein Polynom P (t1 , · · · , tn ) in n Variablen über K ist homogen vom Grad d genau
dann, wenn für alle λ ∈ K gilt
P (λ · t1 , . . . , λ · tn ) = λd P (t1 , . . . , tn ).
Definition. Eine quadratische Form auf V ist eine Abbildung q : V → K mit den folgenden
Eigenschaften:
(1) q(λ · v) = λ2 · q(v) für alle λ ∈ K und v ∈ V ,
(2) Die Abbildung βq : V × V → K
βq (v, v 0 ) := q(v + v 0 ) − q(v) − q(v 0 )
ist eine Bilinearform auf V . (Wir nennen βq die zu q assoziierte Bilinearform).
LINEARE ALGEBRA II: LEHRPLAN
17
Die quadratische Form q heißt nicht ausgeartet, falls βq nicht ausgeartet ist. Die Menge aller
quadratischen Formen auf V wird mit QFK (V ) bezeichnet.
Bemerkung. Insbesondere, wenn q 6≡ 0 ist q nicht linear nach (1). Die assoziierte Bilinearform
βq ist symmetrisch. Ferner ist die Teilmenge QFK (V ) ⊂ Abb(V, K) ein Untervektorraum.
Satz 2.6. Sei A = (v1 , · · · , vn ) eine geordnete Basis eines K-Vektorraumes V . Für eine Abbildung q : V → K definieren wir eine Abbildung fqA : K n → K durch
fqA (x1 , . . . , xn ) := q(x1 · v1 + · · · + xn · vn ).
Die Abbildung q ist genau dann eine quadratische Form, wenn fqA ein homogenes Polynom vom
Grad 2 ist.
Bemerkung. Sei V ein K-Vektorraum.
(1) Wenn b eine Bilinearform auf V ist, dann ist qb (v) := b(v, v) eine quadratische Form von
V mit βqb (v, v 0 ) = b(v, v 0 ) + b(v 0 , v). Wenn A eine geordnete Basis von V ist, gilt
βqb (A, A) = b(A, A) + b(A, A)t .
(2) Wenn b ist eine symmetrische Bilinearform auf V , gilt
2b(v, v 0 ) = b(v + v 0 , v + v 0 ) − b(v, v) − b(v 0 , v 0 ).
Die folgende ‘Polarisierungs-Identität’ folgt für die quadratische Form qb (v) := b(v, v)
2b(v, v 0 ) = qb (v + v 0 ) − qb (v) − qb (v 0 )
Insbesondere gilt für die zugehörige Bilinearform βqb zu qb die Gleichung 2b = βqb .
(3) Falls 2 := 1 + 1 6= 0 ∈ K und b eine symmetrische Bilinearform auf V ist, dann können
wir b aus der quadratischen Form qb (v) := b(v, v) zurückgewinnen durch die Formel
b = 21 βqb .
Beispiel. Für die kanonische symmetrische Bilinearform b auf K n ist qb (x1 , . . . , xn ) =
Pn
2
i=1 xi .
Definition. Die Charakteristik eines Körpers K ist
0
falls n := 1 + · · · + 1 6= 0 ∈ K ∀n ∈ N∗ ,
Char(K) :=
min{n ∈ N∗ : n = 0 ∈ K} sonst.
Übung. Die Charakteristik eines Körpers ist entweder Null oder eine Primzahl.
Beispiel.
(1) Char(Q) = Char(R) = Char(C) = 0.
(2) Char(Fp ) = p für eine Primzahl p.
Satz 2.7. Sei K ein Körper mit Char(K) 6= 2 und V ein K-Vektorraum. Dann gibt es einen
linearen Isomorphismus
Bilsym
K (V ) → QFK (V )
b
7→
qb
mit qb (v) := b(v, v).
Bemerkung. Wenn dimK (V ) = n ∈ N und Char(K) 6= 2, dann gibt es Bijektionen
sym
∼
∼
Matsym
n×n (K) = BilK (V ) = QFK (V ).
P
n
Wenn q(x) =
1≤i≤j≤n aij xi xj eine quadratische Form auf K ist, dann ist die zugehörige
symmetrische Matrix C = (cij ) mit

 aij /2 i < j
aii
i=j
cij =

aji /2 i > j,
[29.05.17]
18
VICTORIA HOSKINS
da 12 βq (ei , ej ) = cij , so dass 12 βq (B, B) = C für B = (e1 , . . . , en ).
Definition. Sei b eine symmetrische Bilinearform auf einem K-Vektorraum V . Eine Orthogonalbasis von V bzgl. b ist eine Basis A von V mit b(vi , vj ) = 0 für alle vi 6= vj ∈ A (d.h. vi ⊥ vj ).
Bemerkung. Sei V ein endlichdimensionaler K-Vektorraum und A eine geordnete Basis von
V . Die Basis A ist genau dann orthogonal bzgl. einer Bilinearform b auf V , wenn die zugehörige
Matrix b(A, A) diagonal ist.
Beispiel. Für die kanonische Bilinearform auf K n
b(x, y) :=
n
X
xi yi
i=1
ist die Standardbasis eine Orthogonalbasis.
Satz 2.8. Sei K ein Körper mit Char(K) 6= 2 und b eine symmetrische Bilinearform auf einem
endlichdimensionalen K-Vektorraum V . Dann gibt es eine Orthogonalbasis von V bzgl. b.
Korollar. Wenn Char(K) 6= 2, ist jede symmetrische Matrix A ∈ MatSym
n×n (K) kongruent zu
t
einer Diagonalmatrix, d.h. es gibt S ∈ GLn (K) mit SAS = D, eine Diagonalmatrix.
Korollar. Wenn K = C und b eine symmetrische Bilinearform auf einem C-Vektorraum V der
Dimension n ∈ N ist, dann gibt es 0 ≤ r ≤ n und eine geordnete Basis A von V so dass die
Matrix B = b(A, A) zu b die folgende Form hat
Ir 0
B=
.
0 0
[31.05.17]
Korollar. (Trägheitssatz von Sylvester - Version I). Sei K = R und b eine symmetrische Bilinearform auf einem R-Vektorraum V der Dimension n. Dann gibt es r, s ∈ N mit r + s ≤ n und
eine geordnete Basis A von V so, dass die zu b gehörige Matrix B = b(A, A) die folgende Form
hat


Ir
0 0
B =  0 −Is 0  .
0
0 0
Korollar.
Sei K ein Körper mit Char(K) 6= 2. Jedes homogene quadratische Polynom q(x1 , . . . , xn ) =
P
a
1≤i≤j≤n ij xi xj in n Variablen x1 , . . . , xn lässt sich schreiben in der Form
X
q(x) =
di · (bi1 x1 + · · · + bin xn )2
1≤i,j≤n
mit bij und di ∈ K.
q(x) = xt Cx = xt B t DBx = (Bx)t D(Bx) =
n
X
di (Bx)2i .
i=1
Bemerkung. Aus diesem Korollar folgt:
(1) Für jede quadratische Form q auf einem C-Vektorraum der Dimension n gibt es 0 ≤
r ≤ n und eine geeignete Basis A von V , so dass das zugehörige homogene quadratische
Polynom fqA (siehe Satz 2.6) die folgende Form hat
fqA (t1 , . . . , tn ) = t21 + · · · + t2r .
LINEARE ALGEBRA II: LEHRPLAN
19
(2) Für jede quadratische Form q auf einem R-Vektorraum der Dimension n gibt es r, s ∈ N
mit r + s ≤ n und eine geeignete Basis A von V , so dass das zugehörige homogene
quadratische Polynom fqA die folgende Form hat
fqA (t1 , . . . , tn ) = t21 + · · · + t2r − t2r+1 − · · · − t2r+s .
3. Euklidische und unitäre Vektorräume
3.1. Euklidische Vektorräume. In diesem Abschnitt sei K = R. Der Körper R ist angeordnet, d.h. es gibt eine Ordnung ≤ auf R. Ferner gibt es einen Betrag auf R, der eine Abbildung
| − | : R → R≥0 := {x ∈ R : x ≥ 0} ist.
Definition. Sei V ein R-Vektorraum.
(1) Eine symmetrische Bilinearform b : V × V → R heißt positiv semi-definit (bzw. positiv
definit), falls b(v, v) ≥ 0 (bzw. b(v, v) > 0) für alle v ∈ V \{0V }.
(2) Eine symmetrische Bilinearform b auf V heißt negativ (semi-)definit, wenn −b positiv
(semi-)definit ist.
t
(3) Eine symmetrische Matrix A ∈ MatSym
n×n (R) heißt positiv semi-definit, wenn x Ax ≥ 0 für
n
alle x ∈ R \{0} ist. Ebenso kann man die Definitionen für positiv semi-definit, negativ
definit, und negativ semi-definit formulieren.
(4) Ein Skalarprodukt auf V ist eine positiv definite symmetrische Bilinearform h−, −i :
V × V → R auf V .
(5) Ein euklidischer Vektorraum (V, h−, −i) ist ein endlichdimensionaler R-Vektorraum V
mit einem Skalarprodukt h−, −i : V × V → R.
Bemerkung.
(1) Wenn V ein endlichdimensionaler R-Vektorraum ist und A eine geordnete Basis von V
ist, dann gilt für eine symmetrische Bilinearform b auf V :
b ist positiv definit ⇐⇒ b(A, A) ist positiv definit.
(2) Nach dem Trägheitssatz von Sylvester (Version I) gibt es zu jeder symmetrische Bilinearform b auf einem R-Vektorraum V der Dimension n natürliche Zahlen r, s mit r+s ≤ n
und eine geordnete Basis A von V so, dass


Ir
0 0
B = b(A, A) =  0 −Is 0  .
0
0 0
Die Bilinearform b ist genau dann positiv semi-definit, wenn s = 0. Die symmetrische
Bilinearform b ist ein Skalarprodukt (d.h. positiv definit), wenn s = 0 und r = n. Insbesondere ist ein Skalarprodukt h−, −i auf V nicht ausgeartet nach dem Satz 2.4. Die
Bilinearform ist negativ definit, wenn r = 0 und s = n.
Beispiel. Das Standardskalarprodukt auf Rn ist
h−, −i : Rn × Rn → R
P
(x, y)
7→ hx, yi := ni=1 xi yi .
Dann ist En := (Rn , h−, −i) der standard euklidische Vektorraum (der Dimension n).
Lemma. Eine symmetrische Matrix A ∈ MatSym
n×n (R) ist genau dann positiv definit, wenn A
kongruent zu der Einheitsmatrix In ist.
Satz 3.1 (Trägheitssatz von Sylvester). Sei h−, −i eine symmetrische Bilinearform auf einem
endlichdimensionalen R-Vektorraum V . Dann gibt es eine Zerlegung V = V+ ⊕ V− ⊕ V0 mit den
folgenden Eigenschaften.
(1) V0 , V+ und V− sind paarweise orthogonal bezüglich < −, − > ,
20
VICTORIA HOSKINS
(2) b|V0 ×V0 ≡ 0,
(3) b|V+ ×V+ ist positiv definit,
(4) b|V− ×V− ist negativ definit.
Ferner sind V0 , dimR (V+ ) und dimR (V− ) eindeutig bestimmt.
Definition.
(1) Die Signatur einer symmetrische Bilinearform b auf einem endlichdimensionalen RVektorraum V ist
sign(b) := dim(V+ ) − dim(V− ),
wobei V = V+ ⊕ V− ⊕ V0 eine Zerlegung wie in dem Trägheitssatz von Sylvester ist.
(2) Die Signatur einer symmetrische Matrix A ∈ Matn×n (R) ist die Signatur der zugehörigen symmetrische Bilinearform bA .
Bemerkung. Für zwei symmetrische Matrizen A, B ∈ Matn×n (R) gilt
A und B sind kongruent ⇐⇒ Rang(A) = Rang(B) und sign(A) = sign(B).
[07.06.17]
Definition. Sei (V, h−, −i) ein euklidischer Vektorraum.
(1) f ∈ EndR (V ) heißt orthogonal (bzgl. h−, −i), wenn für alle v, w ∈ V gilt
hf (v), f (w)i = hv, wi.
Wir schreiben O(V ) := {f ∈ EndK (V ) : f ist orthogonal}.
(2) Eine Matrix A ∈ Matn×n (R) mit At A = In heißt orthogonal 7. Wir schreiben O(n) für
die Menge aller orthogonalen n × n-Matrizen.
Bemerkung.
(1) Jede Matrix A ∈ O(n) ist invertierbar mit A−1 = At , also gilt O(n) ⊂ GLn . Tatsächlich
ist diese Teilmenge eine Untergruppe: es gilt In ∈ O(n) und aus A ∈ O(n) folgt A−1 ∈
O(n). Wir nennen O(n) die orthogonale Gruppe.
(2) Für A ∈ Matn×n (R) definieren wir eine lineare Abbildung FA : Rn → Rn durch FA (x) =
Ax für einen Spaltenvektor x ∈ Rn . Dann gilt für das Standardskalarprodukt h−, −i auf
Rn
hFA (x), FA (y)i = hAx, Ayi = (Ax)t Ay = xt At Ay.
Insbesondere ist A genau dann orthogonal, wenn FA orthogonal bzgl. des Standardskalarprodukt h−, −i auf Rn ist.
Beispiel.
(1) Sei λ ∈ R und V ein euklidischer Vektorraum. Dann ist f = λ · IdV genau dann orthogonal, wenn λ = ±1.
(2) Eine Drehung Dθ : R2 → R2 um 0 ∈ R2 mit Winkel θ ist orthogonal bzgl. des Standardskalarprodukt h−, −i auf Rn , weil
cos θ sin θ
Aθ = MBB (Dθ ) =
− sin θ cos θ
mit B = (e1 , e2 ) orthogonal ist:
cos θ − sin θ
cos θ sin θ
1 0
t
Aθ Aθ =
=
.
sin θ cos θ
− sin θ cos θ
0 1
7In diesem Fall ist A invertierbar mit A−1 = At
LINEARE ALGEBRA II: LEHRPLAN
21
(3) Eine Spieglung Sx : R2 → R2 in der x-Achse ist orthogonal, weil
1 0
A = MBB (Sx ) =
0 −1
orthogonal ist. Tatsächlich ist die Spieglung durch jede Gerade L durch 0 ∈ R2 orthogonal.
Bemerkung. Für einen euklidischen Vektorraum V und orthogonale Endomorphismen f, g ∈
EndR (V ) gilt
(1) f ◦ g ist orthogonal,
(2) ker(f ) = {0V }. Wegen dimR (V ) < ∞, ist f bijektiv und ferner ist f −1 orthogonal.
(3) Die Menge O(V ) ist eine Untergruppe von AutR (V ) ⊂ EndR (V ).
(4) Für einen Eigenwert λ ∈ R von f gilt λ = ±1.
Beispiel.
(1) O(1) = {±1}.
(2) Für n = 2: wenn eine Matrix
A=
a b
c d
orthogonal ist, gilt a2 + c2 = b2 + d2 = 1 und ab + cd = 0. Seien α := a + ic und
β := b + id ∈ C, dann gilt |α| = |β| = 1 und Re(αβ) = 0. Es folgt, dass |αβ| = 1 und,
wegen Re(αβ) = 0, dass αβ = ±i, d.h. β = ±iα. Jede komplexe Zahl α ∈ C mit |α| = 1
hat die Form α = cos θ + i sin θ für θ ∈ [0, 2π). Deshalb gibt es zwei Fälle:
cos θ − sin θ
Fall 1 : β = iα.
A=
sin θ cos θ
eine Drehung um 0 ∈ R2 mit Winkel θ, oder
cos θ sin θ
Fall 2 : β = −iα.
A=
sin θ − cos θ
√
eine Spieglung an der Geraden durch den 0 und α.
(3) Für A ∈ O(n) ist det(A) = ±1. Ferner ist der Homomorphismus det : O(n) → O(1) =
{±1} surjektiv.
3.2. Unitäre Vektorräume. In diesem Abschnitt sei K = C := {x + iy : (x, y) ∈ R2p
}, wobei i
eine Wurzel von −1 ist. Der Betrag ist eine Abbildung | − | : C → R≥0 mit |x + iy| = x2 + y 2 .
Die Komplexe Konjugation ist ein Körperautomorphisms C → C, der durch z := x + iy 7→ z̄ =
x − iy definiert wird. Es gilt z̄z = |z|2 .
Es gibt keine Ordnung auf C, deshalb hat der Begriff ‘positive Definitheit’ keinen Sinn. Ferner
haben wir für die kanonische symmetrische Bilinearform b auf Cn
b(z, w) :=
n
X
z k wk
k=1
für z = w = (i, . . . , i)t , dass b(z, z) < 0. Deshalb werden wir ein Skalarprodukt auf einem komplexen Vektorraum als eine ‘positiv definite hermitesche’ Form definieren.
Definition. Sei V ein C-Vektorraum.
(1) Eine Abbildung h : V × V → C heißt Sesquilinearform auf V , wenn
(a) h ist C-linear im zweiten Argument, d.h. für vi ∈ V und λ, µ ∈ C gilt
h(v1 , µv2 + λv3 ) = µh(v1 , v2 ) + λh(v1 , v3 ).
22
VICTORIA HOSKINS
(b) h ist C-antilinear im ersten Argument , d.h. für vi ∈ V und λ, µ ∈ C gilt
h(µv1 + λv2 , v3 ) = µ̄h(v1 , v3 ) + λ̄h(v2 , v3 ).
Die Menge aller Sesquilinearformen auf V wird mit SLF(V ) bezeichnet.
(2) Eine Sesquilinearform h auf V heißt Hermitesch (bzw. schief-Hermitesch), wenn ∀vi ∈
V:
h(v1 , v2 ) = h(v2 , v1 ) (bzw. h(v1 , v2 ) = −h(v2 , v1 )).
(3) Wenn A = (v1 , . . . , vn ) eine Basis von V ist und h eine Sesquilinearform auf V ist, dann
heißt h(A, A) := (h(vi , vj ))ij ∈ Matn×n (C) die Matrix von h bezüglich A.
(4) Für B = (bij ) ∈ Matm×n (C), definieren wir B † := B̄ t = (bji ) ∈ Matn×m (C).8
(5) Eine Matrix B ∈ Matn×n (C) heißt Hermitesch (bzw. schief-Hermitesch), wenn B = B †
(bzw. B = −B † ).
Beispiel. Die kanonische Hermitesche Form auf Cn ist h : Cn × Cn → C mit
n
X
z k wk
h(z, w) =
k=1
und die Matrix von h bzgl. zu der geordneten Standardbasis (e1 , . . . , en ) ist die Einheitsmatrix
In .
Bemerkung. Sei V ein C-Vektorraum der Dimension n und A = (v1 , . . . , vn ) eine geordnete
Basis von V . Dann gibt es genau einen linearen Isomorphismus ΦA : V → Cn mit ΦA (vk ) = ek
für 1 ≤ k ≤ n [LAI, Satz 4.4].
(1) Wenn h : V × V → C eine Sesquilinearform ist und B die Matrix von h bzgl. der Basis
A ist, dann gilt für alle v, v 0 ∈ V
h(v, v 0 ) = ΦA (v)† B ΦA (v 0 ).
Ferner ist h genau dann eine (schief-)Hermitesche Form, wenn B eine (schief-)Hermitesche
Matrix ist.
(2) Umgekehrt definiert B ∈ Matn×n (C) eine Sesquilinearform auf V durch
0
†
0
hA
B (v, v ) := ΦA (v) B ΦA (v )
und die zugehörige Matrix dieser Sesquilinearform h bzgl. der Basis A ist wieder B.
(3) Die Abbildung
ΨA : SLF(V ) → Matn×n (C),
die zu jeder Sesquilinearform h die zugehörige Matrix B = h(A, A) von h bzgl. der Basis
A zuordnet, ist ein linearer Isomorphismus.
(4) Es gibt eine Formel für einen Basiswechsel: seien A, B geordneten Basen von V . Dann
gilt für eine Sesquilinearform h auf V
B
B
h(B, B) = MA
(IdV )† h(A, A)MA
(IdV )
B (Id ) die Basiswechselmatrix für die Identität auf V ist.
wobei MA
V
Bemerkung. Sei V ein C-Vektorraum.
(1) Wenn h eine Hermitesche Form auf V ist, gilt h(v, v) ∈ R für alle v ∈ V , weil h(v, v) =
h(v, v).
(2) Wenn h eine schief-Hermitesche Form auf V ist, gilt h(v, v) ∈ iR für alle v ∈ V .
8Es gilt B † := (B t ) = (B̄)t .
LINEARE ALGEBRA II: LEHRPLAN
23
Definition. Sei V ein C-Vektorraum.
(1) Eine Hermitesche Form h auf einem C-Vektorraum V heißt positiv definit, wenn für alle
v ∈ V mit v 6= 0V gilt h(v, v) > 0. Die Definitionen für positiv semi-definit, negativ
definit und negativ semi-definit sind analog.
(2) Ein Skalarprodukt auf V ist eine positiv definite Hermitesche Form auf V .
(3) Ein unitärer Vektorraum (V, h) ist ein endlichdimensionaler C-Vektorraum V mit einer
Skalarprodukt h auf V .
Beispiel. Die kanonische Hermitesche Form auf Cn
n
X
z k wk
hz, wi :=
k=1
Pn
Pn
ist positiv definit, weil hz, zi := k=1 z k zk = k=1 |zk |2 . Wir nennen h−, −i das Standardskalarprodukt auf Cn . Dann heißt (Cn , h−, −i) der standard unitäre Vektorraum
Definition. Sei (V, h−, −i) ein unitärer Vektorraum.
(1) f ∈ EndC (V ) heißt unitär (bzgl. h−, −i), wenn für alle v, w ∈ V gilt
hf (v), f (w)i = hv, wi.
Wir schreiben U(V ) := {f ∈ EndC (V ) : f ist unitär}.
(2) Eine Matrix A ∈ Matn×n (C) mit A† A = In heißt unitär 9. Wir schreiben U(n) für die
Menge aller unitären n × n-Matrizen.
Bemerkung. Für A ∈ Matn×n (Cn ) definieren wir eine lineare Abbildung FA : Cn → Cn durch
FA (x) = Ax für einen Spaltenvektor x ∈ Cn . Dann gilt für das Standardskalarprodukt h−, −i
auf Cn
hFA (x), FA (y)i = hAx, Ayi = (Ax)† Ay = x† A† Ay.
Insbesondere ist A genau dann unitär, wenn FA unitär bzgl. zu dem Standardskalarprodukt
h−, −i auf Cn ist.
Beispiel. Sei λ ∈ C und V ein unitärer Vektorraum. Dann ist f = λ · IdV genau dann unitär,
wenn |λ| = 1.
Bemerkung. Für einen unitären Vektorraum V und unitäre Endomorphismen f, g ∈ U(V ) gilt
(1) f ◦ g ist unitär.
(2) ker(f ) = {0V } und wegen dimC (V ) < ∞, ist f bijektiv und ferner ist f −1 unitär.
(3) Die Menge U(V ) ist eine Untergruppe von AutC (V ) ⊂ EndC (V ).
(4) Für einen Eigenwert λ ∈ C von f gilt |λ| = 1.
Definition. Die Menge aller unitäre n × n-Matrizen U(n) < GLn (C) heißt die unitäre Gruppe.
Beispiel.
(1) U(1) = {z ∈ C : |z| = 1}.
(2) Für A ∈ U(n) ist | det(A)| = 1. Ferner ist der Homomorphismus det : U(n) → U(1)
surjektiv.
3.3. Normen und Orthogonalität. In dieser Sektion sei K = R oder K = C. Dann gibt es
einen Betrag | − | : K → R≥0 .
Definition. Sei V ein K-Vektorraum. Eine Abbildung || − || : V → R≥0 heißt Norm, wenn die
folgenden Eigenschaften (N1-N3) gelten:
9In diesem Fall ist A invertierbar mit A−1 = A†
[12.06.17]
24
VICTORIA HOSKINS
(N1). Für v ∈ V gilt ||v|| = 0 =⇒ v = 0V ,
(N2). Für v ∈ V und λ ∈ K gilt ||λ · v|| = |λ| ||v||,
(N3.) Für v, v 0 ∈ V gilt die Dreiecksungleichung: ||v + v 0 || ≤ ||v|| + ||v 0 ||.
Bemerkung. Für eine Norm || − || : V → R gilt:
(1) ||0V || = 0 nach dem Axiom (N2).
(2) || − v|| = ||v|| nach dem Axiom (N2).
Satz 3.2. Sei V ein K-Vektorraum
und h−, −i : V × V → R ein Skalarprodukt (mit K = R
p
oder C). Dann ist ||v|| := hv, vi eine Norm auf V . Ferner gelten für v, w ∈ V und λ ∈ K
(a) ||v + w||2 = ||v||2 + ||w||2 + 2Re < v, w >.
(b) (Parallelogrammidentität)
||v + w||2 + ||v − w||2 = 2||v||2 + 2||w||2 .
(c) (Schwarz’sche Ungleichung)
|hv, wi| ≤ ||v|| ||w||
mit Gleichheit genau dann, wenn v und w linear abhängig sind.
(d) | ||v|| − ||w|| | ≤ ||v − w||.
Beispiel. Das Standardskalarprodukt auf Rn
h−, −i : R × Rn → R
P
(x, y) 7→ hx, yi := ni=1 xi yi
liefert die euklidische Standardnorm || − || : Rn → R≥0
v
u n
uX
||x|| = t
x2i .
i=1
Ebenso liefert das Standardskalarprodukt auf
Cn
h−, −i : C × Cn → C
P
(z, w) 7→ hz, wi := nk=1 z¯k wk
die unitäre Standardnorm || − || : Cn → R≥0
v
v
u n
u n
uX
uX
||z|| = t
z¯k zk = t
|zk |2 .
k=1
k=1
Definition. Sei V ein K-Vektorraum. Eine Abbildung d : V × V → R≥0 heißt Metrik (oder
Abstand), wenn die folgenden Eigenschaften (M1-M3) gelten:
(M1). Für v, w ∈ V gilt d(v, w) = 0 ⇐⇒ v = w.
(M2). Symmetrie: Für v, w ∈ V gilt d(v, w) = d(w, v).
(M3.) Dreiecksungleichung: Für u, v, w ∈ V gilt d(u, v) ≤ d(u, w) + d(w, v).
Lemma. Sei || − || eine Norm auf einem K-Vektorraum V . Dann ist d(v, w) := ||v − w|| eine
Metrik auf V .
Definition. Sei h−, −i : V × V → K ein Skalarprodukt auf einem K-Vektorraum V .
(1) Zwei Vektoren v, w ∈ V heißt orthogonal, falls hv, wi = 0. In diesem fall schreiben wir
v ⊥ w.
(2) Zwei Teilmengen A und B heißt orthogonal (schreibweise A ⊥ B), falls a ⊥ b für alle
a ∈ A und b ∈ B.
(3) Eine direkte Summe ⊕nj=1 Ui von Untervektorräume Uj von V ist orthogonal, falls Uj ⊥
Uk für alle j 6= k.
LINEARE ALGEBRA II: LEHRPLAN
(4)
(5)
(6)
(7)
25
Eine Familie (vj )j∈J von Vektoren heißt orthogonal, falls für alle j 6= k gilt vj ⊥ vk .
Eine Familie (vj )j∈J von Vektoren heißt normiert, falls für alle j ∈ J gilt ||vj || = 1.
Eine Familie (vj )j∈J von Vektoren heißt orthonormal, falls hvj , vk i = δjk für alle j, k ∈ J.
Eine Orthonormal-Basis (ON-Basis) von V ist eine Basis von V , deren Vektoren orthonormal zueinander sind.
Bemerkung. Für ein Skalarprodukt h−, −i : V × V → K auf einem K-Vektorraum V gelten
die folgenden Aussagen.
(1) v ⊥ w ⇐⇒ w ⊥ v für v, w ∈ V , weil hv, wi = hw, vi.
(2) Eine Familie ist genau dann orthonormal, wenn sie orthogonal und normiert ist.
(3) Für v 6= 0V ist v/||v|| normiert.
(4) Jede orthogonale Familie
P (vj )j∈I mit vj 6= 0V für alle j ∈ J ist linear unabhängig: aus
einer Gleichung 0V = nk=1 λk vjk mit λk ∈ K folgt für 1 ≤ l ≤ n
0 = hvil , 0V i = hvil ,
n
X
λk vjk i =
k=1
n
X
λk hvil , vjk i = λl ||vjl ||2
k=1
und wegen vjl 6= 0V , folgt λl = 0.
(5) Wenn (vj )j∈J eine orthogonale Familie mit vj 6= 0V für alle j ∈ J ist, dann ist die
Familie (wj )j∈J mit wj := vj /||vj || orthonormal.
Beispiel. Die Standardbasis e1 , . . . , en von K n ist eine ON-Basis (bzgl zum Standardskalarprodukt).
Satz 3.3. Sei h−, −i : V × V → K ein Skalarprodukt auf einem K-Vektorraum V (mit K = R
oder C) und sei v1 , . . . , vn eine ON-Basis von V .
(1) Für alle v ∈ V gilt
n
X
v=
hvk , vi · vk .
k=1
(2) Parseval-Gleichung: für alle v, w ∈ V gilt
hv, wi =
n
X
hvk , vihvk , wi.
k=1
(3) Bessel-Gleichung: für alle v ∈ V gilt
||v||2 =
n
X
|hvk , vi|2 .
k=1
Satz 3.4. Sei f : V → W eine lineare Abbildung zwischen endlichdimensionalen K-Vektorräumen mit Skalarprodukten h−, −iV : V × V → K und h−, −iW : W × W → K. Wenn A =
(v1 , . . . , vn ) und B = (w1 , . . . , wn ) geordnete ON-Basen von V und W sind und A = MBA (f ),
dann gilt
aij = hwi , f (vj )i.
3.4. Gram-Schmidtsche-Orthogonalisierungsverfahren (GSOV). Durch diese Verfahren werden wir zeigen, wie man aus einer gegebenen linear unabhängigen Familie v1 , . . . , vn von
Vektoren aus einem K-Vektorraum mit Skalarprodukt (V, h−, −i) eine ON-Familie w1 , . . . , wn
erhält mit Span(v1 , . . . , vn ) = Span(w1 , . . . , wn ). Das Verfahren an den Beweis von Satz 2.8
anlehnt.
Satz 3.5 (Gram-Schmidt OV). Sei (V, h−, −i) ein K-Vektorraum mit Skalarprodukt. Wenn
v1 , . . . , vn eine lineare unabhängige Familie von Vektoren aus V ist, gibt es eine ON-Familie
w1 , . . . , wn von Vektoren mit
Span(v1 , . . . , vr ) = Span(w1 , . . . , wr )
für 1 ≤ r ≤ n
[14.06.17]
26
VICTORIA HOSKINS
Korollar. Jeder endlichdimensionale K-Vektorraum V mit Skalarprodukt hat eine ON-Basis.
Bemerkung. Sei (V, h−, −i) ein K-Vektorraum mit Skalarprodukt. Wenn (vj )j∈N eine lineare
unabhängige Familie von Vektoren aus V ist, nach dem GSOV und Induktion gibt es eine
ON-Familie (wj )j∈N von Vektoren, so dass für alle n ∈ N gilt
Span(v0 , . . . , vn ) = Span(w0 , . . . , wn ).
Korollar. Sei V ein unitärer Vektorraum und f ∈ EndC (V ). Dann gibt es eine ON Basis A
A (f ) eine obere Dreiecksmatrix ist.
von V so dass MA
Korollar.(Satz von Schur) Sei A ∈ Matn×n (C). Dann gibt es U ∈ U(n) so dass U † AU eine
obere Dreiecksmatrix ist.
3.5. Spektralsätze.
Satz 3.6 (Spektralsatz für Hermitesche Matrizen). Sei A ∈ Matn×n (C) eine Hermitesche Matrix. Dann gilt
(1) Alle Eigenwerte von A sind reelle.
(2) Cn hat eine ON-Basis von Eigenvektoren von A.
(3) Es gibt eine unitäre Matrix U so dass U † AU ist diagonal mit reellen Einträge.
[19.06.17]
Korollar. (Spektralsatz für symmetrische Matrizen) Sei A ∈ Matn×n (R) eine symmetrische
Matrix. Dann gilt
(1) A hat n reelle Eigenwerte (wenn man mit Vielfach rechnen).
(2) Rn hat eine ON-Basis von Eigenvektoren von A.
(3) Es gibt eine orthogonale Matrix P so dass P t AP ist diagonal.
Satz 3.7 (Spektralsatz für unitäre Matrizen). Sei A ∈ Matn×n (C) eine unitäre Matrix. Dann
gilt
(1) Alle Eigenwerte von A haben Betrag 1.
(2) Cn hat eine ON-Basis von Eigenvektoren von A.
(3) Es gibt eine unitäre Matrix U so dass U † AU ist diagonal mit Einträge vom Betrag 1.
3.6. Orthogonale Projektion.
Satz 3.8. Sei (V, h−, −i) ein K-Vektorraum mit Skalarprodukt, v ∈ V und U ⊂ V ein Untervektorraum (mit K = R oder K = C). Für u ∈ U ist äquivalent:
(1) v − u ∈ U ⊥
(2) d(v, U ) := min{d(v, u0 ) : u0 ∈ U } = d(v, u).
Ferner gibt es ein u ∈ U mit (1) und (2) genau dann, wenn v ∈ U + U ⊥ . In diesem Fall ist u
eindeutig.
Definition. Sei (V, h−, −i) ein K-Vektorraum mit Skalarprodukt, v ∈ V und U ⊂ V ein Untervektorraum. Die lineare Abbilung πU : U ⊕ U ⊥ → U mit πU (u + u0 ) := u heißt die orthogonale
Projektion.
Korollar. Sei (V, h−, −i) ein K-Vektorraum mit Skalarprodukt und U ⊂ V ein Untervektorraum. Die orthogonale Projektion πU : U ⊕ U ⊥ → U erfüllt für alle v ∈ U ⊕ U ⊥
(1) πU (v) ist gleich dem Element u ∈ U mit minimalem Abstand zu v, d.h.
d(v, u) ≤ d(v, u0 )
für alle u0 ∈ U.
(2) ||πU (v)|| ≤ ||v|| mit Gleichheit genau dann, wenn v ∈ U (d.h. πU (v) = v).
Bemerkung. Sei (V, h−, −i) ein endlichdimensionaler K-Vektorraum mit Skalarprodukt und
U ⊂ V ein Untervektorraum.
(1) Es gilt V = U + U ⊥ = U ⊕ U ⊥ . Daher ist die orthogonale Projektion auf U eine
Abbildung πU : V → U .
LINEARE ALGEBRA II: LEHRPLAN
27
(2) Es gilt U = (U ⊥ )⊥ .
P
(3) Wenn u1 , . . . , un eine ON-Basis von U ist, gilt πU (v) = nj=1 huj , vi · uj für alle v ∈ V .
3.7. Adjungierte Abbildungen. In diesem Abschnitt sei K = R oder C und wir betrachen
endlichdimensionale K-Vektorräume mit Skalarprodukten.
Lemma (von Riesz). Sei V ein endlichdimensionaler K-Vektorraum mit Skalarprodukt h−, −i.
Für f ∈ V ∗ := HomK (V, K) gibt es einen eindeutig bestimmten Vektor v ∈ V mit f (−) = h−, vi
als Elemente von V ∗ .
Satz 3.9. Seien (V, h−, −iV ) und (W, h−, −iW ) endlichdimensionale K-Vektorräume mit Skalarprodukten. Für f ∈ HomK (V, W ) gibt es eine eindeutige lineare Abbildung f ad ∈ HomK (W, V )
mit
hf (v), wiW = hv, f ad (w)iV
für alle v ∈ V, w ∈ W.
ad
Wir nennen f die zu f adjungierte Abbildung. Wenn A = (v1 , . . . , vn ) eine ON-Basis von V
ist, dann gilt für alle w ∈ W
n
X
ad
(3)
f (w) =
hf (vj ), wiW · vj .
j=1
Wenn zusätzlich B = (w1 , . . . , wm ) eine ON-Basis von W ist, dann gilt
B ad
MA
(f ) = MBA (f )† .
Korollar. Für f : V → W eine lineare Abbildung zwischen endlichdimensionalen K-Vektorräum- [21.06.17]
en und die adjungierte Abbildung f ad : W → V gilt auch
hw, f (v)iW = hf ad (w), viV
für alle v ∈ V, w ∈ W
Korollar. Sei V ein endlichdimensionaler K-Vektorraum mit Skalarprodukt h−, −i. Für f ∈
EndK (V ) ist äquivalent
(1) f ist orthogonal falls K = R (bzw. f ist unitär falls K = C),
(2) f ist invertierbar mit f −1 = f ad .
Bemerkung. Seien (U, h−, −iU ), (V, h−, −iV ) und (W, h−, −iW ) drei endlichdimensionale KVektorräume mit Skalarprodukten. Für f, fi ∈ HomK (U, V ) und g ∈ HomK (V, W ) und λi ∈ K
gelten:
(1) (λ1 · f1 + λ2 · f2 )ad = λ1 f1ad + λ2 f2ad ,
(2) (g ◦ f )ad = f ad ◦ g ad ,
(3) (IdV )ad = IdV ,
(4) (f ad )ad = f .
Satz 3.10. Seien (V, h−, −iV ) und (W, h−, −iW ) endlichdimensionale K-Vektorräume mit Skalarprodukten. Für f ∈ HomK (V, W ) gilt
(1) ker(f ) = Bild(f ad )⊥
(2) ker(f ad ) = Bild(f )⊥
Korollar. Seien (V, h−, −iV ) und (W, h−, −iW ) endlichdimensionale K-Vektorräume mit Skalarprodukten. Für f ∈ HomK (V, W ) gilt
(1) f ist genau dann injektiv, wenn f ad surjektiv ist.
(2) f ist genau dann surjektiv, wenn f ad injektiv ist.
(3) f ist genau dann bijektiv, wenn f ad bijektiv ist.
28
VICTORIA HOSKINS
Definition. Sei V ein endlichdimensionaler K-Vektorraum mit Skalarprodukt und f ∈ EndK (V ).
(1) f heißt selbstadjungiert, falls f = f ad .
(2) f heißt antiselbstadjungiert, falls f = −f ad .
(3) f heißt normal, falls f ◦ f ad = f ad ◦ f .
A (f ) gilt
Bemerkung. Wenn A eine ON-Basis von V ist und A = MA
(1) f ist selbstadjungiert ⇐⇒ A† = A
(2) f ist antiselbstadjungiert ⇐⇒ A† = −A.
(3) f ist normal ⇐⇒ AA† = A† A.
Beispiel. Für einen Untervektorraum U eines endlichdimensionalen K-Vektorraumes V (mit
Skalarprodukt) ist die orthogonale Projektion πU : V → U selbstadjungiert: Sei (v1 , . . . , vr ) eine
ON-Basis von U , dann können wir diese ON-Basis auf einer ON-Basis A = (v1 , . . . , vn ) von V
erweitern, so dass
Ir 0
A
MA (πU ) =
.
0 0
Satz 3.11. Sei V ein endlichdimensionaler K-Vektorraum mit Skalarprodukt h−, −i und f ∈
EndK (V ) normal. Dann gilt für jede λ ∈ K
Eig(f, λ) = Eig(f ad , λ))
und Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal aufeinander. Insbesondere gilt
ker(f ) = Eig(f, 0) = ker(f ad ) = Bild(f ad )⊥ = Bild(f )⊥ .
Satz 3.12 (Spektralsatz für normale Abbildungen). Sei V ein endlichdimensionaler K-Vektorraum
mit Skalarprodukt h−, −i und f ∈ EndK (V ). Dann ist äquivalent
(1) f ist normal und das charakteristische Polynom χf (t) zerfällt vollständig in Linearfaktoren,
(2) V ist die orthogonale Summe der Eigenräume von f ,
(3) Es existiert eine ON-Basis von V aus Eigenvektoren von f .
[26.06.17]
Korollar. Eine Matrix A ∈ Matn×n (C) ist genau dann normal (d.h. A† A = AA† ), wenn es gibt
eine unitäre Matrix U ∈ U(n) mit U † AU diagonal.
3.8. Anwendung in der Geometrie: Affine reelle Quadriken. Sei K ein Körper mit
Char(K) 6= 2. Bald werden wir annehmen, dass K = R.
Definition. Ein quadratisches Polynom in n Unbestimmten x = (x1 , · · · , xn ) über K ist ein
Ausdruck der Form
n
X
X
bj xj + c
Q(x1 , . . . , xn ) =
ajk xj xk +
j=1
j≤k
mit ajk , bj und c ∈ K. Die affine Quadrik Z(Q) ⊂
K n,
die durch Q definiert wird, ist die Menge
Z(Q) = {x ∈ K n : Q(x) = 0} ⊂ K n .
Im Fall n = 2 nennt man eine affine Quadrik Z(Q) ⊂ K 2 auch einen Kegelschnitt.
Beispiel. Sei K = R und n = 2. Dann sind die folgende Beispiele Kugelschnitte (d.h. die
entsprechende affine Quadriken kann als Durchschnitt eines Kugels in R3 mit einer (affinen)
Ebene E ∼
= R2 beschreiben werden):
(1) Q(x, y) = x2 + y 2 − 1 mit Z(Q) ⊂ R2 ein Kreis.
(2) Q(x, y) = x2 + 2y 2 − 1 mit Z(Q) ⊂ R2 eine Ellipse.
(3) Q(x, y) = x2 − y mit Z(Q) ⊂ R2 eine Parabel.
(4) Q(x, y) = xy − 1 mit Z(Q) ⊂ R2 eine Hyperbel.
LINEARE ALGEBRA II: LEHRPLAN
29
(5) Q(x, y) = x2 + y 2 + 1 mit Z(Q) = ∅ ⊂ R2 die leere Menge.
Bemerkung. Wir können ein quadratisches Polynom
n
X
X
Q(x1 , . . . , xn ) =
ajk xj xk +
bj xj + c
j=1
j≤k
xt Ax
schreiben als Q(x) =

a11 a212 · · ·
.
 a12
 2 a22 . .
A :=  .
..
..
 ..
.
.
an1
·
·
·
·
·
·
2
+
bt x
a1n
2

..
.
..
.
ann
+ c mit


Sym
 ∈ Matn×n (K),




b=

b1
b2
..
.






, x = 


bn
x1
x2
..
.



 ∈ Matn×1 (K).

xn
Man kann Q durch eine einzige Matrix à drücken: Q(x1 , . . . , xn ) = x̃t Ãx̃ mit


1
 x1 
c bt /2


à :=
∈ MatSym
(K)
und
x̃
:=
 ..  ∈ Mat(n+1)×1 (K).
(n+1)×(n+1)
b/2 A
 . 
xn
Definition. Seien Q und Q0 zwei quadratische Polynome in n Unbestimmten x1 , · · · , xn über
K = R. Dann heißen Q und Q0
(1) affin (algebraisch) äquivalent, wenn es S ∈ GLn (R) und v ∈ Rn gibt mit Q0 (x) =
Q(Sx + v).
(2) kartesisch (algebraisch) äquivalent, wenn es S ∈ O(n) und v ∈ Rn gibt mit Q0 (x) =
Q(Sx + v).
Beispiel. Für n = 2 betrachten wir Q(x1 , x2 ) = x21 + 4x22 + 2x1 − 8x2 + 1. Wir können diese
Polynom schreiben als
Q(x1 , x2 ) = (x1 + 1)2 + 4(x2 − 1)2 − 4.
Durch die Translation
x1
y1
x1 + 1
1
7→
:=
= I2 x +
x2
y2
x2 − 1
−1
wird Z(Q) zur Ellipse Z(Q0 ) = {y ∈ R2 : y12 + 4y22 = 4}. Deshalb sind Q(x) und Q0 (x) :=
x21 + 4x22 − 4 zueinander kartesisch äquivalent.
Satz 3.13 (Normalformen für reelle Quadriken). Sei Q(x) = xt Ax + bt x + c ein quadratisches
Polynom in x = (x1 , . . . , xn )t mit A ∈ MatSym
n×n (R), b ∈ Matn×1 (R) und c ∈ R. Dann ist Q zu
einer der folgenden Normalformen kartesisch äquivalent:
Typ 1. P (x) = d1 x21 + · · · dr x2r ,
Typ 2. P (x) = d1 x21 + · · · dr x2r + e mit e 6= 0,
Typ 3. P (x) = d1 x21 + · · · dr x2r + exr+1 mit e > 0.
Jeweils mit 0 ≤ r ≤ n und di 6= 0. Dabei ist r = Rang(A) und d1 , . . . , dr sind die nicht-Null
Eigenwerte von A (mit Vielfach). Ferner gilt
(1) Zwei Normalformen sind genau dann äquivalent, wenn sie zum selben Typ (d.h. Typ
1,2,3) gehören, die Zahlen d1 , . . . , dr bis auf Permutation die-selben sind und die Zahlen
e übereinstimmen.
(2) Wenn man Q als Q(x) = x̃t Ãx̃ schreiben mit x̃t = (1, x1 , . . . , xn ), dann gilt
Q hat Typ j ⇐⇒ Rang(Ã) − Rang(A) = j − 1.
30
VICTORIA HOSKINS
Bemerkung.
a) Eine orthogonale Matrix S ∈ O(n) definiert eine Abbildung FS : Rn → Rn mit FS (x) =
Sx, so dass hFS (x), FS (y)i = hx, yi für alle x, y ∈ Rn . Insbesdondere erhält FS Distanzen:
p
d(FS (x), FS (y)) = ||FS (x) − FS (y)|| = ||FS (x − y)|| = hFS (x − y), FS (x − y)i
p
= hx − y, x − yi = d(x, y).
Eine Translation T : Rn → Rn (d.h. eine Abbildung der Form x 7→ x + v für einen
festen Vektor v ∈ Rn ) erhält Distanzen auch. Eine Koordinatentransformation der Form
x 7→ Sx + v mit S ∈ O(n) und v ∈ Rn erhält Distanzen. Wenn Q und Q0 kartesische
äquivalent quadratische Polynome sind, dann gibt es eine Koordinatentransformation der
Form x 7→ Sx + v mit S ∈ O(n) und v ∈ Rn , die die Quadrik Z(Q) zu der Quadrik Z(Q0 )
nimmt. Eine Abbildung Rn → Rn , die Distanzen erhält, heißt Isometrie.10
b) Es gibt 4 Schritte, um ein quadratisches Polynom in Normalform zu schreiben:
Schritt 1: orthogonale Diagonalisierung.
Schritt 2: quadratische Ergäzung.
Schritt 3: lineare Terme kombinieren.
Schritt 4: Translation.
Die Koordinatentransformationen in den Schritte 1 und 3 sind orthogonale Transformationen und die Koordinatentransformationen in den Schritte 2 und 4 sind Translationen.
Beispiel. Für
Q(x1 , x2 ) = 5x21 + 5x22 + 8x1 x2 − 1.
wollen wir eine Normalform finden. Der erste Schritt ist die orthogonale Diagonalisierung der
symmetrischen Matrix
5 4
A :=
,
4 5
d.h. wir müssen eine orthonormale Basis von R2 von Eigenvektoren von A finden (eine solche
Basis existiert nach dem Spektralsatz für symmetrische Matrizen). Es gilt χA (t) = t2 −10t+9 =
(t − 1)(t − 9) und deshalb sind 1 und 9 die Eigenwerte von A mit Eigenräume
1
1
Eig(A, 1) = Span
und Eig(A, 9) = Span
.
−1
1
Deshalb ist
(
A :=
v1 :=
√1
2
−1
√
2
!
, v2 :=
√1
2
√1
2
!)
eine ON-Basis von R2 von Eigenvektoren und T := (v1 |v2 ) ∈ O(2) mit T t AT = D := diag(1, 9).
Sei S = T t so dass A = S t DS und
Q(x) = xt Ax − 1 = xt S t DSx − 1 = (Sx)t D(Sx) − 1.
Dann Q(x) ist kartesisch äquivalent zu Q0 (x) := xt Dx − 1, da Q0 (Sx) = Q(x) (oder Q0 (x) =
Q(T x)). Das quadrisches Polynom Q0 ist schon in Normalform, deshalb müssen wir keine Translation machen. Die Quadrik Z(Q0 ) = {x : x21 + 9x22 = 1} ⊂ R2 ist eine Ellipse. Die orthogonale
Matrix T ist eine Drehung durch π/4 und deshalb ist Z(Q) die Drehung von Z(Q0 ) durch π/4.
Korollar. Jedes reelle quadratische Polynom Q in x1 , . . . , xn ist genau zu einer der folgenden
Normalformen affin (algebraisch) äquivalent:
Typ 1. P (x) = x21 + · · · x2k − x2k+1 · · · − x2r mit 0 ≤ k ≤ r ≤ n,
Typ 2. P (x) = x21 + · · · x2k − x2k+1 · · · − x2r + e mit 0 ≤ k ≤ r ≤ n und e 6= 0,
Typ 3. P (x) = x21 + · · · x2k − x2k+1 · · · − x2r − xr+1 mit 0 ≤ k ≤ r ≤ n,
10z.B. siehe den Kurs ‘Elementare Geometrie’.
LINEARE ALGEBRA II: LEHRPLAN
31
wobei r = Rang(A) und sign(A) = k − (r − k) = 2k − r.
Beispiel. Für n = 2 können wir alle Quadriken
Q(x) = x̃t Ãx̃ = xt Ax + bt x + c
klassifizieren (bis auf affinen Äquivalenz): seien r = Rang(A), r̃ = Rang(Ã) und s = sign(A),
s̃ = sign(Ã) und k = (sign(A) + Rang(A))/2. Dann haben wir die folgende Tabelle:
r
2
2
2
2
2
1
1
1
1
0
0
0
r̃
2
2
3
3
3
1
2
2
3
0
1
2
s s̃ k k̃ Typ Polynom Q(x, y) (in NF)
Quadrik Z(Q) ⊂ R2
2
2
2 2 2 2
I
x +y
Punkt
0 0 1 1
I
x2 − y 2
2 sich schneidende Geraden
2 1 2 0 II
x2 + y 2 − 1
Ellipse
2
2
0 1 1 1 II
x −y +1
Hyperbel
2 3 2 3 II
x2 + y 2 + 1
∅
1 1 1 1
I
x2
Doppelte Gerade
1 0 1 1 II
x2 − 1
2 parallele Geraden
1 2 1 2 II
x2 + 1
∅
1 -1 1 1 III
x2 − y
Parabel
0 0 0 0
I
0
R2
0 1 0 1 II
1
∅
0 2 0 2 III
x
Gerade
4. Ringe und Moduln
4.1. Unterringe und Ideale. Zur Erinnerung: Ein Ring ist eine Menge R mit zwei Verknüpfungen + : R × R → R und · : R × R → R so dass, (R, ·) eine abelsche Gruppe ist
mit neutralem Element 0R , die Multiplikation · assoziativ ist, die Distributivgesetze gelten. Der
Ring R heißt
• kommutativ, falls die Multipliktation kommutativ ist (d.h. r1 · r2 = r2 · r1 für alle
r1 , r2 ∈ R).
• Ring mit Eins, falls die Multiplikation ein Neutralelement 1R ∈ R hat (d.h. r · 1R = r =
1R · r für alle r ∈ R).
Beispiele
(Z, +, ·) ist ein kommutativer Ring mit 1.
Zn mit der modularen Addition und Multiplikation ist ein kommutativer Ring mit 1.
Jeder Körper ist ein kommutativer Ring mit 1.
Für einen Körper K ist die Menge aller Polynome K[t] ein kommutativer Ring mit 1.
Matn×n (K) ist ein Ring mit 1 (die Einheitsmatrix). Matn×n (K) ist genau dann kommuativ, wenn n = 1.
(6) Für einen Vektorraum V über einem Körper K ist die Menge aller linearen Endomorphismen EndK (V ) ein Ring mit Eins, wobei die Multiplikation die Komposition ist. Das
neutralelement für die Multiplikation ist die Identität IdV : V → V . Im allgemeinen ist
EndK (V ) nicht kommutativ, da f ◦ g 6= g ◦ f .
(7) Der Nullring {0} ist ein kommutativer Ring mit Eins mit 0 = 1. Wenn R 6= {0} ein Ring
mit Eins ist, dann gilt 1 6= 0 (Für a ∈ R \ {0} gilt 1 · a = a 6= 0 = 0 · a, also folgt 1 6= 0).
(1)
(2)
(3)
(4)
(5)
Definition. Eine Abbildung ϕ : R → S zwischen Ringen (R, +R , ·R ) und (S, +S , ·S ) ist ein
Ringhomomorphismus, wenn für alle r1 , r2 ∈ R
(1) ϕ(r1 +R r2 ) = ϕ(r1 ) +S ϕ(r2 ),
(2) ϕ(r1 ·R r2 ) = ϕ(r1 ) ·S ϕ(r2 ).
(3) (Falls R und S Ringe mit Eins sind) ϕ(1R ) = ϕ(1S ).
[03.07.17]
32
VICTORIA HOSKINS
Ein bijektiver Ringhomomorphismus heißt Ringisomorphismus.
Beispiel.
(1) Die Identität IdR : R → R ist ein Ringhomomorphismus.
(2) Wenn ϕ : Z → Z ein Ring homomorphismus ist, dann ist ϕ(1) = 1. Es folgt, dass
ϕ(r) = r (nach Induktion).
(3) Die Abbildung ϕ : Z → Zn mit x 7→ x mod n ist ein Ringhomomorphismus.
(4) Die Abbildung ϕ : C → Mat2×2 (R) mit
a b
ϕ(a + ib) =
−b a
ist ein Ringhomorphismus.
Bemerkung. Für einen Ringhomomorphismus ϕ : R → S gilt
(1) ϕ(0R ) = ϕ(0S ) (nach dem ersten Axiom),
(2) ϕ(−r) = −ϕ(r) für r ∈ R (nach dem ersten Axiom),
(3) Die dritte Bedingung ϕ(1R ) = ϕ(1S ) folgt nicht aus den anderen Axiomen (z.B. Seien
R = {0} und S = Z, dann gelten die erste und zweite Bedingungen für die Nullabbildung
ϕ : R → S, aber ϕ(1R ) = ϕ(0R ) = 0Z 6= 1Z ).
(4) ϕ ist genau dann injektiv, wenn ker(ϕ) = {0R } (nach dem ersten Axiom),
(5) Wenn ϕ bijektiv ist, dann ist ϕ−1 : S → R auch ein Ringhomomorphismus.
Definition. Sei (R, +, ·) ein Ring.
a) Ein Unterring von R ist eine Teilmenge S ⊂ R, so dass S mit der Einschränkung der
Addition und Multipliktation von R ein Ring ist. Wenn R ein Ring mit Eins ist, soll ein
Unterring S auch das neutralelement 1R erhalten.
b) Ein Ideal von R ist eine Teilmenge I ⊂ R, so dass (I1) -(I2) gelten:
(I1) I ist eine Untergruppe von (R, +),
(I2) Für i ∈ I und r ∈ R gilt r · i ∈ I und i · r ∈ I.
Ein Unterring S ⊂ R (bzw. Ideal I ⊂ R) heißt echt wenn S 6= R (bzw. I 6= R).
Bemerkung.
(1) Eine Teilmenge S eines Rings R (mit Eins) ist genau dann ein Unterring, wenn S unter
die Subtraktion − und die Multiplikation · abgeschlossen ist (und 1 ∈ S).
(2) Wenn R kommutativ ist, dann ist (I2) äquivalent zu
(I2’) ∀i ∈ I, r ∈ R : r · i ∈ I.
Für einen nicht kommutativen Ring R gibt es Begriffe von Linksideale und Rechtsideale
(aber in dieser Einführung werden wir nicht diese Begriffe benutzen).
(3) Ein Ideal ist eine Untergruppe von (R, +), die unter Links- und Rechtsmultiplikation
von Elemente aus R abgeschlossen ist. Insbesondere ist I unter − und · abgeschlossen
ist (also für Ringe ohne Eins ist jedes Ideal ein Unterring).
Übung. Sei R 6= {0} ein kommutativer Ring mit Eins. Beweisen Sie, dass R genau dann ein
Körper ist, wenn die einzigen Ideale (von R) genau {0R } und R sind.
Beispiel.
(1) R und {0R } sind immer Ideale von R. Wenn R 6= {0} ein Ring mit Eins ist, dann ist
{0R } kein Unterring von R.
(2) Sei I ein Ideal von R. Wenn 1 ∈ I, folgt I = R.
(3) Der Ring R = Z hat keine echten Unterringe: die Untergruppen von (Z, +) sind genau
die Teilmengen nZ für n ∈ N, aber 1 ∈ nZ genau dann, wenn n = 1. Allerdings sind die
LINEARE ALGEBRA II: LEHRPLAN
33
Untergruppen nZ Ideale: für r ∈ Z und na ∈ nZ gilt
r · na = n(ra) ∈ nZ.
(4) Die Teilmenge Z des Rings (Q, +, 0) ist ein Unterring aber kein Ideal: 1 ∈ Z und
/ Z).
aber 12 · 1 ∈
1
2
∈ Q,
Übung. Sei R ein kommutativer Ring mit Eins. Beweisen Sie, dass jedes Ideal I von Matn×n (R)
die Form I = Matn×n (J) für ein eindeutig bestimmtes Ideal J von R hat.
Satz 4.1. Sei ϕ : R → S ein Ringhomomorphismus. Dann gilt
(1) Das Bild von ϕ ist ein Unterrring von S.
(2) Für einen Unterring R0 ⊂ R ist ϕ(R0 ) ein Unterring von S.
(3) Der Kern ker(ϕ) ist ein Ideal von R.
(4) Für ein Ideal J ⊂ S ist das Urbild ϕ−1 (J) ein Ideal von R.
Beispiel.
(1) Für den Ringhomomorphismus ϕ : Z → Zn mit x 7→ x mod n ist
ker(ϕ) = {a ∈ Z : a ≡ 0
mod n} = nZ.
und Bild(ϕ) = Zn .
(2) Sei K ein Körper und λ ∈ K. Dann ist die Abbildung ϕ : K[t] → K mit
ϕ(P (t)) = P (λ)
ein surjetiver Ringhomomorphismus mit
ker(ϕ) = {P (t) ∈ K[t] : P (λ) = 0} = {P (t) ∈ K[t] : (t − λ)|P (t)} = (t − λ)K[t].
Satz 4.2. Sei I ein Ideal eines Rings R. Dann gilt
(1) Die Menge R/I := {r + I : r ∈ R} ist ein Ring mit den folgenden Addition und
Multiplikation:
(r + I) + (r0 + I) := r + r0 + I
(r + I) · (r0 + I) = r · r0 + I
und das Nullelement is 0R + I = I.
(2) Wenn R kommutativ ist (bzw. ein Ring mit Eins ist), dann ist R/I kommutativ (bzw.
ein Ring mit Eins).
(3) Die Abbildung π : R → R/I, die durch r 7→ r + I definiert wird, ist ein surjektiver
Ringhomomorphismus mit ker(π) = I.
(4) Die Abbildung
α : {Ideale J von R/I} → {Ideale M von R mit I ⊂ M }
J
7
→
π −1 (J)
ist bijektiv mit der Umkehrfunktion M 7→ π(M ).
Beispiel. Für R = Z und I = nZ mit n ∈ N ist Z/nZ = {x + nZ : x ∈ Z} ∼
= Zn . Die Ideale von
Z/nZ sind genau die Mengen
π(mZ) = {x + nZ : x ∈ mZ}
für m|n. Insbesondere ist Zp ein Körper für eine Primzahl p.
Satz 4.3. (Homomorphiesatz für Ringe) Sei ϕ : R → S ein Ringhomomorphismus. Dann gibt
es einen Ringisomorphismus
ϕ̃ : R/ ker(ϕ) → ϕ(R)
mit ϕ̃ ◦ π = ϕ, wobei π : R → R/ ker(ϕ) der natürliche surjektive Ringhomomorphismus ist.
[05.07.17]
34
VICTORIA HOSKINS
Definition. Sei R ein kommutativer11 Ring.
(1) Für r ∈ R definieren wir das von r erzeugte Ideal
(r) = rR := {r · s : s ∈ R}.
Ideale von R der Form (r) werden Hauptideale genannat.
(2) Für eine Teilmenge A ⊂ R definieren wir das von A erzeugte Ideal
n
X
(A) = {
ri ai : n ∈ N, ri ∈ R, ai ∈ A}.
i=1
Übung. Der Durchschnitt einer Familie von Idealen eines Rings R ist ein Ideal. Für eine
Teilmenge A eines kommutativen Rings R die Menge (A) ist eine Ideal von R und es gilt
\
(A) =
J,
A⊂J⊂R
J Ideal
und (A) ist das kleinste Ideal in R, das A enthält.
Beispiel.
(1) Für einen kommutativen Ring mit Eins ist (1R ) = R.
(2) Für R = Z ist (n) = nZ.
Definition. Für zwei Ideale I und J eines kommutativen Rings R definieren wir
a) I + J := {i + j : i ∈ I, j ∈ J} und
b) I · J := (IJ) = ({i · j : i ∈ I, j ∈ J}).
Lemma. Für zwei Ideale I und J eines kommutativen Rings R sind I + J und I · J Ideale von
R. Es gilt I + J = (I ∪ J) und I · J ⊂ I ∩ J.
[10.07.17]
Übung. Für R = Z und n, m ∈ Z beweisen Sie
a) (m) + (n) = (ggT(n, m)),
b) (m) · (n) = (mn),
c) (m) ∩ (n) = (kgV(n, m)),
d) (m) ⊂ (n) ⇐⇒ n|m,
e) (n) + (m) = Z ⇐⇒ (n) · (m) = (n) ∩ (m).
4.2. Chinesischer Restsatz. In diesem Abschnitt ist R ein kommutativer Ring mit Eins.
Definition Zwei Ideale I und J eines Rings R heißen relativ prim, wenn I + J = R.
Lemma. Seien I1 , · · · In Ideale eines kommutativen Rings R mit Eins, so dass Ij und Ik relativ
prim für 1 ≤ j < k ≤ n sind. Dann gilt
n
Y
k=1
Ik =
n
\
Ik .
k=1
Bemerkung Seien I1 , · · · In Ideale eines kommutativen Rings R mit Eins. Dann gibt es surjektive Ringhomomorphismen πk : R → R/Ik , mit πk (a) = a + Ik für 1 ≤ k ≤ n. Das kartesische
Produkt R/I1 × · · · × R/In hat die Struktur eines kommutativen Rings mit Eins, wobei für
? = + und ? = ·
(a1 + I1 , . . . , an + In ) ? (b1 + I1 , . . . , bn + In ) := (a1 ? b1 + I1 , . . . , an ? bn + In ).
11Die Definition für nicht kommutative Ringe ist ein bisschen mehr kompliziert
LINEARE ALGEBRA II: LEHRPLAN
35
Die Abbildung
ϕ: R →
R/I1 × · · · R/In
r 7→ (r + I1 , · · · , r + In )
ist ein Ringhomomorphismus mit ker(ϕ) := {r ∈ R : r + Ik = Ik für 1 ≤ k ≤ n} = ∩nk=1 Ik .
Deshalb ist die Abbildung
ϕ̃ : R/ ∩nk=1 Ik → R/I1 × · · · R/In
ein injektiver Ringhomomorphismus.
Satz 4.4 (Chinesischer Restsatz). Seien I1 , · · · In Ideale eines kommutativen Rings R mit Eins,
so dass Ij und Ik relativ prim für 1 ≤ j < k ≤ n sind. Dann gibt es einen Ringisomorphismus
ϕ̃ : R/
n
Y
Ik → R/I1 × · · · R/In
k=1
mn
1
Korollar Sei a = pm
1 · · · pn die Primzerlegung einer ganzen Zahl a ∈ Z. Dann gilt
Z/(a) ∼
= Z/(pm1 ) × · · · × Z/(pmn ).
1
n
k
Für b1 , · · · , bn ∈ Z gibt es b ∈ Z mit b ≡ bk mod pm
k für 1 ≤ k ≤ n und die Zahl b ist eindeutig
m1
n
modulo a = p1 · · · pm
n .
Bemerkung Seien r1 , · · · , rn ganze Zahlen mit ggT(ri , rj ) = 1 für alle i 6= j. Für Zahlen
b1 , · · · , bn ∈ Z hat die Gleichungen


 x ≡ b1 mod r1
..
.


xn ≡ bn mod rn
Q
eine eindeutig bestimmte
Lösung x modulo ni=1 ri . Um eine solche Lösung konkret zu konQ
struieren, sei pk := i6=k ri für 1 ≤ k ≤ n. Wegen ggT(pk , rk ) = 1 gibt es Zahlen sk , tk ∈ Z
mit
sk pk + tk rk = 1
d.h. sk pk ≡ 1 mod rk und für i 6= k gilt es sk pk ≡ 0 mod ri , da ri |pk . Dann ist
n
X
bk sk pk
x=
k=1
eine Lösung.
4.3. Maximale Ideale und Primideale. In der kommutativen Algebra sind maximale Ideale
und Primideale sehr wichtig.
Definition. Sei R ein Ring. Ein echtes Ideal I von R heißt
(1) maximal, wenn es für jedes Ideal J von R mit I ⊂ J gilt J = I oder J = R.
(2) Primideal, wenn es für alle a, b ∈ R gilt: a · b ∈ I =⇒ a ∈ I oder b ∈ I.
Übung. Sei R ein kommutativer Ring mit Eins. Dann ist R genau dann ein Körper, wenn {0R }
ein maximales Ideal von R ist.
Beispiel. Die Primideale von Z sind die Ideale pZ für Primzahlen p ∈ Z und 0Z und die maximale Ideale sind die Ideale pZ für Primzahlen p.
Definition. Ein kommuativer Ring R mit Eins heißt Integritätsbereich, wenn R keine Nullteiler
(außer der Null) besitzt, d. h. wenn fuür alle a, b ∈ R gilt: ab = 0 =⇒ a = 0 oder b = 0.
Beispiel.
(1) Jeder Körper ist ein Integritätsbereich.
36
VICTORIA HOSKINS
(2) Z4 ist kein Integritätsbereich, da 2 · 2 = 0 mod 4 aber 2 6= 0 mod 4.
Satz 4.5. Sei R ein kommutativer Ring mit Eins und I ⊂ R ein Ideal. Dann gilt
(1) I ist genau dann ein maximales Ideal, wenn R/I ein Körper ist
(2) I ist genau dann ein primes Ideal, wenn R/I ein Integritätsbereich ist
Korollar. Jedes maximale Ideal I eines kommutativen Rings R mit Eins ist ein Primideal.
Übung.
(1) Beweisen Sie, dass es einen Isomorphismus Z[x]/(x−1) → Z gibt und jedes Ideal I ⊂ Z[x]
mit x − 1 ∈ I die Form I = (n, x − 1) für eine Zahl n ∈ N hat.
(2) Beweisen Sie, dass es einen Isomorphismus Z[x]/(n, x − 1) → Z/(n) gibt.
4.4. Moduln. Zur Erinnerung: Ein Vektorraum über einem Körper K ist eine abelsche Gruppe
(V, +) mit einer Skalarmultiplikation · : K × V → V so dass i) λ · (µ · v) = (λ · µ) · v für alle
v ∈ V und µ, λ ∈ K und ii) 1K · v = v für alle v ∈ V und iii) die Distributivegesetze gelten.
Definition. Sei R ein Ring mit Eins. Ein R-(Links)modul ist eine abelsche Gruppe (M, +) mit
einer Abbildung
· : R × M → M,
die Skalarmultiplikation genannt wird, so dass für a, b ∈ R und m, n ∈ M gilt
i) a · (b · m) = (ab) · m,
ii) 1R · m = m,
iii) Die Distributivegesetze: (a + b) · m = a · m + b · m und a · (m + n) = a · m + a · n.
Beispiel.
(1) Sei R = K ein Körper. Dann sind K-Moduln genau die K-Vektorräume.
(2) Jede abelsche Gruppe (G, +) ist ein Z-Modul mit Skalarmultiplikation · : Z × G → G

wenn n > 0
 g + · · · + g (n mal)
0G
wenn n = 0
n · g :=

(−g) + · · · + (−g) (n mal) wenn n > 0
Umgekehrt ist jeder Z-Modul eine abelsche Gruppe nach die Axiome oben. Zum Beispiel
sind die abelsche Gruppen (Z/nZ, +) Moduln über Z.
(3) Sei V ein endlichdimensionaler Vektorraum über einem Körper K und f ∈ EndK (V ).
Dann ist V ein K[t]-Modul mit der Skalarmultiplikation K[t] × V → V
P (t) · v := P (f )(v).
(4) Ein Ideal eines Ring R ist ein Modul, wobei die Skalarmultiplikation R × I → I die
Einschränkung der Multiplikation auf R ist.
(5) Für einen R-Modul M ist ein Untermodul eine Teilmenge N ⊂ M , die eine Untergruppe
von (M, +) ist, so dass r · n ∈ N für alle r ∈ R und n ∈ N . Jeder Untermodul ist auch
ein R-Modul.
Übung. Sei R ein Ring und (Ni )i∈I eine Familie von Untermoduln eines R-Moduls M . Dann
ist auch der Durchschnitt ∩i∈I Ni ein Untermodul von M .
Definition. Seien M und N zwei R-Moduln. Eine Abbildung ϕ : N → M heißt Homomorphismus von R-Moduln (oder R-linear), wenn
(1) ϕ(n1 + n2 ) = ϕ(n1 ) + ϕ(n2 ) für alle n1 , n2 ∈ N
(2) ϕ(r · n) = r · ϕ(n) für alle n ∈ N und r ∈ R.
LINEARE ALGEBRA II: LEHRPLAN
37
Der Kern von ϕ ist ker(ϕ) = {n ∈ N : ϕ(n) = 0M } und das Bild ist Bild(ϕ) := ϕ(N ) ⊂ M . Der
Cokern ist Coker(ϕ) := M/ Bild(ϕ) = M/ϕ(N ).12
Beispiel. Sei R = Z und N = M = Z. Dann ist ϕ : Z → Z mit ϕ(m) = n · m ein Homomorphismus von Z-Moduln (aber kein Ringhomomorphismus) mit
ker(ϕ) = {0}
und
Bild(ϕ) = nZ und
Coker(ϕ) = Z/nZ.
Satz 4.6. Sei M ein R-Modul und N ⊂ M ein Untermodul. Dann gilt
(1) Die Quotientengruppe M/N := {m + N : m ∈ M } mit der Skalarmultiplikation
r · (m + N ) := rm + N
für r ∈ R und m + N ∈ M/N bildet einen R-Modul.
(2) Die Abbildung π : M → M/N mit π(m) := m + N ist ein surjektiver R-ModulHomomorphismus mit ker(π) = N .
Satz 4.7. (Homomorphiesatz für Moduln) Sei ϕ : N → M ein Homomorphismus von RModuln. Dann gilt
(1) ker(ϕ) := {n ∈ N : ϕ(n) = 0} ist ein Untermodul von N .
(2) Bild(ϕ) ist ein Untermodul von M .
(3) Coker(ϕ) hat die Struktur eines R-Moduls, so dass M → Coker(ϕ) ein Homomorphismus von R-Moduln ist.
(4) Es gibt einen Isomorphismus von R-Moduln ϕ̃ : N/ ker(ϕ) → Bild(ϕ) so dass ϕ̃ ◦ π = ϕ
für π : N → N/ ker(ϕ).
4.5. Basen. Jeder K-Vektorraum hat eine Basis (sogar unendlichdimensionale Vektorräume,
wenn wir das Axiom der Wahl annehmen). Diese Eigenschaft gilt jedoch nicht für Moduln: Es
gibt viele Moduln, die keine Basis haben. Dieser Unterschied ist der erste große Unterschied
zwischen Vektorräumen und Moduln.
Definition. Sei M ein Modul über einem Ring R und A ⊂ M eine Teilmenge. Der von A
erzeugte Untermodul hAi von M ist der kleinste Untermodul von M , der A enthält, d.h.
\
hAi =
N.
A⊂N ⊂M
N Untermodul
Die Teilmenge A heißt Erzeugendensystem von M , wenn hAi = M . Wenn A endlich ist mit
hAi = M , dann heißt M endlich erzeugt.
Bemerkung. Es gilt
( n
)
X
hAi =
ri ai : n ∈ N, ri ∈ R und ai ∈ A .
i=1
Beispiel.
(1) Für einen Körper K, einen K-Vektorraum V und A ⊂ V gilt
hAi = Span(A).
(2) Sei R = Z und M = Z/nZ. Dann ist 1 + mZ ein Erzeugendensystem von M .
(3) Sei R = Z. Das Element 2 + 4Z ∈ Z/4Z erzeugt den Untermodul h2 + 4Zi = {0 +
4Z, 2 + 4Z} von Z/4Z. Dieser Untermodul ist eine Untergruppe von Z/4Z, die isomorph
zu Z/2Z ist.
Definition. Sei M ein R-Modul und (mi )i∈I eine Familie von Elementen von M .
12Nach den Sätzes 4.6 und 4.7 sind der Kern, das Bild und der Cokern alle R-Moduln.
38
VICTORIA HOSKINS
(1) Die Familie (mi )i∈I heißt linear unabhängig, wenn für jede endliche Teilmenge J ⊂ I
gilt
X
rj mj = 0 mit rj ∈ R =⇒ rj = 0 für alle j ∈ J.
j∈J
(2) Die Familie (mi )i∈I heißt Erzeugendensystem von M, wenn h{mi : i ∈ I}i = M .
(3) Eine Basis von M ist eine lineare unabhängig Familie (mi )i∈I von Element von M , die
M erzeugt.
(4) M heißt frei, wenn M eine Basis besitzt.
Beispiel.
(1) Rn ist ein freier R-Modul mit Basis A = {e1 , . . . , en }, wobei ei = (0, . . . , 0, 1, 0, . . . , 0)
mit der 1 an i-ter Stelle.
(2) Sei K ein Körper. Jeder K-Vektorraum ist ein freier K-Moduln.
(3) Nicht jeder R-Modul ist frei: Sei R = Z und M = Z/nZ. Für m = a + nZ ∈ M gilt
n · m = n · a + nZ = 0 + nZ. Daher ist die Menge {m} linear abhängig.
Satz 4.8. Sei A := {m1 , . . . , mn } eine endliche geordnete Teilmenge eines R-Modul M . Dann
gibt es einen Homomorphismus von R-Moduln
ϕA :
Rn
→ P M
n
(r1 , . . . , rn ) 7→
i=1 ri · mi .
Ferner gilt
i) A ist genau dann ein Erzeugendensystem von M , wenn ϕA surjektiv ist.
ii) A ist genau dann linear unabhängig, wenn ϕA injektiv ist.
iii) A ist genau dann eine Basis von M , wenn ϕA bijektiv ist.
Wenn M ein endlich erzeugter freier R-Modul ist, dann gibt es n ∈ N mit M ∼
= Rn .
Literatur
• S. Bosch, Lineare Algebra, 4. Auflage, Springer-Verlag, 2008.
• G. Fischer, Lineare Algebra: Eine Einführung fr Studienanfänger (vieweg studium;
Grundkurs Mathematik),2013.
• W. Klingenberg, Lineare Algebra und Geometrie, Springer-Verlag, 1984.
• S. Lang, Introduction to linear algebra, Second edition, Springer, 1986.
• S. Lang, Linear Algebra, Third edition, Springer, 1987.
• J. Liesen und V. Mehrmann, Lineare Algebra, Vieweg, 2011.
Freie Universität Berlin, Arnimallee 3, Raum 011, 14195 Berlin, Germany
[email protected]
Herunterladen