Grundbegriffe aus der Vorlesung Lineare Algebra I+II

Werbung
Grundbegriffe aus der Vorlesung Lineare Algebra I+II
30. Juli 2009
Eine Gruppe ist ein Paar (G, ∗) bestehend aus einer Menge G und einer Verknüpfung
∗ : G × G → G, (a, b) 7→ a ∗ b, mit:
1. (a ∗ b) ∗ c = a ∗ (b ∗ c)
2. ∃ e ∈ G :
e∗a=a
(Assoziativität)
für alle a ∈ G
(Existenz des neutralen Elements)
3. ∀ a ∈ G ∃ a−1 ∈ G : a−1 ∗ a = e
(Existenz des Inversen)
Die Gruppe heisst abelsch oder kommutativ, falls für alle a, b ∈ G :
a ∗ b = b ∗ a.
Eine Abbildung f : G → H zwischen zwei Gruppen (G, ∗G ) und (H, ∗H ) heisst Gruppenhomomorphismus falls für alle a, b ∈ G gilt: f (a ∗G b) = f (a) ∗H f (b). Der Kern von f ,
bezeichnet mit ker(f ), ist definiert als die Menge aller Elemente aus G, die unter f auf eH
abgebildet werden.
Ein Ring ist ein Tripel (R, +, ·) bestehend aus einer Menge R und zwei Verknüpfungen +, ·
mit:
1. (R, +) ist eine abelsche Gruppe
2. (u · v) · w = u · (v · w)
∀ u, v, w ∈ R
3. u · (v + w) = u · v + u · w
∀ u, v, w ∈ R
4. (u + v) · w = u · w + v · w
∀ u, v, w ∈ R
Ein Ring R heisst nullteilerfrei falls für alle a, b ∈ R mit a · b = 0 immer a = 0 oder b = 0
folgt.
Ein Körper ist ein Ring (K, +, ·), für den (K \ {0}, ·) eine abelsche Gruppe ist.
Ein Vektorraum über einem Körper K (auch: K-Vektorraum) ist eine abelsche Gruppe
(V, +) zusammen mit einer Abbildung · : K × V → V, (λ, v) 7→ λ · v (der skalaren
Multiplikation), für die folgende Eigenschaften erfüllt sind:
1
1. ∀λ ∈ K, u, v ∈ V :
λ · (u + v) = λ · u + λ · v
2. ∀λ, µ ∈ K, u ∈ V :
(λ + µ) · v = λ · v + µ · v,
(λµ) · v = λ(µ · v),
1·v =v
Sei V ein K-Vektorraum. Eine Teilmenge W ⊂ V heisst Untervektorraum von V (kurz:
Unterraum), falls
1. 0 ∈ W,
2. ∀ v, w ∈ W :
v + w ∈ W,
3. ∀ v ∈ W, λ ∈ K :
λ·v ∈W
Bedingung (1) ist äquivalent zu: W 6= ∅. Ein Unterraum heisst echt falls er von den trivialen
Unterräumen V und {0} verschieden ist.
Sei V ein K-Vektorraum und v1 , . . . , vm ∈ V . Ein Vektor w ∈ V der Form
w = λ 1 v1 + . . . + λ m vm ,
λ1 , . . . λm ∈ K
heisst Linearkombination der Vektoren v1 , . . . , vm .
Sei V ein K-Vektorraum und sei U ⊂ V eine beliebige Teilmenge. Dann ist die lineare
Hülle von U in V ( auch: der von U aufgespannte Raum ) definiert als
spanK (U ) := {v ∈ V | v ist Linearkombination von Vektoren aus U}
Seien v1 , . . . , vm ∈ V dann ist die lineare Hülle des m-Tupels (v1 , . . . , vm ) definiert als
spanK (v1 , . . . , vm ) := {λ1 v1 + . . . + λm vm | λ1 , . . . , λm ∈ K}
Die lineare Hülle spanK (U ) ist der kleinste Unterraum, der die Menge U enthält.
Sei V ein K-Vektorraum. Vektoren v1 , . . . , vm ∈ V heissen linear unabhängig falls
λ1 v1 + . . . + λm vm = 0 mit λ1 , . . . , λm ∈ K
⇒
λ1 = . . . = λm = 0
D.h. eine Linearkombination der Vektoren v1 , . . . , vm ist genau dann der Nullvektor, falls
alle Koeffizienten Null sind.
Eine Menge M ⊂ V heisst linear unabhängig, falls jede endliche Teilmenge von Vektoren
{v1 , . . . , vm } ⊂ M linear unabhängig ist. Dazu äquivalent sind: kein Vektor v ∈ M ist
Linearkombination von Vektoren aus M \ {v} bzw. jeder Vektor aus spanK (M ) lässt sich
eindeutig als Linearkombination von Vektoren aus M schreiben.
Sei V ein K-Vektorraum und M ⊂ V .
2
1. M heisst Erzeugendensystem falls:
spanK (M ) = V
2. M heisst Basis von V , falls M ein linear unabhängiges Erzeugendensystem ist.
Äquivalente Beschreibungen sind: eine Basis M ist ein minimales Erzeugendensystem, d.h.
für alle v ∈ M ist M \ {v} kein Erzeugendensystem und eine Basis ist eine maximale linear
unabhängige Menge, d.h für alle v ∈ V \ M ist M ∪ {v} linear abhängig.
Jeder Vektorraum besitzt eine Basis.
Die kanonische Basis (auch: Standardbasis) des Vektorraumes V = K n ist definiert als
B = {e1 , . . . , en } mit ei = (0, . . . , 0, 1, 0, . . . , 0), mit der Eins an der i-ten Stelle.
Ein K-Vektorraum V heisst endlich erzeugt, falls es ein endliches Erzeugendensystem von
V gibt, d.h. es existiert eine Menge M = {v1 , . . . , vm } mit V = spanK (M ).
Basisauswahlsatz: Sei M ⊂ V ein endliches Erzeugendensystem von V , dann existiert eine
Teilmenge B ⊂ M , die eine Basis von V ist.
Ein K-Vektorraum V heisst n-dimensional, dimK V = n, falls er eine Basis mit n Vektoren
besitzt. Anderenfalls nennt man V unendlich-dimensional, dimK V = ∞.
Sei V ein K-Vektorraum mit Unterräumen W1 , . . . , Wr ⊂ V . Die Summe der Unterräume
W1 , . . . , Wr ist definiert als
W1 + . . . + Wr := { v = w1 + . . . + wr ∈ V | wi ∈ Wi , i = 1, . . . , r } .
Ein K-Vektorraum V heisst direkte Summe seiner Unterräume W1 , W2 ⊂ V falls
V = W1 + W2
und
W1 ∩ W2 = {0} .
Die zweite Bedingung ist dazu äquivalent, dass die Zerlegung v = w1 + w2 eindeutig ist.
Sei V ein K-Vektorraum mit einem Unterraum W ⊂ V . Ein Komplement von W in V ,
auch direkter Summand von V zu W , ist ein Unterraum W 0 ⊂ V mit
V = W ⊕ W0 .
Jeder Unterraum besitzt ein Komplement. Dieses ist nicht eindeutig bestimmt.
Eine Abbildung F : V → W zwischen zwei K-Vektorräumen V und W heisst K-linear, falls
für alle u, v ∈ V und λ ∈ K gilt:
F (u + v) = F (u) + F (v)
und
3
F (λu) = λ F (u) .
Eine bijektive lineare Abbildung heisst Isomorphismus. In diesem Fall heissen die Vektorräume V und W zueinander isomorph, man schreibt: V ∼
= W . Eine lineare Abbildung
F : V → V heisst Endomorphismus von V und ein Isomorphismus F : V → V heisst
Automorphismus von V .
Eine lineare Abbildung ist eindeutig festgelegt durch ihren Wert auf den Vektoren einer
fixierten Basis.
Sei F : V → W eine K-lineare Abbildung. Man definiert
1. Kern von F
ker F = {v ∈ V | F (v) = 0}
2. Bild von F
ImF = {F (v) | v ∈ V }
3. Rang von F
rang(F ) = dim Im(F )
Kern und Bild von F sind Unterräume in V bzw. W . Eine lineare Abbildung F : V → W
ist injektiv gdw. ker F = {0} und surjektiv gdw. im F = W . Gilt dim V = dim W < ∞,
dann ist F surjektiv gdw F injektiv ist. Die lineare Abbildung F ist ein Isomorphismus gdw.
F Basen von V in Basen von W überführt.
Die Dimensionsformel für lineare Abbildungen besagt:
dim V = dim ker F + dim im F .
Eine Projektion ist eine lineare Abbildung P : V → V mit P 2 = P .
Zu jeder Aufspaltung V = U ⊕ W gehören zwei Projektionen (die Projektionen auf die
Summanden) und zu jeder Projektion P gehört eine Aufspaltung V = U ⊕ W mit U = ker P
und W = im P .
HomK (V, W ) := { F : V → W | K − linear }
Raum der K-linearen Abbildungen (Vektorraum)
EndK (V ) := HomK (V, V ) = { F : V → V | K − linear }
Raum der Endomorphismen von V (Endomorphismenring, sogar K-Algebra)
AutK (V ) := GL(V ) = { F : V → V | Isomorphismen }
Raum der K-linearen Isomorphismen (allgemeine lineare Gruppe)
Sei K ein Körper. Eine K-Algebra ist ein Ring R mit Eins, der gleichzeitig ein KVektorraum ist, so dass zusätzlich für alle f, g ∈ R und λ ∈ K gilt:
λ(g · f ) = (λg) · f = g · (λf ) .
4
Das Zentrum einer Gruppe G ist die Untergruppe definiert als:
Zent(G) := { f ∈ G | g · f = f · g ∀ g ∈ G} .
Das Zentrum der Gruppe GL(V ) besteht aus den Abbildungen λ IdV , für beliebige λ ∈ K.
Sei V ein K-Vektorraum. Der Dualraum V ∗ von V ist definiert als
V ∗ := HomK (V, K) = { λ : V → K | K − linear } .
Vektoren im Dualraum V ∗ nennt man Linearformen oder auch lineare Funktionale.
Sei F : V → W eine K-lineare Abbildung. Die zu F duale Abbildung F ∗ : W ∗ → V ∗ ist
für λ ∈ W ∗ und v ∈ V definiert als:
F ∗ (λ)(v) = λ(F v) .
Eine m × n-Matrix über K, oder mit Koeffizienten in K, ist eine Anordnung von n · mSkalaren aij , i = 1, . . . , m, j = 1, . . . , n in einem rechteckigem Schema, mit n Spalten und
m Zeilen. Man schreibt A = (aij ). Die Menge aller m × n-Matrizen bezeichnet man mit
M (m × n, K).
Sei F : K n → K m eine K-lineare Abbildung. Die darstellende Matrix zu F ist die
eindeutig bestimmte Matrix A = M (F ) ∈ M (m × n, K) mit F (x) = A · x, wobei x ∈ K n als
Spaltenvektor geschrieben ist und A·x die Matrixmultiplikation von A und x bezeichnet. Die
Spalten
von M (F ) sind die Bilder der kanonischen Basisvektoren ej unter F , d.h. F (ej ) =
Pm
i=1 aij ei , j = 1, . . . , n. Dabei bezeichnen die ej die Vektoren der kanonischen Basis von
Rn und auch der von Rm .
Sei F : V → W eine K-lineare Abbildung. Zwischen zwei K-Vektorräumen V, W mit Basen
A = {v1 , . . . , vn } in V und B = {w1 , . . . , wm } in W . Die darstellende Matrix zu F ,
bzgl. der Basen
und B ist die Matrix A = MBA (F ) ∈ M (m × n, K) eindeutig definiert
PA
m
durch F (vj ) = i=1 aij wi , j = 1, . . . , n. Die Spalten von M (F ) sind die Bilder unter F der
Basisvektoren vj ausgedrückt als Linearkombination in den Vektoren wi . In den Spalten von
M (F ) stehen also die Koeffizienten dieser Linearkombinationen.
5
Sei V ein K-Vektorraum mit einer Basis A = {v1 , . . . , vn }. Dann ist der kanonische Basisisomorphismus definiert als
ΦA : K n −→ V,
(x1 , . . . , xn ) 7→ x1 v1 + . . . + xn vn ,
d.h. ΦA (ei ) = vi , i = 1, . . . , n, dabei bezeichnet {ei } die kanonische Basis von K n . Man
sagt auch: durch ΦA ist auf V ein Koordinatensystem definiert und bezeichnet ΦA auch als
Koordinatenisomorphismus.
Der Rang einer Matrix A ∈ M (m × n, K) ist definiert als der Rang der zugehörigen linearen Abbildung F : K n → K m , x 7→ A · x oder äquivalent als die Dimension des von den
Spaltenvektoren von A in K m aufgespannten Unterraumes.
Eine Matrix A ∈ M (n×n, K) heißt invertierbar genau dann, wenn die zugehörigen linearen
Abbildung F : K n → K n , x 7→ A · x ein Isomorphismus ist, oder äquivalent dazu, wenn eine
Matrix A−1 ∈ M (n × n, K) existiert mit
A−1 · A = A · A−1 = En
wobei En die n × n-Einheitsmatrix bezeichnet, dh. En = (aij ) mit aij = δij . Die Matrix A−1
ist eindeutig bestimmt und heißt die zu A inverse Matrix.
Die Menge der invertierbaren Matrizen bildet die allgemeine lineare Gruppe, für diese schreibt
man:
GL(n, K) = {A ∈ M (n × n, K) | A invertierbar}
Sei V ein K-Vektorraum mit einer Basis A = {v1 , . . . , vn }. Dann ist die duale Basis eine
Basis A∗ = {v1∗ , . . . , vn∗ } von V ∗ , definiert durch
vi∗ (vj ) := δij .
Sei U ⊂ V ein Unterraum. Dann ist der Annullator von U ein Unterraum U 0 ⊂ V ∗ definiert
durch:
U 0 = {λ ∈ V ∗ | λ(u) = 0 ∀ u ∈ U } .
Sei A ∈ M (m × n, K) eine m × n-Matrix. Dann ist die zu A = (aij ) transponierte Matrix
AT definiert durch:
AT = (bij )
mit
bij = aj i
6
d.h. man erhält die Matrix AT durch ”Spiegelung” von A an der Diagonalen. Eine Matrix
A heißt symmetrisch falls A = AT , schiefsymmetrisch falls A = −AT , hermitesch
falls A = ĀT und schiefhermitesch falls A = −ĀT . Symmetrische Matrizen mit rellen
Einträgen sind insbesondere hermitesch.
Die transponierte Matrix AT ist die Matrix der zur Abbildung F : K n → K m mit F (x) =
A · x gehörenden dualen Abbildung F ∗ : (K m )∗ ∼
= K n bzgl. der dualen
= K m → (K n )∗ ∼
n ∗
kanonischen Basis in (K ) .
Für eine Matrix A ∈ M (m × n, K) ist der Spaltenrang die Dimension des von den Spalten
von A in K m aufgespannten Unterraumes. Der Zeilenrang ist die Dimension des von den
Zeilen von A aufgespannten Unterraumes in K n . Spalten- und Zeilenrang stimmen mit dem
Rang überein.
Sei V ein K-Vektorraum mit Basen A und B. Die Transformationsmatrix des Basiswechsels
von der Basis A zur Basis B ist definiert als: TBA = Φ−1
B ◦ ΦA .
Zwei Matrizen A, B ∈ M (m × n, K) heissen äquivalent, wenn es zwei Matrizen S ∈
GL(m, K) und T ∈ GL(n, K) gibt mit: B = S · A · T −1 .
Zwei quadratische Matrizen A, B ∈ M (n × n, K) heissen ähnlich, wenn es eine Matrix
T ∈ GL(n, K) gibt mit B = T · A · T −1 .
Sei V ein K-Vektorraum. Ein affiner Unterraum von V (kurz: affiner Raum) ist eine
Teilmenge der Form:
X = v0 + W = {v0 + w | w ∈ W }
wobei W ⊂ V ein Unterraum und v0 ∈ V ist. Die Dimension eines affinen Raumes X ist
die Dimension des zugehörigen Unterraumes W . Eine affine Abbildung ist eine Abbildung
f : V → W mit f (v) = F (v) + w0 für eine lineare Abbildung F : V → W und ein festes
w0 ∈ W .
Sei A ∈ M (m × n, K) und b ∈ Rm gegeben. Dann ist die Gleichung A · x = b ein lineares
Gleichungssystem mit m Gleichungen und n Unbekannten x1 , . . . , xn , die Koordinaten
des Vektors x ∈ K n . Ist b = 0 spricht man von einem homogenen Gleichungssystem. Der
Lösungsraum ist gegeben als
Lös(A, b) = {x ∈ K n | Ax = b}
7
Die Matrix A bezeichnet man als Koeffizientenmatrix des linearen Gleichungssystems Ax = b.
Die erweiterte Koeffizientenmatrix (A, b) erhält man aus A durch Hinzunahme von b als neue
Spalte.
Sei V ein K-Vektorraum. Eine Bilinearform auf V ist eine Abbildung
b : V × V −→ K,
(v, w) 7→ b(v, w)
so dass für alle v, v 0 , w, w0 ∈ V und λ ∈ K gilt
b(v + v 0 , w) =
b(v, w + w0 ) =
b(v, w) + b(v 0 , w),
b(v, w) + b(v, w0 ),
b(λv, w) = λ b(v, w)
b(v, λw) = λ b(v, w)
Eine Bilinearform b : V × V → K heißt symmetrisch falls für alle v, w ∈ V gilt
b(v, w) = b(w, v) .
Eine Bilinearform heißt schiefsymmetrisch oder alternierend falls entsprechend
b(v, w) = − b(w, v) .
Eine Bilinearform heißt positiv definit falls für alle v ∈ V mit v 6= 0 gilt:
b(v, v) > 0 .
Eine Bilinearform b : V × V → K heißt nicht ausgeartet oder regulär, falls sie durch die
Abbildung v 7→ b(·, v) einen Isomorphismus V → V ∗ definiert. Äquivalent dazu ist, dass
kein v0 ∈ V, v0 6= 0 existiert mit
b(v, v0 ) = 0
∀v ∈ V .
Die zu einer Bilinearform b : V × V → K gehörende quadratische Form qb ist definiert
durch
qb : V → K,
qb (v) := b(v, v) .
Sei K ein Körper mit char(K) 6= 2 d.h. 2 6= 0 in K. Dann ist eine Bilinearform b über die
Polarisierungsformel vollständig durch die zugehörige quadratische Form qb bestimmt:
b(v, w) =
1
(qb (v + w) − qb (v) − qb (w)) .
2
Es besteht eine bijektive Beziehung zwischen Bilinearformen und quadratischen Matrizen.
Sei B = (v1 , . . . , vn ) eine Basis von V . Dann ist die darstellende Matrix B = (Bij )
einer Bilinearform b definiert durch Bij = b(vi , vj ). Auf dem K-Vektorraum K n schreibt
sich jede Bilinearform als b(x, y) = xT By, wobei dann B die darstellende Matrix von b ist.
Analog schreibt sich eine Bilinearform auf einem beliebigen Vektorraum unter Benutzung
8
des Koordinatenisomorphismus ΦB : K n → V . Sei B 0 eine darstellende Matrix von b bzgl.
einer weiteren Basis B 0 von V . Dann gilt folgendes Transformationsverhalten: B 0 = S T BS,
wobei S die Transformationsmatrix des Basiswechsels ist. Symmetrische Bilinearformen
haben symmetrische Darstellungsmatrizen. Eine Matrix heißt positiv definit, wenn sie
eine positiv definite Bilinearform definiert. Eine symmetrische Matrix ist positiv definit,
falls alle Eigenwerte oder alle Hauptminoren positiv sind.
Der Satz über die Hauptachsentransformation besagt: Sei V ein reeller Vektorraum mit
einer symmetrischen Bilinearform b : V × V → R. Dann existiert eine Basis w1 , . . . , wn von
V , so dass für die quadratische Form qb zu b gilt:
qb (v) = x21 + . . . + x2r − x2r+1 − . . . − x2r+s
für alle v ∈ V mit v = x1 w1 + . . . + xn wn . Nach dem Trägheitssatz von Sylvester
sind die Zahlen r und s eindeutig durch die Bilinearform b festgelegt. Sie ergeben sich als
maximale Dimension der Unterräume von V auf denen qb für von Null verschiedene Vektoren
positiv bzw negativ ist oder auch als Anzahl der positiven bzw. negativen Eigenwerte der
darstellenden Matrix.
Ein euklidischer Raum ist ein reeller Vektorraum V mit einer symmetrischen, positiv
definiten Bilinearform b : V × V → R. Eine solche Bilinearform b nennt man euklidisches
Skalarprodukt. Man schreibt auch b(·, ·) = h·, ·i. Jede symmetrische positiv definite Matrix
definiert ein euklidisches Skalarprodukt.
Jedes euklidische Skalarprodukt b definiert eine (euklidische) Norm durch
p
kvk =
b(v, v)
und einen Abstand, oder Metrik durch d(v, w) = kv − wk zwischen Vektoren v und w
in V . Das Quadrat der Norm ist die zum Skalarprodukt gehörende quadratische Form.
Sei (V, h·, ·i) ein euklidischer Vektorraum. Zwei Vektoren v, w ∈ V heißen zueinander orthogonal falls hv, wi = 0 gilt. Ein Orthonormalsystem in V ist eine Menge von Vektoren
v1 , v2 , . . . mit hvj , vk i = δjk , d.h. die Vektoren haben die Länge 1 und sind paarweise orthogonal. Eine Orthonormalbasis ist eine Basis von V , die zusätzlich ein Orthonormalsystem
ist. Nach dem Gram-Schmidt-Verfahren besitzt jeder euklidische oder unitäre Vektorraum
eine Orthonormalbasis.
Sei M ⊂ V eine beliebige Teilmenge. Dann ist das orthogonale Komplement von M
definiert durch:
M ⊥ := {v ∈ V | hv, wi = 0 ∀ w ∈ M }
Für eine beliebige Teilmenge M ⊂ V ist M ⊥ ein Untervektorraum von V .
9
Sei U ⊂ V ein Unterraum. Dann gilt V = U ⊕ U ⊥ und die orthogonale Projektion auf
U ist definiert durch
pU : V → U,
pU (v) = u
falls v = u + w mit u ∈ U und w ∈ U ⊥ .
Eine orthogonale Abbildung zwischen zwei euklidischen Vektorräumen (V, h·, ·i)V und
(W, h·, ·i)W ist eine lineare Abbildung F : V → W mit
hF v, F wiW = hv, wiV .
für alle Vektoren v, w ∈ V . Orthogonale Abbildungen F : V → W sind injektiv. Sie sind
bijektiv falls zusätzlich dim V = dim W gilt.
Die orthogonale Gruppe, oder Gruppe der orthogonalen Matrizen ist definiert als
O(n) := {A ∈ M (n × n, R) | A · AT = E} .
Es ist die Gruppe der orthogonalen Abbildungen A : Rn → Rn , die gegeben sind durch Matrizenmultiplikation mit A. Orthogonale Matrizen sind darstellende Matrizen orthogonaler
Endomorphismen bzgl. ONBs. Es gilt A ∈ O(n) genau dann, wenn die Spalten von A eine
ONB bilden. Orthogonale Matrizen haben Determinante ±1. Die Menge der orthogonalen
Matrizen mit Determinante +1 ist eine Untergruppe von O(n): die spezielle orthogonale
Gruppe SO(n).
Sei V ein komplexer Vektorraum. Eine hermitesche Form auf V ist eine Abbildung h :
V × V → C mit folgenden Eigenschaften
h(u + v, w) = h(u, w) + h(v, w),
h(λ v, w) = λ h(v, w),
h(v, w) = h(w, v)
für alle u, v, w ∈ V und λ ∈ C. Eine hermitesche Form ist also linear im ersten und anti-linear
im zweiten Argument, dh. im zweiten Argument gilt
h(u, v + w) = h(u, v) + h(u, w),
h(u, λv) = λ̄ h(u, v) .
für alle u, v, w ∈ W und λ ∈ C. Hermitesche Matrizen (A = ĀT ) sind darstellende Matrizen
für hermitesche Formen bzgl. Orthonormalbasen.
Ein unitärer Vektorraum ist ein komplexer Vektorraum V zusammen mit einer positiv
definiten hermiteschen Form h. Diese nennt man dann unitäres Skalarprodukt auf V .
Positiv definit heißt hier wieder h(v, v) > 0 für alle Vektoren v ∈ V, v 6= 0. Diese Definition
ist sinnvoll, da h(v, v) ∈ R für hermitesche Formen h. Jede positiv-definite hermitesche
Matrix definiert ein unitäres Skalarprodukt.
10
Das kanonische Skalarprodukt auf Cn ist ein unitäres Skalarprodukt auf Cn definiert
durch
hv, wi := v1 w̄1 + . . . + vn w̄n .
Orthogonalität von Vektoren, Orthonormalbasen, orthogonale Projektionen und orthogonale
Komplemente sind analog zu euklidischen Vektorräumen definiert.
Eine lineare Abbildung F : V → W zwischen zwei unitären Vektorräumen V und W heißt
unitär falls für alle Vektoren v, w ∈ V gilt:
hF v, F wi = hv, wi .
Unitäre Abbildungen F : V → W sind injektiv. Sie sind bijektiv falls zusätzlich dim V =
dim W gilt.
Eine Matrix A ∈ M (n×n, C) heißt unitär, falls die durch Matrizenmultiplikation gegebenen
Abbildung A : Cn → Cn bezüglich des kanonischen Skalarproduktes unitär ist. Äquivalent
dazu ist die Bedingung A · ĀT = E. Die unitäre Gruppe U(n) ist die Menge der unitären
Matrizen, d.h.
U(n) := { A ∈ M (n × n, C) | A · Āt = E } .
Unitäre Matrizen sind darstellende Matrizen unitärer Endomorphismen bzgl. ONBs. Es gilt
A ∈ U(n) genau dann, wenn die Spalten von A eine ONB bilden. Die Determinante unitärer
Matrizen ist eine komplexe Zahl der Länge 1, dh. von der Form eit für t ∈ R. Die Menge
der unitären Matrizen mit Determinante 1 ist eine Untergruppe von U(n): die spezielle
unitäre Gruppe SU(n).
Sei V ein K-Vektorraum eine Abbildung D : V × . . .r−mal . . . × V → K heißt (r-fach) multilinear, falls sie in jedem Eintrag linear ist, d.h. falls die Abbildung V → K
vi 7→ D(v1 , . . . , vi , . . . , vr )
für feste Vektoren vk , k 6= i linear ist. Eine multi-lineare Abbildung heißt alternierend falls,
D(v1 , . . . , vr ) = 0 sobald ein Paar (i, j), i 6= j mit vi = vj existiert. Ist V ein Vektorraum
der Charakteristik ungleich zwei, d.h. gilt 1 + 1 6= 0, dann sind alternierende Abbildungen
genau die, die beim Vertauschen zweier Einträge das Vorzeichen wechseln, d.h. wo gilt
D(v1 , . . . , vi , . . . , vj , . . . , vr ) = − D(v1 , . . . , vj , . . . , vi , . . . , vr ) .
Die Menge der r-fach multilinearen und alternierenden Abbildungen auf V wird mit Λr V ∗
bezeichnet und auch Raum der r-Formen genannt. Der Raum der
¡n¢ r-Formen auf einem
n-dimensionalen Vektorraum V ist ein Vektorraum der Dimension r .
11
Die Determinante einer n × n-Matrix ist eine multi-lineare, alternierende Abbildung
det : M (n × n, K) ∼
= K n × . . .n−mal . . . × K n → K ,
die auf der Einheitsmatrix den Wert Eins annimmt. Durch diese drei Bedingungen ist die
Determinante eindeutig festgelegt. Die Determinante interpretiert man hier als multi-lineare
Abbildung auf den Spalten der gegebenen Matrix. Die Existenz der Determinante folgt aus
der Leibniz-Formel bzw. dem Laplace-Entwicklungssatz. Existenz und Eindeutigkeit der Determinante ist äquivalent dazu, dass der Raum der n-Formen auf Rn ein-dimensional ist.
Die symmetrische Gruppe Sn ist die Gruppe der bijektiven Abbildungen der Menge
{1, . . . , n}. Die Gruppenelemente der symmetrischen Gruppe nennt man Permutationen.
Permutationen, die genau zwei Elemente vertauschen und die restlichen Elemente festlassen
heißen Transpositionen. Das Signum einer Permutation σ ∈ Sn ist definiert als
sign σ := (−1)a(σ) ,
wobei a(σ) die Anzahl der Fehlstände ist, d.h. die Anzahl der Paare (i, j) mit i < j und σ(i) >
σ(j). Permutation mit Signum +1 heißen gerade, die mit Signum -1 heißen ungerade.
Jede Permutation schreibt sich als Verknüpfung von Transpositionen. In dieser Darstellung
ist nur die Parität (gerade oder ungerade) der Anzahl der benötigten Transpositionen eindeutig bestimmt. Die geraden Permutationen bilden eine Untergruppe von Sn . Das Signum
ist ein Gruppenhomomorphismus sign : Sn → Z2 . Das Signum berechnet sich auch nach der
Formel
Y σ(j) − σ(i)
sign σ =
.
j−i
i<j
Die Leibniz-Formel gibt folgende Vorschrift zur Berechnung der Determinante einer Matrix
A = (aij ) ∈ M (n × n, K):
X
det A =
sign σ aσ(1)1 · . . . · aσ(n)n .
σ∈Sn
Hieraus folgt sofort det A = det AT für beliebige quadratische Matrizen A.
Der Laplace-Entwicklungssatz gibt folgende Vorschrift zur Berechnung der Determinante
einer Matrix A = (aij ) ∈ M (n × n, K):
det A =
n
X
(−1)i+j aij det Aij ,
i=1
12
wobei Aij ∈ M ((n − 1) × (n − 1), K) die Matrix ist, die man aus A durch das Streichen der
iten Zeile und jten Spalte erhält. Summation über i bzw. über j ergibt die Entwicklung nach
der jten Spalte bzw. nach der iten Zeile.
Sei A ∈ M (n × n, K) die zu A komplementäre Matrix à ist definiert durch
à = (ãij )
mit
ãij = (−1)i+j det Aji .
Die 1. Cramersche Regel besagt A · Ã = Ã · A = det A E, wobei E die Einheitsmatrix
bezeichnet. Die 2. Cramersche Regel besagt, dass sich der Lösungsvektor x des linearen
Gleichungssystems Ax = b berechnet als x = det1 A Ã · b. Insbesondere ist die ite Komponente
von à · b die Determinante der Matrix, die aus A hervorgeht, in dem man die ite Spalte
durch den Vektor b ersetzt.
Sei V ein n-dimensionaler K-Vektorraum und sei F ∈ End V . Dann ist die Determinante
des Endomorphismus F definiert als der Skalar det F in folgender Gleichung:
F ∗ D = det F D
für ein beliebiges D ∈ Λn V ∗ . Der Skalar det F ist wohldefiniert, da Λn V ∗ eindimensional
ist. Äquivalent dazu ist die Determinante eines Endomorphismus F ∈ End V definiert als
die Determinante einer darstellenden Matrix von F . Dies ist wohldefiniert, da sich die
Determinante von darstellenden Matrizen zu verschiedenen Basen nicht unterscheiden.
Der Determinanten Multiplikationssatz ist die Formel det A · B = det A · det B, für
beliebige Matrizen A, B ∈ M (n × n, K). Die analoge Aussage gilt für die Derminante der
Verknüpfung zweier Endomorphismen. Insbesondere folgt det A−1 = det1 A .
Die spezielle lineare Gruppe ist definiert als SL(n, K) = {A ∈ M (n × n, K) | det A = 1}.
Die spezielle lineare Gruppe ist eine Untergruppe der allgemeinen linearen Gruppe GL(n, K).
Analog zur speziellen linearen Gruppe sind die spezielle orthogonale Gruppe und die spezielle
unitäre Gruppe definiert.
Der Raum der r-Formen Λr V ∗ besitzt eine Algebrenstruktur, dh. man hat ein Produkt von
r-Formen: Sei ω ∈ Λr V ∗ und η ∈ Λs V ∗ , dann ist das Dachprodukt ω ∧ η eine (r+s)-Form
definiert durch:
1 X
ω ∧ η(v1 , . . . , vr+s ) :=
sign σ ω(vσ(1) , . . . , vσ(r) ) η(vσ(r+1) , . . . , vσ(r+s) ) .
r!s! σ∈S
r+s
Als äußere Algebra bezeichnet man den Raum aller Formen (mit dem Dachprodukt), d.h.
Λ V ∗ := Λ0 V ∗ ⊕ . . . ⊕ Λn V ∗ .
13
Sei F : V → W eine lineare Abbildung, dann ist das Zurückziehen von k-Formen bzw. die
pull-back-Abbildung F ∗ : Λk W ∗ → Λk V ∗ definiert durch
(F ∗ ω)(v1 , . . . , vk ) := ω(F v1 , . . . , F vk )
für ω ∈ Λk W ∗ und v1 , . . . , vk ∈ V .
Sei A ∈ M (m × n, K) und k ≤ min{m, n} eine k-reihige Teilmatrix A0 ∈ M (k × k, K)
entsteht aus A durch Streichen von m − k Zeilen und n − k Spalten. In diesem Fall nennt
man det A0 eine Unterdeterminante oder auch k-reihiger Minor.
Die Hauptminoren einer Matrix A sind die Determinanten, der quadratischen Teilmatrizen
in der oberen linken Ecke von A.
Sei A ∈ M (n×l, K), für 1 ≤ i1 < . . . < il ≤ n bezeichne Ai1 ,...,il ∈ M (l×l, K) die Matrix, die
aus den Zeilen i1 , . . . , il von A besteht. Die Gramsche Determinante von A ist definiert
als G(A) = det(AT A), sie berechnet sich als
X
G(A) =
(det Ai1 ,...,il )2 .
i1 <...<il
Sei V ein reeller Vektorraum. Dann nennt man zwei Basen gleichorientiert, falls der Basiswechselisomorphismus eine positive Determinante hat. Seien A = {v1 , . . . , vn } und B =
{w1 , . . . , wn } zwei Basen von V . Dann ist der Basiswechselisomorphismus F definiert durch
F vi = wi für i = 1, . . . , n.
Die Eigenschaft gleichorientiert zu sein definiert eine Äquivalenzrelation auf der Menge der
Basen von V . Man hat genau zwei Äquivalenzklassen. Eine Orientierung auf V ist eine
Äquivalenzklassen gleichorientierter Basen von V . Die Basen der fixierten Orientierung nennt
man positiv orientiert die anderen entsprechend negativ orientiert.
Der Raum Rn hat eine kanonische Orientierung. Das ist die Äquivalenzklassen in der die
kanonische Basis liegt.
Die Orientierung auf einem n-dimensionalen Vektorraum V kann festgelegt werden durch die
Wahl einer Volumenform, d.h. einer von Null verschiedenen n-Form, also
ω ∈ Λn V ∗ \ {0}
Die Menge der Basen von Rn kann identifiziert werden mit der Menge der invertierbaren
Matrizen GL(n, R). Entsprechend hat man folgende disjunkte Zerlegung:
GL(n, R) = GL+ ∪ GL−
mit GL± = {A ∈ M (n × n, R)| det A = ±}. Dabei entspricht GL+ der kanonischen Orientierung.
14
Zwei Basen A, B von Rn heißen stetig ineinander deformierbar, falls die entsprechenden
Matrizen A, B ∈ GL(n, R) verbindbar sind, d.h. falls in GL(n, R) ein stetiger Weg von A
nach B existiert. Das ist äquivalent dazu, daß die Basen gleichorientiert sind.
Sei V ein K-Vektorraum und sei F ∈ End V . Ein λ ∈ K heißt Eigenwert von F , falls es
einen Vektor v ∈ V mit v 6= 0 gibt, für den F v = λ v gilt. In diesem Fall nennt man v
einen Eigenvektor von F zum Eigenwert λ.
Ein F ∈ End V heißt diagonalisierbar wenn es eine Basis aus Eigenvektoren gibt. Das ist
genau dann der Fall, wenn es eine Basis B von V gibt, für die die darstellende Matrix MB (F )
eine Diagonalmatrix ist.
Eine Matrix A ∈ M (n × n, K) heißt diagonalisierbar, falls die entsprechende Abbildung
A : K n → K n , x 7→ Ax diagonalisierbar ist, oder falls ein S ∈ GL(n, K) existiert, so daß
SAS −1 eine Diagonalmatrix ist.
Sei F ∈ End V und λ ∈ K. Dann ist der Eigenraum von F zum Eigenwert λ definiert als
Eig (F, λ) := { v ∈ V | F v = λ v } .
D.h. Eig (F, λ) ist die Menge der Eigenvektoren von F zum Eigenwert λ, zusammen mit
dem Nullvektor.
Sei F ∈ End V das charakteristische Polynom von F ist definiert durch:
PF (x) := det (F − x IdV )
Eine Zahl λ ist genau dann Nullstelle des charakteristischen Polynoms von F , wenn λ ein
Eigenwert von F ist. Es gilt PF (0) = det F , ausserdem ist PF ein Polynom nten Grades,
falls V n-dimensional ist. Sei A die darstellende Matrix von F bzgl. irgendeiner Basis von
V , dann gilt
PF (x) = PA (x) := det (A − x E) ,
wobei E die Einheitsmatrix bezeichnet. Zueinander ähnliche Matrizen haben das gleiche
charakteristische Polynom.
Sei K ein Körper und x eine Unbestimmte. Ein Polynom über K ist ein Ausdruck der
Gestalt:
p = a0 + a1 x + . . . + an xn .
Die Zahlen a0 , . . . , an heißen Koeffizienten des Polynoms. Sind alle Koeffizienten gleich Null,
so spricht man vom Nullpolynom, p = 0. Ist p nicht das Nullpolynom, so definiert man den
Grad von p durch
deg(p) := max { i | ai 6= 0 } .
15
Ein Polynom vom Grad n mit an = 1 heißt normiert. “Unbestimmte” x soll hier einfach
einen Buchstaben bezeichnen, für den man z.B. Zahlen aus K einsetzen kann.
Der Raum der Polynome über K ist ein Ring, den man als den Polynomring über K bezeichnet, man schreibt K[x]. Man kann Polynome also nach den üblichen Regeln addieren und
multiplizieren, wie für ganze Zahlen hat man auch eine Polynomdivision mit Rest.
Jedes Polynom p ∈ K[x] definiert eine Abbildung p̃ : K → K (polynomiale Funktion) durch:
p̃(λ) = a0 + a1 λ + . . . + an λn . Die Zuordnung p 7→ p̃ definiert den Auswertungshomomorphismus K[x] → Abb(K, K). Für Körper K mit unendlich vielen Elementen ist dieser
injektiv, d.h. man kann dann p und p̃ identifizieren.
Eine Zahl λ ∈ K heißt Nullstelle von p ∈ K[x] falls p(λ) = 0. Genauer müßte man p̃(λ) = 0
schreiben.
Unter dem Abspalten von Linearfaktoren versteht man folgende Aussage. Sei p ∈ K[x]
und sei λ ∈ K eine Nullstelle von p. Dann existiert ein eindeutig bestimmtes Polynom
q ∈ K[x] mit deg(q) = deg(p) − 1 und p = (x − λ)q. Man sagt von p wurde der Linearfaktor
(x − λ) abgespalten. Sei p ∈ K[x], p 6= 0. Für λ ∈ K heißt
µ(P, λ) := max { r ∈ N | p = (x − λ)r q, q ∈ K[x] }
die Vielfachheit der Nullstelle λ von p. Man sagt ein Polynom p ∈ K[x] zerfällt in Linearfaktoren, falls es sich in folgender Form schreiben läßt:
p = a (x − λ1 )r1 · . . . · (x − λk )rk
mit a ∈ K. Man spricht dann von einer Linearfaktorzerlegung von p.
Der Fundamentalsatz der Algebra besagt, daß jedes nicht konstante Polynom über C
mindestens eine Nullstelle besitzt. Damit besitzt jedes nicht konstante komplexe Polynom
eine Linearfaktorzerlegung.
Der Wurzelsatz von Vieta besagt, daß sich für ein beliebiges normiertes Polynom p =
a0 + a1 x + . . . + an−1 xn−1 + xn , mit Nullstellen λ1 , . . . , λn (die nicht paarweise verschieden
sein müssen), die Koeffizienten ak sich folgendermaßen berechnen lassen:
ak = (−1)n−k sn−k (λ1 , . . . , λn ) .
Dabei sind sk die elementarsymmetrischen Funktionen, definiert durch
X
sr (t1 , . . . , tn ) :=
ti1 · . . . · tir .
i1 <...<ir
16
Seien P1 , P2 ∈ K[x] zwei Polynome mit P1 , P2 6= 0 und deg P2 ≤ deg P1 , dann ist der
Euklidische Algorithmus eine Folge von Polynom-Divisionen mit Rest: P1 = Q1 P2 +
P3 , P2 = Q2 P3 + P4 , . . . , Pn−1 = Qn−1 Pn , wobei immer deg Pk+1 ≤ deg Pk . Es gilt: Pn ist der
größte gemeinsame Teiler von P1 und P2 . Es existieren Polynome P, Q mit Pn = P P1 + QP2 .
Sei F ∈ End V mit charakteristische Polynom PF . Die algebraische Vielfachheit des
Eigenwertes λ ist definiert als die Vielfachheit der Nullstelle λ von PF . Man schreibt
µalg (F, λ) = µ(PF , λ)
Zerfällt das charakteristische Polynom PF in Linearfaktoren, d.h. hat man
PF = ± (x − λ1 )r1 · . . . · (x − λk )rk ,
wobei die λi , mit i = 1, . . . , k die paarweise verschiedenen Nullstellen von PF seien, dann ist
µalg (F, λi ) = ri .
Die geometrische Vielfachheit des Eigenwertes λ ist definiert als Dimension des Eigenraumes zum Eigenwert λ. Man schreibt
µgeom (F, λ) = dim Eig(F, λ) .
Es gilt immer µgeom (F, λ) ≤ µalg (F, λ). Ein Endomorphismus F ist genau dann diagonalisierbar, wenn sein charakteristisches Polynom in Linearfaktoren zerfällt und algebraische
gleich geometrischer Vielfachheit ist.
Zwei Endomorphismen F, G ∈ End V heißen simultan diagonalisierbar falls V eine Basis
aus Vektoren besitzt, die gleichzeitig Eigenvektoren von F und von G sind. Dies ist genau
dann erfüllt, wenn F und G kommutieren, dh. wenn F ◦ G = G ◦ F gilt.
Sei V ein K-Vektorraum und F : V → V sei K-linear, d.h. ein Endomorphismus von V .
Ein Unterraum W ⊂ V heißt F-invariant, falls:
F (W ) ⊂ W ,
d.h. F (w) ∈ W
für alle w ∈ W .
Der Nullvektorraum {0} und der ganze Vektorraum V sind triviale invariante Unterräume,
d.h. sie sind für jedes F ∈ End V invariant.
Sei F ∈ End V und sei dim V = n, dann definiert man:
17
(i) Eine Fahne in V ist ein Tupel (Vr )r=0,...,n von Unterräumen in V mit
{0} := V0 ⊂ V1 ⊂ . . . ⊂ Vn := V
mit dim Vr = r für r = 0, . . . , n.
(ii) Eine Fahne heißt F-invariant, falls für jedes r der Unterraum Vr F -invariant ist.
Ein Endomorphismus F ∈ End V heißt trigonalisierbar falls eine F -invariante Fahne in V
existiert.Äquivalent dazu ist: Es existiert eine Basis B von V für die die darstellende Matrix
MB (F ) eine obere Dreiecksmatrix ist.
Eine Matrix A = (aij ) ∈ M (n × n, K) heißt obere Dreiecksmatrix falls aij = 0 für i > j.
Eine Matrix A ∈ M (n × n, K) heißt trigonalisierbar falls die entsprechende Abbildung A :
K n → K n , x 7→ Ax trigonalisierbar ist, oder falls ein S ∈ GL(n, K) existiert, so daß SAS −1
eine obere Dreiecksmatrix ist.
Endomorphismen oder Matrizen sind genau dann trigonalisierbar, wenn ihr charakteristisches Polynom in Linearfaktoren zerfällt. Insbesondere ist jeder Endomorphismus eines komplexen Vektorraumes bzw. jede komplexwertige Matrix trigonalisierbar.
Ein Endomorphismus F ∈ End V eines euklidischen bzw. unitären Vektorraumes (V, h·, ·i)
heißt selbstadjungiert falls für alle v, w ∈ V gilt:
hF v, wi = hv, F wi
Äquvivalent dazu ist, daß die darstellende Matrix A = MB (F ) von F bezüglich einer Orthonormalbasis B von V eine symmetrische Matrix, d.h. A = AT , bzw. eine hermitesche
Matrix, d.h. A = ĀT , ist.
Selbstadjungierte Abbildungen sind Endomorphismen, die mit ihrer adjungierten Abbildung
F ad übereinstimmen. Sei F : V → W eine lineare Abbildung. Dann ist die zu F adjungierte
Abbildung F ad : W → V ist charakterisiert durch die Gleichung
hF v, wi = hv, F ad wi ,
die für alle v ∈ V und w ∈ W erfüllt sein muß. Definiert wird F ad durch
F ad = Φ−1 ◦ F ∗ ◦ Ψ
wobei Ψ bzw Φ die kanonischen Identifizierungen W → W ∗ bzw. V → V ∗ sind, gegeben als:
Φ(v0 ) = (v 7→ hv, v0 i) und Ψ(w0 ) = (w 7→ hw, w0 i).
18
Ein Endomorphismus F ∈ End V eines unitären Vektorraumes (V, h·, ·i) heißt normal falls
F ad ◦ F = F ◦ F ad .
Eine Matrix A ∈ M (n × n, K) heißt normal falls A · ĀT = ĀT · A.
Unitäre, selbst-adjungierte und schief-hermitesche (F ad = −F ) Endomorphismen sind normal. Ein Endomorphismus ist genau dann normal wenn eine Orthonormalbasis aus Eigenvektoren existiert.
Eine Normalform einer gewissen Menge von Endomorphismen ist die einfachst mögliche
Matrixform, auf die die darstellenden Matrizen dieser Endomorphismen durch Wahl einer
geeigneten Basis gebracht werden können, insbesondere wenn die Endomorphismen nicht
diagonalisierbar sind. Damit sind z.B. die Diagonalmatrizen Normalform von unitären und
selbstadjungierten Endomorphismen, während die Normalform der orthogonalen Endomorphismen aus den Matrizen bestehen, die auf der Diagonalen entweder ±1 oder 2×2- Drehmatrizen zu stehen haben und die sonst Null sind.
Sei A eine beliebige darstellende Matrix eines Endomorphismus F ∈ End V und sei  eine
Normalform von F . Dann existiert eine invertierbare Matrix S mit S −1 A S = Â. Die Spalten
von S sind dabei genau die Basisvektoren von V bzgl. der die Matrix von F in Normalform
ist. Ist F diagonalisierbar dann sind die Spalten von S genau die Eigenvektoren von F .
Sei F ∈ End V , dann ist der Einsetzungshomomorphismus definiert als die Abbildung
ΦF : K[x] → End V mit ΦF (P ) = P (F ), dh. für ein Polynom P = a0 + a1 x + . . . + an xn ist
P (F ) der Endomorphismus P (F ) = a0 Id + a1 F + . . . + an F n . Der Kern von ΦF ist ein Ideal
erzeugt vom Minimalpolynom. Das Bild von ΦF , also die Menge aller Endomorphismen der
Form P (F ), bildet eine kommutative Teilmenge (Unteralgebra) von End V .
Sei F ∈ End V , dann ist das Minimalpolynom MF ∈ K[x] definiert als das eindeutig
bestimmte normierte Polynom von minimalem Grad, dass die Gleichung MF (F ) = 0 erfüllt.
Der Satz von Cayley-Hamilton besagt, PF (F ) = 0, wobei PF das charakteristische Polynom von F ist. Daraus folgt insbesondere, dass das Minimalpolynom ein Teiler des charakteristischen Polynoms ist. Zerfällt PF in Linearfaktoren, so auch MF und es treten die
gleichen Faktoren auf.
Ein Endomorphismus F ∈ End V heißt nilpotent, falls eine Zahl k ∈ N existiert mit F k = 0.
Entsprechend sind nilpotente Matrizen definiert.
19
Äquivalent dazu ist, dass das charakteristische Polynom die Form PF = ±xdim V hat bzw.
dass F durch eine obere Dreiecksmatrix realisiert wird, bei der Nullen auf der Diagonalen
stehen. Insbesondere ist also Null der einzige Eigenwert eines nilpotenten Endomorphismus.
Das Minimalpolynom eines nilpotenten Endomorphismus F ist von der Form xs . Dabei ist
s der kleinste Exponent, für den F s = 0 gilt. Es folgt s ≤ dim V .
Der Zerlegungssatz besagt: Sei F ∈ End V und sei P ∈ K[x] ein Polynom mit einer
Zerlegung P = Q1 · . . . · Qk in paarweise teilerfremde Faktoren, dann erhält man eine F invariante Zerlegung
k
M
ker P (F ) =
ker Qi (F ) .
i=1
Für F ∈ End V ist der verallgemeinerte Eigenraum (auch Hauptraum) V (λj ) zum Eigenwert λj definiert durch
V (λj ) := ker(F − λj )rj
dabei ist rj die algebraische Vielfachheit des Eigenwertes λj und gleichzeitig auch die Dimension von V (λj ).
In der Definition kann man rj auch durch sj ersetzen, wobei sj der Exponent des Faktors
(x − λj ) im Minimalpolynoms von F ist. Der Vektorraum V zerfällt in die direkte, F invariante Summe der verallgemeinerten Eigenräume.
Ein Jordan-Block ist eine Matrix Jr (λ) ∈ M (r × r, K), mit λ’s auf der Diagonalen und
Einsen auf der ersten (oberen) Nebendiagonalen.
Eine Jordan-Normalform ist eine Matrix, die Jordan-Blöcke entlang der Diagonalen hat
und deren sonstigen Einträge Null sind.
Ist K algebraisch abgeschlossen, dh. zerfällt jedes Polynom über K in Linearfaktoren, z.B.
K = C, dann besitzt jeder Endomorphismus eines K-Vektorraumes eine Jordan-Normalform.
Sei F ∈ End V ein Endomorphismus mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk .
Die algebraische Vielfachheit des Eigenwertes λj sei rj , die geometrische sei dj und der
Exponent von (x − λj ) im Minimalpolynom von F sei sj . Dann läßt sich die JordanNormalform J von F aus folgenden Eigenschaften ableiten: Die Matrix J besteht aus k
quadratischen Blöcken Aj mit rj , j = 1, . . . , k Zeilen, in denen jeweils λj auf der Diagonalen steht. Jede Matrix Aj besteht aus dj Jordan-Blöcken. Dabei gibt es mehr als
dim ker(F − λj )s+1 − dim ker(F − λj )s Blöcke mit mehr als s Zeilen. Der größte JordanBlock in Aj hat sj Zeilen.
Der Exponent sj ist der kleinste Exponent m mit ker(F − λj )m = ker(F − λj )rj , d.h. ab dem
Exponenten m gilt Gleichheit in der Kette:
Eig(F ; λj ) = ker(F −λj ) ⊂ ker(F −λj )2 ⊂ . . . ⊂ ker(F −λj )sj = . . . = ker(F −λj )rj .
20
Zugehörige Unterlagen
Herunterladen