Grundbegriffe aus der Vorlesung Lineare Algebra I

Werbung
Grundbegriffe aus der Vorlesung Lineare Algebra I
1. Juli 2006
Ein Vektorraum über einem Körper K (auch: K-Vektorraum) ist eine abelsche Gruppe
(V, +) zusammen mit einer Abbildung · : K × V → V, (λ, v) 7→ λ · v (der skalaren
Multiplikation), für die folgende Eigenschaften erfüllt sind:
1. ∀λ ∈ K, u, v ∈ V :
λ · (u + v) = λ · u + λ · v
2. ∀λ, µ ∈ K, u ∈ V :
(λ + µ) · v = λ · v + µ · v,
(λµ) · v = λ(µ · v),
1·v =v
Sei V ein K-Vektorraum. Eine Teilmenge W ⊂ V heisst Untervektorraum von V (kurz:
Unterraum), falls
1. W 6= ∅,
2. ∀v, w ∈ W :
v + w ∈ W,
3. ∀v ∈ W, λ ∈ K :
λ·v ∈W
Sei V ein K-Vektorraum und v1 , . . . , vm ∈ V . Ein Vektor w ∈ V der Form
w = λ 1 v1 + . . . + λ m vm ,
λ1 , . . . λm ∈ K
heisst Linearkombination der Vektoren v1 , . . . vm .
Sei V ein K-Vektorraum und sei U ⊂ V eine beliebige Teilmenge. Dann ist die lineare
Hülle von U in V ( auch: der von U aufgespannte Raum ) definiert als
spanK (U ) := {v ∈ V | v ist Linearkombination von Vektoren aus U}
Seien v1 , . . . , vm ∈ V dann ist die lineare Hülle des m-Tupels (v1 , . . . , vm ) definiert als
spanK (v1 , . . . , vm ) := {λ1 v1 + . . . + λm vm | λ1 , . . . , λm ∈ K}
1
Sei V ein K-Vektorraum. Vektoren v1 , . . . vm ∈ V heissen linear unabhängig falls
λ1 v1 + . . . + λm vm = 0 mit λ1 , . . . , λm ∈ K
⇒
λ1 = . . . = λm = 0
D.h. eine Linearkombination der Vektoren v1 , . . . , vm ist nur der Nullvektor, falls alle Koeffizienten Null sind.
Sei V ein K-Vektorraum und M ⊂ V .
1. M heisst Erzeugendensystem falls:
spanK (M ) = V
2. M heisst Basis von V , falls M ein linear unabhängiges Erzeugendensystem ist.
Die kanonische Basis (auch: Standardbasis) des Vektorraumes V = K n ist definiert als
B = {e1 , . . . , en } mit ei = (0, . . . , 0, 1, 0, . . . , 0), mit der Eins an der i-ten Stelle.
Ein K-Vektorraum V heisst endlich erzeugt, falls es ein endliches Erzeugendensystem von
V gibt, d.h. es existiert eine Menge M = {v1 , . . . , vm } mit V = spanK (M ).
Ein K-Vektorraum V heisst n-dimensional, dimK V = n, falls er eine Basis mit n Vektoren
besitzt. Anderenfalls nennt man V unendlich-dimensional, dimK V = ∞.
Sei V ein K-Vektorraum mit Unterräumen W1 , . . . , Wr ⊂ V . Die Summe der Unterräume
W1 , . . . , Wr ist definiert als
W1 + . . . + Wr := { v = w1 + . . . + wr ∈ V | wi ∈ Wi , i = 1, . . . , r } .
Ein K-Vektorraum V heisst direkte Summe seiner Unterräume W1 , W2 ⊂ V falls
V = W1 + W2
und
W1 ∩ W2 = {0} .
Sei V ein K-Vektorraum mit einem Unterraum W ⊂ V . Ein Komplement von W in V ,
auch direkter Summand von V zu W , ist ein Unterraum W 0 ⊂ V mit
V = W ⊕ W0 .
2
Eine Abbildung F : V → W zwischen zwei K-Vektorräumen V und W heisst K-linear, falls
für alle u, v ∈ V und λ ∈ K gilt:
F (u + v) = F (u) + F (v)
und
F (λu) = λ F (u) .
Eine bijektive lineare Abbildung heisst Isomorphismus. In diesem Fall heissen die Vektorräume V und W zueinander isomorph, man schreibt: V ∼
= W . Eine lineare Abbidlung
F : V → V heisst Endomorphismus von V und ein Isomorphismus F : V → V heisst
Automorphismus von V .
Sei F : V → W eine K-lineare Abbildung. Man definiert
1. Kern von F
ker F = {v ∈ V | F (v) = 0}
2. Bild von F
ImF = {F (v) | v ∈ V }
3. Rang von F
rang(F ) = dim Im(F )
Eine Projektion ist eine lineare Abbildung P : V → V mit P 2 = P .
HomK (V ; W ) := { F : V → W | K − linear }
Raum der K-linearen Abbildungen (Vektorraum)
EndK (V ) := HomK (V, V ) = { F : V → V | K − linear }
Raum der Endomorphismen von V (Endomorphismenring, sogar K-Algebra)
AutK (V ) := GL(V ) = { F : V → | Isomorphismen }
Raum der K-linearen Isomorphismen (allgemeine lineare Gruppe)
Sei K ein Körper. Eine K-Algebra ist ein Ring R mit Eins, der gleichzeitig ein KVektorraum ist, so dass zusätzlich für alle f, g ∈ R und λ ∈ K gilt:
λ(g · f ) = (λg) · f = g · (λf ) .
Das Zentrum einer Gruppe G ist die Untergruppe definiert als:
Zent(G) := { f ∈ G | g · f = f · g ∀ g ∈ G} .
3
Sei V ein K-Vektorraum. Der Dualraum V ∗ von V ist definiert als
V ∗ := HomK (V, K) = { λ : V → K | K − linear } .
Vektoren im Dualraum V ∗ nennt man Linearformen oder auch lineare Funktionale.
Sei F : V → W eine K-lineare Abbildung. Die zu F duale Abbildung F ∗ : W ∗ → V ∗ ist
für λ ∈ W ∗ und v ∈ V definiert als:
F ∗ (λ)(v) = λ(F v) .
Eine m × n-Matrix über K, oder mit Koeffizienten in K, ist eine Anordnung von n · mSkalaren aij , i = 1, . . . , m, j = 1, . . . , n in einem rechteckigem Schema, mit n Spalten und
m Zeilen. Man schreibt A = (aij ). Die Menge aller m × n-Matrizen bezeichnet man mit
M (m × n, K).
Sei F : K n → K n eine K-lineare Abbildung. Die darstellende Matrix zu F ist die
eindeutig bestimmte Matrix A = M (F ) ∈ M (m × n, K) mit F (x) = A · x, wobei x ∈ K n als
Spaltenvektor geschrieben ist und A·x die Matrixmultiplikation von A und x bezeichnet. Die
Spalten
von M (F ) sind die Bilder der kanonischen Basisvektoren ei unter F , d.h. F (ej ) =
Pm
i=1 aij ei , j = 1, . . . , n.
Sei F : V → W eine K-lineare Abbildung. Zwischen zwei K-Vektorräumen V, W mit Basen
A = {v1 , . . . , vn } in V und B = {w1 , . . . , wm } in W . Die darstellende Matrix zu F , bzgl.
der BasenPA und B ist die Matrix A = MBA (F ) ∈ M (m × n, K) eindeutig definiert durch
F (vj ) = m
i=1 aij wi , j = 1, . . . , n. Die Spalten von M (F ) sind die Bilder der kanonischen
Basisvektoren vi unter F ausgedrückt als Linearkombination in den Vektoren wi .
Sei V ein K-Vektorraum mit einer Basis A = {v1 , . . . , vn }. Dann ist der kanonische Basisisomorphismus definiert als
ΦA : K n −→ V,
(x1 , . . . , xn ) 7→ x1 v1 + . . . + xn vn
Man sagt auch: durch ΦA ist auf V ein Koordinatensystem definiert.
Der Rang einer Matrix A ∈ M (m × n, K) ist definiert als der Rang der zugehörigen linearen Abbildung F : K n → K m , x 7→ A · x oder äquivalent als die Dimension des von den
Spaltenvektoren von A in K m aufgespannten Unterraumes.
4
Eine Matrix A ∈ M (n×n, K) heißt invertierbar genau dann, wenn die zugehörigen linearen
Abbildung F : K n → K m , x 7→ A · x ein Isomorphismus ist, oder äquivalent dazu, wenn eine
Matrix A−1 ∈ M (n × n, K) existiert mit
A−1 · A = A · A−1 = En
wobei En die n × n-Einheitsmatrix bezeichnet, dh. En = (aij ) mit aij = δij . Die Matrix A−1
ist eindeutig bestimmt und heißt die zu A inverse Matrix.
Die Menge der invertierbaren Matrizen bildet die allgemeine lineare Gruppe
GL(n, K) = {A ∈ M (n × n, K) | A invertierbar}
Sei V ein K-Vektorraum mit einer Basis A = {v1 , . . . , vn }. Dann ist die duale Basis eine
Basis A∗ = {v1∗ , . . . , vn∗ } von V ∗ , definiert durch
vi∗ (vj ) := δij .
Sei U ⊂ V ein Unterraum. Dann ist der Annullator von U ein Unterraum U 0 ⊂ V ∗ definiert
durch:
U 0 = {λ ∈ V ∗ | λ(u) = 0 ∀ u ∈ U } .
Sei A ∈ M (m × n, K) eine m × n-Matrix. Dann ist die zu A transponierte Matrix AT
definiert durch:
AT = (bij )
mit
bij = aj i
Die transponierte Matrix AT ist die Matrix der zur Abbildung F : K n → K m mit F (x) =
A · x gehörenden dualen Abbildung F ∗ : (K m )∗ ∼
= K m → (K n )∗ ∼
= K n bzgl. der dualen
kanonischen Basis in (K n )∗ .
Für eine Matrix A ∈ M (m × n, K) ist der Spaltenrang die Dimension des von den Spalten
von A in K m aufgespannten Unterraumes. Der Zeilenrang ist die Dimension des von den
Zeilen von A aufgespannten Unterraumes in K n . Spalten- und Zeilenrang stimmen mit dem
Rang üeberein.
Sei V ein K-Vektorraum mit einer Basis A = {v1 , . . . , vn }. Dann ist der Koordinatenisomorphismus ΦA : K n → V definiert durch ΦA (ei ) = vi , i = 1, . . . , n, dabei bezeichnet
{ei } die kanonische Basis von K n .
5
Sei V ein K-Vektorraum mit Basen A und B. Die Transformationsmatrix des Basiswechsels
TBA ist definiert als: TBA = Φ−1
B ◦ ΦA .
Zwei Matrizen A, B ∈ M (m × n, K) heissen äquivalent, wenn es zwei Matrizen S ∈
GL(m, K) und T ∈ GL(n, K) gibt mit: B = S · A · T −1 .
Zwei quadratische Matrizen A, B ∈ M (n × n, K) heissen ähnlich, wenn es eine Matrix
T ∈ GL(n, K) gibt mit B = T · A · T −1 .
Sei V ein K-Vektorraum. Ein affiner Unterraum von V (kurz: affiner Raum) ist eine
Teilmenge der Form:
X = v0 + W = {v0 + w | w ∈ W }
wobei W ⊂ V ein Unterraum und v0 ∈ V ist. Die Dimension eines affinen Raumes X ist
die Dimension des zugehörigen Unterraumes W . Eine affine Abbildung ist eine Abbildung
f : V → W mit f (v) = F (v) + w0 für eine lineare Abbildung F : V → W und ein festes
w0 ∈ W .
Sei A ∈ M (m × n, K) und b ∈ Rm gegeben. Dann ist die Gleichung A · x = b ein lineares
Gleichungssystem mit m Gleichungen und n Unbekannten x1 , . . . , xn , die Koordinaten
des Vektors x ∈ K n . Ist b = 0 spricht man von einem homogenen Gleichungssystem. Der
Lösungsraum ist gegeben als
Lös(A, b) = {x ∈ K n | Ax = b}
Die Matrix A bezeichnet man als Koeffizientenmatrix des linearen Gleichungssystems Ax = b.
Die erweiterte Koeffizientenmatrix (A, b) erhält man aus A durch Hinzunahme von b als neue
Spalte.
Sei V ein K-Vektorraum. Eine Bilinearform auf V ist eine Abbildung
b : V × V −→ K,
(v, w) 7→ b(v, w)
so dass für alle v, v 0 , w, w0 ∈ V und λ ∈ K gilt
b(v + v 0 , w) =
b(v, w + w0 ) =
b(v, w) + b(v 0 , w),
b(v, w) + b(v, w0 ),
b(λv, w) = λ b(v, w)
b(v, λw) = λ b(v, w)
Eine Bilinearform b : V × V → K heißt symmetrisch falls für alle v, w ∈ V gilt
b(v, w) = b(w, v) .
6
Eine Bilinearform heißt schiefsymmetrisch oder alternierend falls entsprechend
b(v, w) = − b(w, v) .
Eine Bilinearform heißt positiv definit falls für alle v ∈ V mit v 6= 0 gilt:
b(v, v) > 0 .
Eine Bilinearform b : V × V → K heißt nicht ausgeartet oder regulär, falls sie durch die
Abbildung v 7→ b(·, v) einen Isomorphismus V → V ∗ definiert. Äquivalent dazu ist, dass
kein v0 ∈ V, v0 6= 0 existiert mit
b(v, v0 ) = 0
∀v ∈ V .
Die zu einer Bilinearform b : V × V → K gehörende quadratische Form qb ist definiert
durch
qb : V → K,
qb (v) := b(v, v) .
Sei K ein Körper mit char(K) 6= 2 d.h. 2 6= 0 in K. Dann ist eine Bilinearform b über die
Polarisierungsformel vollständig durch die zugehörige quadratische Form qb bestimmt:
b(v, w) =
1
(qb (v + w) − qb (v) − qb (w)) .
2
Ein euklidischer Raum ist ein reeller Vektorraum V mit einer symmetrischen, positiv
definiten Bilinearform b : V × V → R. Eine solche Bilinearform b nennt man euklidisches
Skalarprodukt. Man schreibt auch b(·, ·) = h·, ·i.
Jedes euklidische Skalarprodukt b definiert eine (euklidische) Norm durch
p
kvk =
b(v, v)
und einen Abstand, oder Metrik durch d(v, w) = kv − wk .
Sei (V, h·, ·i) ein euklidischer Vektorraum. Zwei Vektoren v, w ∈ V heißen zueinander orthogonal falls hv, wi = 0. Ein Orthonormalsystem in V ist eine Menge von Vektoren
v1 , v2 , . . . mit hvj , vk i = δjk , d.h. die Vektoren haben die Länge 1 und sind paarweise orthogonal. Eine Orthonormalbasis ist eine Basis von V , die zusätzlich ein Orthonormalsystem
ist.
Sei M ⊂ V eine beliebige Teilmenge. Dann ist das orthogonale Komplement von M
definiert durch:
M ⊥ := {v ∈ V | hv, wi = 0 ∀ w ∈ M }
Sei U ⊂ V ein Unterraum. Dann gilt V = U ⊕ U ⊥ und die orthogonale Projektion auf
U ist definiert durch
pU : V → U,
pU (v) = u
7
falls v = u + w mit u ∈ U und w ∈ U ⊥ .
Eine orthogonale Abbildung zwischen zwei euklidischen Vektorräumen (V, h·, ·i)V und
(W, h·, ·i)W ist eine lineare Abbildung F : V → W mit
hF v, F wiW = hv, wiV .
für alle Vektoren v, w ∈ V . Die orthogonale Gruppe, oder Gruppe der orthogonalen
Matrizen ist definiert als
O(n) := {A ∈ M (n × n, R) | A · AT = E} ,
wobei E die Einheitsmatrix bezeichnet. Dies ist die Gruppe der orthogonalen Abbildungen
A : Rn → Rn , die gegeben sind durch Matrizenmultiplikation mit A.
Orthogonale Matrizen sind genau die Matrizen, deren Spalten (bzw. Zeilen) ein Orthonormalsystem bilden (bzgl. des kanonischen Skalarproduktes auf Rn ) .
Sei V ein komplexer Vektorraum. Eine hermitesche Form auf V ist eine Abbildung h :
V × V → C mit folgenden Eigenschaften
h(u + v, w) = h(u, w) + h(v, w),
h(λ v, w) = λ h(v, w),
h(v, w) = h(w, v)
für alle u, v, w ∈ V und λ ∈ C. Eine hermitesche Form ist also linear im ersten und anti-linear
im zweiten Argument, dh. im zweiten Argument gilt
h(u, v + w) = h(u, v) + h(u, w),
h(u, λv) = λ̄ h(u, v) .
für alle u, v, w ∈ W und λ ∈ C.
Ein unitärer Vektorraum ist ein komplexer Vektorraum V zusammen mit einer positiv
definiten hermiteschen Form h. Diese nennt man dann unitäres Skalarprodukt auf V . Positiv
definit heißt hier wieder h(v, v) > 0 für alle Vektoren v ∈ V, v 6= 0. Diese Definition ist
sinnvoll, da h(v, v) ∈ R für hermitesche Formen h.
Das kanonische Skalarprodukt auf Cn ist ein unitäres Skalarprodukt auf Cn definiert durch
hv, wi := v1 w̄1 + . . . + vn w̄n .
Orthogonalität von Vektoren, Orthonormalbasen, orthogonale Projektionen und orthogonale
Komplemente sind analog zu euklidischen Vektorräumen definiert.
Eine lineare Abbildung F : V → W zwischen zwei unitären Vektorräumen V und W heißt
unitär falls für alle Vektoren v, w ∈ V gilt:
hF v, F wi = hv, wi .
8
Eine Matrix A ∈ M (n × n, C) heißt unitär, falls die durch Matrizenmultiplikation gegebenen
Abbildung A : Cn → Cn bezüglich des kanonischen Skalarproduktes unitär ist. Äquivalent
dazu ist die Bedingung A · ĀT = E. Die unitäre Gruppe U(n) ist die Menge der unitären
Matrizen, d.h.
U(n) := { A ∈ M (n × n, C) | A · Āt = E } .
Unitäre Matrizen sind genau die Matrizen, deren Zeilen (bzw. Spalten) eine Orthonormalsystem bilden (bzgl. des kanonischen Skalarproduktes auf Cn .
Sei V ein K-Vektorraum ein Abbildung D : V × . . .r−mal . . . × V → K heißt multi-linear,
falls sie in jedem Eintrag linear ist, d.h. falls die Abbildung V → K
vi 7→ D(v1 , . . . , vi , . . . , vr )
für feste Vektoren vk , k 6= i linear ist. Eine multi-lineare Abbildung heißt alternierend
falls, D(v1 , . . . , vr ) = 0 sobald ein Paar (i, j) mit vi = vj existiert. Ist V ein Vektorraum
der Charakteristik ungleich zwei, d.h. gilt 1 + 1 6= 0, dann sind alternierende Abbildungen
genau die, die beim Vertauschen zweier Einträge das Vorzeichen wechseln, d.h. wo gilt
D(v1 , . . . , vi , . . . , vj , . . . , vr ) = − D(v1 , . . . , vj , . . . , vi , . . . , vr ) .
Die Determinante einer n × n-Matrix ist eine multi-lineare, alternierende Abbildung
det : M (n × n, K) ∼
= K n × . . .n−mal . . . × K n → K ,
die auf der Einheitsmatrix den Wert Eins annimmt. Es war gezeigt worden, daß durch diese
drei Bedingungen die Determinante eindeutig festgelegt ist. Die Determinante interpretiert
man hier als multi-lineare Abbildung auf den Spalten der gegebenen Matrix.
Die symmetrische Gruppe Sn ist die Gruppe der bijektiven Abbildungen der Menge
{1, . . . , n}. Die Gruppenelemente der symmetrischen Gruppe nennt man Permutationen.
Permutationen, die genau zwei Elemente vertauschen und die restlichen Elemente festlassen
heißen Transpositionen. Das Signum einer Permutation σ ∈ Sn ist definiert als
sign σ := (−1)a(σ) ,
wobei a(σ) die Anzahl der Fehlstände ist, d.h. die Anzahl der Paare (i, j) mit i < j und
σ(i) > σ(j). Permutation mit Signum +1 heißen gerade, die mit Signum -1 heißen ungerade.
Das Signum einer Permutation σ ∈ Sn läßt sich berechnen durch
sign σ =
Y σ(i) − σ(j)
= det(eσ(1) , . . . , eσ(n) )
i
−
j
i<j
9
Die Leibniz-Formel gibt folgende Vorschrift zur Berechnung der Determinante einer Matrix
A = (aij ) ∈ M (n × n, K):
X
sign σ aσ(1)1 · . . . · aσ(n)n .
det A =
σ∈Sn
Der Laplace-Entwicklungssatz gibt folgende Vorschrift zur Berechnung der Determinante
einer Matrix A = (aij ) ∈ M (n × n, K):
det A =
n
X
(−1)i+j aij det Aij ,
i=1
wobei Aij ∈ M ((n − 1) × (n − 1), K) die Matrix ist, die man aus A durch das Streichen der
iten Zeile und jten Spalte erhält.
Sei V ein r-dimensionaler komplexer oder reeller Vektorraum. Eine (alternierende) r-Form
auf V ist eine multilineare und alternierende Abbildung
ω : V × . . . r mal . . . × V
→ K
Der Raum der r-Formen wird mit Λr V ∗ bezeichnet. Sei ω ∈ Λr V ∗ und η ∈ Λs V ∗ . Dann
ist das Dachprodukt ω ∧ η eine (r+s)-Form definiert durch:
ω ∧ η(v1 , . . . , vr+s ) :=
1 X
sign σ ω(vσ(1) , . . . , vσ(r) ) η(vσ(r+1) , . . . , vσ(r+s) ) .
r!s! σ∈S
r+s
Als äußere Algebra bezeichnet man den Raum aller Formen (mit dem Dachprodukt), d.h.
Λ V ∗ := Λ0 V ∗ ⊕ . . . ⊕ Λn V ∗ .
Sei F : V → W eine lineare Abbildung, dann ist das Zurückziehen von k-Formen bzw. die
pull-back-Abbildung F ∗ : Λk W ∗ → Λk V ∗ definiert durch
(F ∗ ω)(v1 , . . . , vk ) := ω(F v1 , . . . , F vk )
für ω ∈ Λk W ∗ und v1 , . . . , vk ∈ V .
Sei V ein n-dimensionaler K-Vektorraum und sei F ∈ End V . Dann ist die Determinante
des Endomorphismus F definiert als der Skalar det F in folgender Gleichung:
F ∗ D = det F D
10
für ein beliebiges D ∈ Λn V . Der Skalar det F ist wohldefiniert, da Λn V ∗ eindimensional ist.
Äquivalent dazu ist die Determinante eines Endomorphismus F ∈ End V definiert als die
Determinante einer darstellenden Matrix von F . Dies ist wohldefiniert, da sich die Determinante von darstellenden Matrizen zu verschiedenen Basen nicht unterscheiden.
Sei A ∈ M (m × n, K) und k ≤ min{m, n} eine k-reihige Teilmatrix A0 ∈ M (k × k, K)
entsteht aus A durch Streichen von m − k Zeilen und n − k Spalten. In diesem Fall nennt
man det A0 eine Unterdeterminante oder auch k-reihiger Minor.
Die Hauptminoren einer Matrix A sind die Determinanten, der quadratischen Teilmatrizen
in der oberen linken Ecke von A.
Sei A ∈ M (n×l, K), für 1 ≤ i1 < . . . < il ≤ n bezeichne Ai1 ,...,il ∈ M (l×l, K) die Matrix, die
aus den Zeilen i1 , . . . , il von A besteht. Die Gramsche Determinante von A ist definiert
als
X
(det Ai1 ,...,il )2 .
G(A) :=
i1 <...<il
Sei V ein reeller Vektorraum. Dann nennt man zwei Basen gleichorientiert, falls der Basiswechselisomorphismus eine positive Determinante hat. Seien A = {v1 , . . . , vn } und B =
{w1 , . . . , wn } zwei Basen von V . Dann ist der Basiswechselisomorphismus F definiert durch
F vi = wi für i = 1, . . . , n.
Die Eigenschaft gleichorientiert zu sein definiert eine Äquivalenzrelation auf der Menge der
Basen von V . Man hat genau zwei Äquivalenzklassen. Eine Orientierung auf V ist eine
Äquivalenzklassen gleichorientierter Basen von V . Die Basen der fixierten Orientierung nennt
man positiv orientiert die anderen entsprechend negativ orientiert.
Der Raum Rn hat eine kanonische Orientierung. Das ist die Äquivalenzklassen in der die
kanonische Basis liegt.
Die Orientierung auf einem n-dimensionalen Vektorraum V kann festgelegt werden durch die
Wahl einer Volumenform, d.h. einer von Null verschiedenen n-Form, also
ω ∈ Λn V ∗ \ {0}
Die Menge der Basen von Rn kann identifiziert werden mit der Menge der invertierbaren
Matrizen GL(n, R). Entsprechend hat man folgende disjunkte Zerlegung:
GL(n, R) = GL+ ∪ GL−
mit GL± = {A ∈ M (n × n, R)| det A = ±}. Dabei entspricht GL+ der kanonischen Orientierung.
Zwei Basen A, B von Rn heißen stetig ineinander deformierbar, falls die entsprechenden
Matrizen A, B ∈ GL(n, R) verbindbar sind, d.h. falls in GL(n, R) ein stetiger Weg von A
nach B existiert. Das ist äquivalent dazu, daß die Basen gleichorientiert sind.
11
Sei V ein K-Vektorraum und sei F ∈ End V . Ein λ ∈ K heißt Eigenwert von F , falls es
einen Vektor v ∈ V mit v 6= 0 gibt, für den F v = λ v gilt. In diesem Fall nennt man v
einen Eigenvektor von F zum Eigenwert λ.
Ein F ∈ End V heißt diagonalisierbar wenn es eine Basis aus Eigenvektoren gibt. Das ist
genau dann der Fall, wenn es eine Basis B von V gibt, für die die darstellende Matrix MB (F )
eine Diagonalmatrix ist.
Eine Matrix A ∈ M (n × n, K) heißt diagonalisierbar, falls die entsprechende Abbildung
A : K n → K n , x 7→ Ax diagonalisierbar ist, oder falls ein S ∈ GL(n, K) existiert, so daß
SAS −1 eine Diagonalmatrix ist.
Sei F ∈ End V und λ ∈ K. Dann ist der Eigenraum von F zum Eigenwert λ definiert als
Eig (F, λ) := { v ∈ V | F v = λ v } .
D.h. Eig (F, λ) ist die Menge der Eigenvektoren von F zum Eigenwert λ, zusammen mit
dem Nullvektor.
Zwei Endomorphismen F, G ∈ End V heißen simultan diagonalisierbar, falls eine Basis
von V existiert, die aus Vektoren besteht, die gleichzeitig Eigenvektoren von F und G sind.
Zwei diagonalisierbare Endomorphismen F, G sind genau dann simultan diagonalisierbar,
wenn sie kommutieren, d.h. wenn F ◦ G = G ◦ F gilt. Es folgt, dass dann die Eigenräume
von G invariant unter F sind und umgekehrt. Die gleichzeitig diagonalsierende Basis erhält
man, indem man z.B. die Einschränkungen von F auf die Eigenräume von G diagonalisiert.
Sei F ∈ End V das charakteristische Polynom von F ist definiert durch:
PF (x) := det (F − x IdV )
Sei A die darstellende Matrix von F bzgl. irgendeiner Basis von V , dann gilt
PF (x) = det (A − x E) ,
wobei E die Einheitsmatrix bezeichnet. Dieser Ausdruck definiert auch das charakteristische
Polynom für eine beliebige Matrix A ∈ M (n × n, K).
Sei K ein Körper und x eine Unbestimmte. Ein Polynom über K ist ein Ausdruck der
Gestalt:
p = a0 + a1 x + . . . + an xn .
Die Zahlen a0 , . . . , an heißen Koeffizienten des Polynoms. Sind alle Koeffizienten gleich Null,
so spricht man vom Nullpolynom, p = 0. Ist p nicht das Nullpolynom, so definiert man den
Grad von p durch
deg(p) := max { i | ai 6= 0 } .
12
Ein Polynom vom Grad n mit an = 1 heißt normiert. “Unbestimmte” x soll hier einfach
einen Buchstaben bezeichnen, für den man z.B. Zahlen aus K einsetzen kann.
Der Raum der Polynome über K ist ein Ring, den man als den Polynomring über K bezeichnet, man schreibt K[x]. Man kann Polynome also nach den üblichen Regeln addieren und
multiplizieren, wie für ganze Zahlen hat man auch eine Polynomdivision mit Rest.
Jedes Polynom p ∈ K[x] definiert eine Abbildung p̃ : K → K (polynomiale Funktion) durch:
p̃(λ) = a0 + a1 λ + . . . + an λn . Die Zuordnung p 7→ p̃ definiert den Auswertungshomomorphismus K[x] → Abb(K, K). Für Körper K mit unendlich vielen Elementen ist dieser
injektiv, d.h. man kann dann p und p̃ identifizieren.
Eine Zahl λ ∈ K heißt Nullstelle von p ∈ K[x] falls p(λ) = 0. Genauer müßte man p̃(λ) = 0
schreiben.
Unter dem Abspalten von Linearfaktoren versteht man folgende Aussage. Sei p ∈ K[x]
und sei λ ∈ K eine Nullstelle von p. Dann existiert ein eindeutig bestimmtes Polynom
q ∈ K[x] mit deg(q) = deg(p) − 1 und p = (x − λ)q, d.h. von p wurde der Linearfaktor
(x − λ) abgespalten. Sei p ∈ K[x], p 6= 0. Für λ ∈ K heißt
µ(P, λ) := max { r ∈ N | p = (x − λ)r q, q ∈ K[x] }
die Vielfachheit der Nullstelle λ von p. Man sagt ein Polynom p ∈ K[x] zerfällt in Linearfaktoren, falls es sich in folgender Form schreiben läßt:
p = a (x − λ1 )r1 · . . . · (x − λk )rk
mit a ∈ K. Man spricht dann von einer Linearfaktorzerlegung von p.
Der Fundamentalsatz der Algebra besagt, daß jedes Polynom über C mindestens eine
Nullstelle besitzt. Damit besitzt jedes komplexe Polynom eine Linearfaktorzerlegung.
Der Wurzelsatz von Vieta besagt, daß sich für ein beliebiges normiertes Polynom p =
a0 + a1 x + . . . + an−1 xn−1 + xn , mit Nullstellen λ1 , . . . , λn (die nicht paarweise verschieden
sein müssen), die Koeffizienten ak folgendermaßen berechnen lassen:
ak = (−1)n−k sn−k (λ1 , . . . , λn ) .
Dabei sind sk die elementarsymmetrischen Funktionen, definiert durch
X
sr (t1 , . . . , tn ) :=
ti1 · . . . · tir .
i1 <...<ir
Sei F ∈ End V mit charakteristische Polynom PF . Die algebraische Vielfachheit des
Eigenwertes λ ist definiert als die Vielfachheit der Nullstelle λ von PF . Man schreibt
µalg (F, λ) = µ(PF , λ)
13
Zerfällt das charakteristische Polynom PF in Linearfaktoren, d.h. hat man
PF = ± (x − λ1 )r1 · . . . · (x − λk )rk ,
wobei die λi , mit i = 1, . . . , k die paarweise verschiedenen Nullstellen von PF seien, dann ist
µalg (F, λi ) = ri .
Die geometrische Vielfachheit des Eigenwertes λ ist definiert als Dimension des Eigenraumes zum Eigenwert λ. Man schreibt
µgeom (F, λ) = dim Eig(F, λ) .
Sei V ein K-Vektorraum und F : V → V sei K-linear, d.h. ein Endomorphismus von V .
Ein Unterraum W ⊂ V heißt F-invariant, falls:
F (W ) ⊂ W ,
d.h. F (w) ∈ W
für alle w ∈ W .
Der Nullvektorraum {0} und der ganze Vektorraum V sind triviale invariante Unterräume,
d.h. sie sind für jedes F ∈ End V invariant.
Sei F ∈ End V und sei dim V = n, dann definiert man:
(i) Eine Fahne in V ist ein Tupel (Vr )r=0,...,n von Unterräumen in V mit
{0} := V0 ⊂ V1 ⊂ . . . ⊂ Vn := V
mit dim Vr = r für r = 0, . . . , n.
(ii) Eine Fahne heißt F-invariant, falls für jedes r der Unterraum Vr F -invariant ist.
Ein Endomorphismus F ∈ End V heißt trigonalisierbar falls eine F -invariante Fahne in
V existiert. Äquivalent dazu ist: Es existiert eine Basis B von V für die die darstellende
Matrix MB (F ) eine obere Dreiecksmatrix ist.
Eine Matrix A = (aij ) ∈ M (n × n, K) heißt obere Dreiecksmatrix falls aij = 0 für i > j.
Eine Matrix A ∈ M (n × n, K) heißt trigonalisierbar falls die entsprechende Abbildung A :
K n → K n , x 7→ Ax trigonalisierbar ist, oder falls ein S ∈ GL(n, K) existiert, so daß
SAS −1 eine obere Dreiecksmatrix ist. Endomorphismen oder Matrizen sind genau dann
trigonalisierbar, wenn ihr charakteristisches Polynom in Linearfaktoren zerfällt.
14
Ein Endomorphismus F ∈ End V eines euklidischen bzw. unitären Vektorraumes (V, h·, ·i)
heißt selbstadjungiert falls für alle v, w ∈ V gilt:
hF v, wi = hv, F wi
Äquvivalent dazu ist, daß die darstellende Matrix A = MB (F ) von F bezüglich einer Orthonormalbasis B von V eine symmetrische Matrix, d.h. A = AT , bzw. eine hermitesche
Matrix, d.h. A = ĀT , ist.
Selbstadjungierte Abbildungen sind Endomorphismen, die mit ihrer adjungierten Abbildung
F ad übereinstimmen. Sei F : V → W eine lineare Abbildung. Dann ist die zu F adjungierte
Abbildung F ad : W → V ist charakterisiert durch die Gleichung
hF v, wi = hv, F ad wi ,
die für alle v ∈ V und w ∈ W erfüllt sein muß. Definiert wird F ad durch
F ad = Φ−1 ◦ F ∗ ◦ Ψ
wobei Ψ bzw Φ die kanonischen Identifizierungen W → W ∗ bzw. V → V ∗ sind, gegeben als:
Φ(v0 ) = (v 7→ hv, v0 i) und Ψ(w0 ) = (w 7→ hw, w0 i).
Eine Normalform einer gewissen Menge von Endomorphismen ist die einfachst mögliche
Matrixform, auf die die darstellenden Matrizen dieser Endomorphismen durch Wahl einer
geeigneten Basis gebracht werden können, insbesondere wenn die Endomorphismen nicht
diagonalisierbar sind. Damit sind z.B. die Diagonalmatrizen Normalform von unitären und
selbstadjungierten Endomorphismen, während die Normalform der orthogonalen Endomorphismen aus den Matrizen bestehen, die auf der Diagonalen entweder ±1 oder 2×2- Drehmatrizen zu stehen haben und die sonst Null sind.
Sei A eine beliebige Matrixrealisierung eines Endomorphismus F ∈ End V und sei  eine
Normalform von F . Dann existiert eine invertierbare Matrix S mit S −1 A S = Â. Die Spalten
von S sind dabei genau die Basisvektoren von V bzgl. der die Matrix von F in Normalform
ist. Ist F diagonalisierbar dann sind die Spalten von S genau die Eigenvektoren von F .
Sei F ∈ End V , dann ist das Minimalpolynom MF ∈ K[x] definiert als das normiertes
Polynom von minimalem Grad, dass die Gleichung MF (F ) = 0 erfüllt.
Der Satz von Cayley-Hamilton besagt, P( F ) = 0, wobei PF das charakteristische Polynom von F ist. Daraus folgt insbesondere, dass das Minimalpolynom ein Teiler des charakteristischen Polynoms ist. Zerfällt PF in Linearfaktoren, so auch MF und es treten die
gleichen Faktoren auf.
15
Ein Endomorphismus F ∈ End V heißt nilpotent, falls eine Zahl k ∈ N existiert mit F k = 0.
Äquivalent dazu ist, dass das charakteristische Polynom die Form PF = ±xd hat bzw. dass
F durch eine obere Dreiecksmatrix realisiert wird, bei der Nullen auf der Diagonalen stehen.
Insbesondere ist also Null der einzige Eigenwert einer nilpotenten Matrix.
Für F ∈ End V ist der verallgemeinerte Eigenraum V (λj ) zum Eigenwert λj definiert
durch
V (λj ) := ker(F − λj )rj
dabei ist rj die algebraische Vielfachheit des Eigenwertes λj und gleichzeitig auch die Dimension von V (λj ). In der Definition kann man rj auch durch dj ersetzen, wobei dj der
Exponent des Faktors (x − λj ) im Minimalpolynoms von F ist. Der Vektorraum V zerfällt
in die direkte, F -invariante Summer der verallgemeinerten Eigenräume.
Ein Jordan-Block ist eine Matrix Jr (λ) ∈ M (r × r, K), mit λ’s auf der Diagonalen und
Einsen auf der ersten Nebendiagonalen.
Eine Jordan-Normalform ist eine Matrix, die Jordan-Blöcke entlang der Diagonalen hat
und deren sonstigen Einträge Null sind.
Ist K algebraisch abgeschlossen, dh. zerfällt jedes Polynom über K in Linearfaktoren, z.B.
K = C, dann besitzt jeder Endomorphismus eines K-Vektorraumes eine Jordan-Normalform.
Sei F ∈ End V ein Endomorphismus mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk .
Die algebraische Vielfachheit des Eigenwertes λj sei rj und die geometrische sei sj . Dann
läßt sich die Jordan-Normalform J von F aus folgenden Eigenschaften ableiten: Die Matrix
J besteht aus k quadratischen Blöcken Aj mit rj , j = 1, . . . , k Zeilen, in denen jeweils λj
auf der Diagonalen steht. Jede Matrix Aj besteht aus sj Jordan-Blöcken. Dabei gibt es
dim ker(F − λj )s − dim ker(F − λj )s−1 Blöcke mit genau s Zeilen. Der größte Jordan-Block
in Aj hat dj Zeilen, wobei dj der Exponent von (x − λj ) im Minimalpolynom von F ist. Der
Exponent dj ist der kleinste Exponent m mit ker(F − λj )m = ker(F − λj )rj , d.h. ab dem
Exponenten m gilt Gleichheit in der Kette:
Eig(F ; λj ) = ker(F − λj ) ⊂ ker(F − λj )2 ⊂ . . . ⊂ ker(F − λj )rj .
16
Herunterladen