Zusammenfassung - Frank Reinhold

Werbung
Universität Regensburg
Lineare Algebra
Dozent: Prof. Bernd Ammann
LATEX: Frank Reinhold
Wintersemester 2007/2008
Sommersemester 2008
Inhaltsverzeichnis
1 Gruppen, Ringe,
1.1 Gruppe . . .
1.2 Ring . . . . .
1.3 Körper . . . .
Körper
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
3
3
2 Matrizen
2.1 n × m-Matrix . . . . . . . .
2.2 Addition von Matrizen . . .
2.3 Multiplikation von Matrizen
2.4 Multiplikation von Matrizen
2.5 Transposition . . . . . . . .
2.6 Lineare Gleichungssysteme .
2.7 Quadratische Matrizen . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
mit Skalaren
. . . . . . . .
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
3
4
4
4
4
4
3 Vektorräume, Basen
3.1 Vektorraum . . . .
3.2 Basis . . . . . . . .
3.3 Dimension . . . . .
3.4 Basiswechsel . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
5
6
6
4 Lineare Abbildungen
4.1 Matrix einer Linearen Abbildung .
4.2 Homomorphismen als Vektorräume
4.3 Dualraum . . . . . . . . . . . . . .
4.4 Rang . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
6
6
7
5 Determinanten
5.1 Symmetrische Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Multilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Berechnung von Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
7
8
8
6 Eigenwerte und Eigenvektoren
8
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7 Euklidische und Unitäre Vektorräume
7.1 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Euklidische Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 Unitäre Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4 Isometrien, orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . .
7.5 Isometrien, unitäre Matrizen . . . . . . . . . . . . . . . . . . . . . . . .
7.6 Orthonormale Hauptachsentransformation von rellen Bilinearformen . .
7.7 Hauptachsentransformation von rellen Bilinearformen . . . . . . . . . .
7.8 Orthonormale Hauptachsentransformation von symmetrischen Matrizen
7.9 Unitäre Hauptachsentransformation von hermiteschen Matrizen . . . . .
7.10 Adjungierte Homomorphismen . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
9
9
9
10
10
10
10
10
11
7.11 Orthonormale Hauptachsentransformation von selbstadjungierten Matrizen . . . . . . . . . . . . 11
8 Polynome und Ringe
8.1 Polynome . . . . . . . . . . . . . . . . . . . .
8.2 Addition und Multiplikation von Polynomen .
8.3 Ringe . . . . . . . . . . . . . . . . . . . . . .
8.4 Eigenschaften der Polynome . . . . . . . . . .
8.5 Polynomdivision . . . . . . . . . . . . . . . .
8.6 Nullstellen von Polynomen . . . . . . . . . . .
8.7 Ideale und Hauptideale . . . . . . . . . . . . .
8.8 Teiler, irreduzible und Primelemente . . . . .
8.9 Größter gemeinsamer Teiler . . . . . . . . . .
8.10 Primfaktorzerlegung . . . . . . . . . . . . . .
8.11 Algebraische Abgeschlossenheit . . . . . . . .
8.12 Reelle Polynome . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
11
11
11
12
12
12
13
13
13
13
14
9 Charakteristisches und Minimalpolynom
9.1 Charakteristisches Polynom . . . . . . . .
9.2 Minimalpolynom . . . . . . . . . . . . . .
9.3 Normalformen von Endomorphismen . . .
9.4 Nilpotenz . . . . . . . . . . . . . . . . . .
9.5 Jordansche Normalform . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
14
15
15
15
10 Diagonalisierbarkeit
10.1 Normalformen von Endomorphismen auf Räumen mit Skalarprodukt
10.2 Quadratwurzel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.3 Polarzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4 Normalformen von Endomorphismen in Euklidischen Vektorräumen
10.5 Normalformen von Isometrien und orthogonalen Matrizen . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
16
16
17
17
17
.
.
.
.
.
.
.
.
.
.
11 Affine Räume
17
11.1 Quadrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
12 Tensorprodukt
18
13 Äußeres Produkt
19
14 Algebra
20
Frank Reinhold
1
Lineare Algebra
Gruppen, Ringe, Körper
1.1
Gruppe
Seite 23-28
Eine Gruppe ist eine Menge X mit einer Verknüpfung ◦, für die gilt:
1. Assoziativität: ∀x, y, z ∈ X gilt: (x ◦ y) ◦ z = x ◦ (y ◦ z).
2. Neutrales Elemente: ∃e ∈ X, sodass ∀x ∈ X gilt: e ◦ x = x = x ◦ e.
3. Inverses Element: ∀x ∈ X∃y ∈ X, sodass gilt: x ◦ y = e = y ◦ x.
4. (Kommutativität: ∀x, y ∈ X gilt: x ◦ y = y ◦ x) ⇒ abelsche Gruppe.
1.2
Ring
Seite 28-31
Ein Ring ist eine Menge R mit zwei Verknüpfungen +, ·, für die gilt:
1. (R, +) ist eine abelsche Gruppe.
2. (R, ·) ist assoziativ.
3. +, · erfüllen das Distributivgesetz: ∀x, y, z ∈ R gilt: x · (y + z) = x · y + x · z.
4. ((R, ·) besitzt ein neutrales Elemten) ⇒ Ring mit 1.
5. ((R, ·) ist kommutativ) ⇒ kommutativer Ring.
1.3
Körper
Seite 31
Ein Körper ist eine Menge K mit zwei Verknüpfungen +, ·, für die gilt:
1. (R, +) ist eine abelsche Gruppe.
2. (R, ·) ist eine abelsche Gruppe.
3. +, · erfüllen das Distributivgesetz.
2
2.1
Matrizen
n × m-Matrix
Seite 33-34
Eine Abbildung {1, . . . , n} × {1, . . . , m} → R, (i, j) 7→ aij heißt
! n × m-Matrix.
a11 ··· a1m
..
..
A ∈ Mat(n, m; K) dann ist A von der Form: A =
.
.
.
an1 ··· anm
Für n = 1: A = ( a11 ···!a1m ) heißt Zeilenvektor.
a11
..
Für m = 1: A =
heißt Spaltenvektor.
.
an1
Ist n = m, dann heißt die Matrix quadratische Matrix.
2.2
Addition von Matrizen
Seite 34
Seien A, B ∈ Mat(n, m; K). Dann ist die Addition von Matrizen definiert als

 
 
a11 · · · a1m
b11 · · · b1m
a11 + b11 · · ·

..  +  ..
..  = 
..
A + B :=  ...
.   .
.  
.
an1 · · · anm
bn1 · · · bnm
an1 + bn1 · · ·
6. Februar 2009

a1m + b1m

..

.
anm + bnm
Seite 3
Lineare Algebra
2.3
Frank Reinhold
Multiplikation von Matrizen
Seite 34-35
Man kann eine k × l-Matrix mit einer m × n-Matrix multiplizieren,
falls l = m. Wir definieren das Produkt
Pl
zweier Matrizen (cij )i∈{1,...,k},j∈{1,...,n} durch cij := x=1 aix bxj
2.4
Multiplikation von Matrizen mit Skalaren
Seite 35
Seien µ, λ ∈ R, A, B ∈ Mat(n, m; K). Dann ist λ(aij ) = (λaij )
λ(AB) = (λA)C = A(λC), λµA = µλA
(λ + µ)A = λA + µA, µ(A + B) = µA + µB
2.5
Transposition
Seite 36
Die Abbildung T : Mat(n, m; K) → Mat(m, n; K), (aij ) 7→ (aji ) heißt Transposition. Es gilt:
(AT )T = A, (A + B)T = AT + B T , (AB)T = B T AT
2.6
Lineare Gleichungssysteme
Seite 38-40; Wikipedia, Stichwort: Lösbarkeit“
”
Ein Vektor x ist eine Lösung des linearen Gleichungssystems, wenn Ax = b gilt. Ob und wie viele Lösungen
ein Gleichungssystem besitzt, ist unterschiedlich. Bei linearen Gleichungssystemen treten drei Fälle auf:
1. das lineare Gleichungssystem hat keine Lösung.
2. das lineare Gleichungssystem hat genau eine Lösung.
3. das lineare Gleichungssystem hat unendlich viele Lösungen, falls K kein endlicher Körper ist, ansonsten
ist die Anzahl der Lösungen eine Potenz der Mächtigkeit von K.
Dabei ist das lineare Gleichungssystem genau dann lösbar, wenn der Rang der Koeffizientenmatrix A gleich
dem Rang der erweiterten Koeffizientenmatrix ist. Entspricht der Rang der (erweiterten) Koeffizientenmatrix
auch noch der Anzahl der Unbekannten, so besitzt das Gleichungssystem genau eine Lösung.
Bei einem quadratischen Gleichungssystem gibt die Determinante Auskunft über die Lösbarkeit. Das Gleichungssystem ist genau dann eindeutig lösbar, wenn der Wert der Determinante der Koeffizientenmatrix
ungleich null ist. Ist der Wert jedoch gleich null, hängt die Lösbarkeit von den Werten der Nebendeterminanten
ab. Bei diesen wird jeweils eine Spalte der Koeffizientenmatrix durch die Spalte der rechten Seite (den Vektor b)
ersetzt. Nur wenn alle Nebendeterminanten den Wert null haben, kann das System unendlich viele Lösungen
haben, ansonsten ist das Gleichungssystem unlösbar.
Insbesondere Gleichungssysteme mit mehr Gleichungen als Unbekannten besitzen oft keine Lösung. Beispielsweise
besitzt das folgende Gleichungssystem keine Lösung, da x1 nicht beide Gleichungen erfüllen kann:
3x1 = 2
4x1 = 2 .
Lösungen werden dann meist über die Ausgleichungsrechnung definiert und bestimmt. Dass ein lineares Gleichungssystem unendlich viele Lösungen hat, kann nur vorkommen, wenn es weniger linear unabhängige Gleichungen als Unbekannte gibt. Beispielsweise besitzt das folgende, aus nur einer Gleichung bestehende Gleichungssystem unendlich viele Lösungen, nämlich alle Vektoren mit x2 = 1 − x1 : x1 + x2 = 1.
Sei Ax = 0 ein homogenes Gleichungssystem, A ∈ Mat(n, m; R), x ∈ Rm . Dann gilt: Lös(Ax = 0) ist eine
Untergruppe von (Rm , +) und falls x ∈ Lös(Ax = 0) und λ ∈ R, dann auch λx ∈ Lös(Ax = 0).
Beweis: A · 0 = 0 ⇒ 0 ∈ Lös(Ax = 0) 6= ∅. Falls x, y ∈ Lös(Ax = 0), dann Ax = Ay = 0 ⇒ A(x + y) =
Ax + Ay = 0 + 0 = 0 ⇒ (x + y) ∈ Lös(Ax = 0)
2.7
Quadratische Matrizen
Seite 40-41
Die Menge Mat(n, n; R) bildet, mit Matrizenmultiplikation und Matrizenaddition versehen, einen Ring. Eine
Matrix A heißt invertierbar, falls es ein B ∈ Mat(n, n; R) gibt, sodass AB = BA = 1.
Seite 4
6. Februar 2009
Frank Reinhold
3
Lineare Algebra
Vektorräume, Basen
3.1
Vektorraum
Seite 43-45
Ein Vektorraum über K ist eine Menge V , versehen mit einer Addition + : V × V → V , (v, w) 7→ v + w und
einer Multiplikation mit Skalaren · : K × V → V , (λ, v) 7→ λv, mit folgenden Eigenschaften:
1. (V, +) ist eine abelsche Gruppe.
2. ∀v ∈ V gilt 1K · v = v.
3. Assoziativität: ∀λ, µ ∈ K und ∀v ∈ V gilt: (λmu)v = λ(µv)
4. Distributivität: ∀λ, µ ∈ K und ∀v, w ∈ V gilt: (λ +K µ)v = λv + λw, λ(v + w) = λv + λw
Eine Teilmenge U ⊆ V mit der auf U eingeschränkten Addition und Multilikation mit Skalaren ist genau dann
ein Untervektorraum, wenn:
1. U 6= ∅.
2. U abgeschlossen bzgl. Addition.
3. U abgeschlossen bzgl. Multiplikation mit Skalaren.
3.2
Basis
Seite 46-56
T
Seien A ⊆ V , IA,V := {U |U ist Untervektorraum von V ∧ A ⊆ U }, dann ist span A := (U |U ∈ IA,V ) der von
A erzeugte Untervektorraum. Falls span A = V , dann erzeugt
A ⊆ V den Vektorraum V .
P
Es gilt: v ∈ span A, genau dann wenn ∃λa , a ∈ A mit v = a∈A λa a (Linearkombination). Im unendlichen
funktioniert das mit einer quasi-endlichen Familie von Skalaren analog.
Eine Familie von Vektoren (vP
i |i ∈ I) heißt linear abhängig, wenn es nicht-triviale quasi-endliche Familien von
Skalaren (λi |i ∈ I) gibt, mit ( i∈I λi vi = 0.
i=j
.
i 6= j
Wir definieren ei := (δij )j∈{1,...,n} ∈ Kn als die kanonische Basis von Kn .
Eine V erzeugende Familie von Vektoren ist genau dann minimal, wenn sie linear unabhängig ist. Eine linear
unabhängige Familie von Vektoren erzeugt V genau dann, wenn sie maximal ist. Dann ist diese Familie von
Vektoren eine Basis von V. Sei V ein Vektorraum, n ∈ N und (vi |i ∈ {1, . . . , n}) eine V erzeugende Familie.
Dann besitzt V eine Basis.
Basis-Ergänzungssatz: Sei V ein Vektorraum, (vi |i ∈ I) eine linear unabhängige Familie von Vektoren in V
und (vi |i ∈ J), J ⊇ I eine V erzeugende Familie. Dann gibt es eine Indexmenge K mit I ⊆ K ⊆ J, sodass
(vi |i ∈ K) eine Basis von V ist.
Beweis: Sei U := {(vi |i ∈ L)|I ⊆ L ⊆ J, (vi |i ∈ L) linear unabhängig}. Wir wollen zeigen, dass (U, ≤)
mindestens ein maximales Elemente (vi |i ∈ K) enthält. Dies ist dann die gesuchte Basis.
Alle Elemente von U sind von der Form (vi |i ∈ Iu ). Die vi sind immer die selben, nur Iu hängt von u ab. Wir
müssen also maximale Elemente von U := {L ⊆ J|I ⊆ L, (vi |i ∈ L) linear unabhängig} bezüglich der Relation
⊆ bestimmen.
Um die Existenz eines maximalen Elements zu zeigen,
wenden
wir das Lemma von Zorn an. Sei Q eine total
S
S
˜ ist linear
geordnete Teilmenge von U . Wir definieren I˜ := Q = A∈Q A ⊆ J. Nun behaupten wir: (vi |i ∈ I)
unabhängig.
P
˜
Um die Behauptung zu zeigen, nehmen wir an, dass 0 = i∈I˜ λi vi für eine quasi-endliche Familie (λi |i ∈ I).
P
ˆ
˜
Sei I := {i ∈ I|λi 6= 0}, also 0 = i∈Iˆ λi vi .
ˆ hat ein maximales Element
Zu jedem i ∈ Iˆ wählen wir ein Ii ∈ Q mit i ∈ Ii . Die endliche Menge {Ii |i ∈ I}
bezüglich ⊆, das wir I¯ nennen. Es ist ein Maximum dieser Menge, da diese Menge Teilmenge der total geordneten
¯ Da diese Familie (vi |i ∈ I)
¯ linear unabhängig ist, folgt λi = 0 für alle i und die
Menge Q ist. Es folgt Iˆ ⊆ I.
Behauptung ist gezeigt.
˜ ist somit eine obere Schranke von Q in U . Das Lemma von Zorn kann angewendet werden
Die Familie (vi |i ∈ I)
und die Existenz eines maximalen Elements folgt.
Kronecker-Symbol: δij =
6. Februar 2009
1
0
Seite 5
Lineare Algebra
3.3
Frank Reinhold
Dimension
Seite 57-59
Die Zeilenumformungen des Gauß’schen Verfahrens sind Äquivalenzumformungen. Sei r, k ∈ N und (v1 , . . . , vr )
ein linear unabhängiger r-Tupel von Vektoren in Kk . Dann gilt r ≤ k. Sei V ein Vektorraum mit Basis (vi |i ∈ I).
Dann ist die Dimension des Vektorraumes V definiert als: dim V = #I.
3.4
Basiswechsel
Seite 62-63
Sei (b1 , . . . , bn ) eine Basis von V und (v1 , . . . , vn ) = (b1 , . . . , bn )A. Dann besitzt A genau ein Links- und Rechtsinverses, wenn (v1 , . . . , vn ) eine Basis von V ist. Die Menge der invertierbaren Matrizen in Mat(n, n; K) nennen
wir die allgemeine lineare Gruppe GL(n; K).
Seien B = (b1 , . . . , bn ) und V = (v1 , . . . , vn ) = (b1 , . . . , bn )A zwei Basen. Ein Vektor w ∈ W habe bezüglich der
Basis V die Koordinaten (λ1 , . . . , λn ). Dann gilt:
 

 
 Pn
λ1
λ1
i=1 a1i λi
 
 


..
w = v1 · · · vn  ...  = b1 · · · bn A  ...  = b1 · · · bn 

.
Pn
a
λ
λn
λn
i=1 ni i
Sei (b1 , . . . , bn ) eine Basis und (v1 , . . . , vm ) = (b1 , . . . , bn )A. Falls A ∈ Mat(n, m; K) ein Rechtsinverses besitzt,
so erzeugt (v1 , . . . , vm ) den Raum. Falls A ein Linksinverses besitzt, so ist (v1 , . . . , vm ) linear unabhängig.
4
Lineare Abbildungen
Seite 65-69
Eine Abbildung f : V → W heißt linear, wenn f (λa + b) = λf (a) + f (b) ∀λ ∈ K, a, b ∈ V gilt. Man nennt
eine lineare Abbildung auch Homomorphismus. Einen surjektiven Homomorphismus nennt man Epimorphismus, einen injektiven Monomorphismus, einen bijektiven Isomorphismus. Einen Homomorphismus
V → V nennt man Endomorphismus, einen bijektiven Endomorphismus nennt man Automorphismus.
Der Kern von f : ker f := {v ∈ V |f (v) = 0} = f −1 ({0}) ist ein Untervektorraum von V . Das Bild von f :
im f := {f (v)|v ∈ V } = f (V ) ist ein Untervektorraum von W .
Sei f linear, dann ist f injektiv, genau dann wenn ker f = {0}.
Beweis: Sei f injektiv, dann hat 0 genau ein Urbild. 0 ∈ ker f , also ist ker f = {0}. Sei nun ker f = {0}. Falls
f (v) = f (w) für v, w ∈ V gilt, dann haben wir f (v − w) = f (v) − f (w) = 0, also v − w ∈ ker f . Also folgt v = w
⇒ f injektiv.
Rangformel: Sei f : V → W linear. Dann gilt dim V = dim ker f + dim im f . Der Rang von f ist definiert als
Rang f = dim im f .
4.1
Matrix einer Linearen Abbildung
Seite 70-72
Sei f : Km → Kn eine lineare Abbildung. Dann gibt es eine Matrix A ∈ Mat(n, m; K), sodass f = LA : Km →
Kn , v 7→ Av ist. Diese Matrix erhält man leicht als A := ( L(e1 ) ··· L(em ) ).
(v ,...,v )·A
(v ,...,v )
Basiswechsel: Mat(w11 ,...,wnm )·B (f ) = B −1 · Mat(w11 ,...,wnm ) (f ) · A.
4.2
Homomorphismen als Vektorräume
Seite 72-73
Die Menge hom(V, W ) versehen mit der Addition + : hom(V, W ) × hom(V, W ) → hom(V, W ), (f, g) 7→ (v →
7
(f + g)(v) = f (v) + g(v)) und der Multiplikation mit Skalaren · : K × hom(V, W ) → hom(V, W ), (α, f ) 7→ (v →
7
(αf )(v) = αf (v)) ist ein K-Vektorraum.
4.3
Dualraum
Seite 73-77
Wir nennen V 0 = hom(V, K) den Dualraum zu V . Vektoren in V 0 nennt man auch Linearformen auf V .
Ist a ∈ V 0 , a 6= 0, dim V = n, dann ist ker a ein n − 1-dimensionaler Untervektorraum von V .
Sei V endlich-dimensional und (b1 , . . . , bn ) eine Basis von V , dann definieren wir für i ∈ {1, . . . , n} die Linearform b0i : V → K durch die Angabe der Bilder der Basis (b1 , . . . , bn ): b0i (bj ) := δij . Ist (b1 , . . . , bn ) eine Basis
Seite 6
6. Februar 2009
Frank Reinhold
Lineare Algebra
von V , so ist (b01 , . . . , b0n ) eine Basis von V 0 . P
n
0
0
0
Beweis (Lineare
Unabhängigkeit):
Sei
i=1 λi bi = 0V ∈ V . Wir setzen bj ein und erhalten: 0K =
Pn
Pn
0
0
0
0V 0 (bj ) =
i=1 λi bi (bj ) =
i=1 λi δij = λj . Also sind alle λj = 0 und deswegen (b1 , . . . , bn ) linear unabhängig.
Pn
Beweis (Erzeugendensystem): Sei a ∈ V 0 . Unser Ziel ist es λi zu finden, so dass a = i=1 λi b0i . Um die
Formel zu motivieren,
nehmenPwir zunächst an, wir hätten sie bereits gezeigt und werten auf bj aus und erhalPn
n
ten: a(bj ) = i=1 λi b0i (bj ) = i=1 λi δij = λj . Wenn esPalso λj mit den gewünschten Eigenschaften gibt, dann
n
λj = a(bj ). Wir probieren also aus: λi := a(bi ), ã = i=1 λi b0i . Es folgt dann wie oben a(bj ) = λj = ã(bj ).
Somit stimmen a und ã auf der Basis (b1 , . . . , bn ) überein, also ã = a. Es folgt, dass (b01 , . . . , b0n ) den Raum V 0
erzeugt.
(w0 )
Sei (v1 , . . . , vm ) eine Basis von V , (w1 , . . . , wn ) eine Basis von W und f : V → W linear, dann gilt: Mat(v0i) (f 0 ) =
i
T
(vi )
Mat(wi ) (f ) .
∼ (im f )0 .
Sei f : V → W ein Homomorphismus zwischen beliebigen Vektorräumen. Dann gilt: im(f 0 ) =
4.4
Rang
Seite 77-81
Wir nennen dim im LA = Rang LA den Spaltenrang von A. Offensichtlich ist der Zeilenrang von A gleich dem
Spaltenrang von AT , das heißt der Zeilenrang von A ist gleich dim im LAT . Für jede Matrix A ∈ Mat(n, n; K)
stimmen Zeilenrang und Spaltenrang überein.
Beweis mit Dualräumen: Sei S der Spaltenrang und Z der Zeilenrang von A. Es gilt nach Definition:
S = dim im LA und Z ist der Spaltenrang von AT . Wir drücken die Abbildung (LA )0 : (Kn )0 → (Km )0 in den
(e0 ,...,e0 )
Basen (e01 , . . . , e0n ) und (e01 , . . . , e0m ) aus. Dann ist Mat(e01 ,...,e0n ) ((LA )0 ) = AT . Es folgt Z = Rang ((LA )0 ) =
m
1
dim im ((LA )0 ). Andererseits ist im ((LA )0 ) isomorph zu (im LA )0 und somit Z = dim(im LA )0 = dim im LA =
S.
Elementare Zeilenumformungen bewahren den Zeilen- bzw. Spaltenrang. Sei A ∈ Mat(n, m; K). Dann erhalten
wir aus A durch endlich viele elementare Zeilenumformungen eine Matrix in Zeilenstufenform.
5
Determinanten
Seite 83-85
Sei A := ( aa11
21
a12
a22
). Wir definieren die Determinante von A als det A := a11 a22 −a12 a21 . Diese Abbilung erfüllt:
1. det A 6= 0 ⇔ A invertierbar ⇔ Rang A = 2
2. det A = det AT
3. Bilinearität in Spalten und Zeilen
4. Alternierend in Spalten und Zeilen
5. det AB = det A det B, det 12 = 1, det A−1 = (det A)−1
Sei V ein 2-dimensionaler Vektorraum mit zwei Basen vi und wi . Dann gilt: Die Determinante ist unabhängig
von der Wahl der Basis.
vi
−1
i
i
Beweis: Wähle B, sodass Matvvii (f ) = B −1 Matw
Matw
wi (f )B. Dann ist det Matvi (f ) = det(B
wi (f )B) =
w
w
(det B)−1 det Matwii (f ) det B = det Matwii (f ).
Geometrische Interpretation: Ein Parallelogram werde von a = ( aa11
) und b = ( aa12
) aufgespannt. Dann ist
21
22
a11 a12
der Flächeninhalt gegeben durch | det ( a21 a22 ) |.
5.1
Symmetrische Gruppe
Seite 85-89
Wir versehen die Menge Sn := Bij({1, . . . , n}), n ∈ N mit der Verkettung von Abbildungen. Dies ist eine Gruppe
mit neutralem Element Id{1,...,n} . Man nennt sie die Permutationsgruppe oder Symmetrische Gruppe zum
Index n.
Eine Permutation σ ∈ Sn heißt Transposition von i und j, falls σ(i) = j, σ(j) = i und σ(k) = k ∀k ∈
{1, . . . , n} \ {i, j}. σ = [i, j] ist also ein Zykel der Länge 2.
Zwei Zykel heißen disjunkt, wenn kein Element sowogl von σ1 , als auch von σ2 verschoben wird, also entweder
σ1 (i) = i, oder σ2 (i) = i ∀i ∈ {1, . . . , n}. Jede Permutation ist die Verkettung von disjunkten Zykeln. Jede
6. Februar 2009
Seite 7
Lineare Algebra
Frank Reinhold
Permutation ist die Verkettung von Transpositionen. Ein Fehlstand einer Permutation σ ∈ Sn ist eine
Teilmenge {i, j} ⊆ {1, . . . , n}, i < j mit σ(i) > σ(j).
Q
∈ {−1, 1}. Für τ, σ ∈ Sn gilt: sgn(τ ◦ σ) = sgn(τ ) sgn(σ).
Signum: sgn(σ) := 1≤i<j≤n σ(j)−σ(i)
j−i
Eine Permutation ist genau dann gerade, wenn sie die Verkettung einer geraden Anzahl von Transpositionen
ist, oder wenn sie eine gerade Anzahl von Fehlständen hat.
5.2
Multilineare Abbildungen
Seite 89-97
Seien V1 , . . . , Vr , W Vektorräume über K. Eine Abbildung f : V1 × . . . × Vr → W heißt multilinear, falls
∀j ∈ {1, . . . , r} und alle v1 ∈ V1 , . . . , vr ∈ Vr die Abbildung Vj → W , v 7→ f (v1 , . . . , v, . . . , vr ) linear ist. Für
2-linear sagt man auch Bilinear.
Pn
Das kanonische Skalarprodukt auf Rn ist bilinear: Rn × Rn → R, (x, y) 7→ hx, yi = i=1 xi yi
Eine Abbildung F : V × . . . × V → W heißt alternierend, falls für alle v1 , . . . , vn ∈ V und i 6= j gilt:
F (v1 , . . . , vi , . . . , vj , . . . , vn ) = −F (v1 , . . . , vj , . . . , vi , . . . , vn ). Für alternierende r-lineare Abbildungen F und
σ ∈ Sr gilt: F (vσ(1) , . . . , vσ(r) ) = sgn(σ)F (v1 , . . . , vr ).
Die Funktion

  
a1n
a11
X

  
(sgn(σ)) · aσ(1)1 · . . . · aσ(n)n
det : Kn × . . . × Kn → K,  ...  . . .  ...  7→
σ∈S
n
ann
an1
ist eine Determinantenform auf
Kn . Für A, B ∈ Mat(n, n; K) gilt:
1. det(AB) = det(A) det(B)
2. Eine Matrix A ist genau dann invertierbar, wenn det(A) 6= 0.
3. Für alle quadratischen Matrizen A gilt: det(A) = det(AT ).
Sei f : V → V ein Endomorphismus, B eine Basis von V . Dann definieren wir die Determinante von f als
det(f ) := det(MatB
B (f )).
5.3
Berechnung von Determinanten
Seite 97-102
Diagonalmatrizen: det(Diag(λ1 , . . . , λn )) = λ1 · . . . · λn
Gauß’sches Verfahren: Elementare Zeilen- und Spaltenumformungen vom Typ 1 - Multiplikation einer Zeile
mit λ1 - multiplizieren die Determinante mit λ. Typ 2 - Addition einer Zeile zu einer anderen - erhält die
Determinante. Typ 3 - vertauschen zweier Zeilen - wechselt das Vorzeichen der Determinante.
Blockmatrizen: det ( A0 B
C ) = det(A) det(C) P
n
Laplacescher Entwicklungssatz: det(A) = i=1 (−1)i+j · aij · det(Âij )
Cramersche Regel: Aad · A = det(A) · 1n = A · Aad
6
Eigenwerte und Eigenvektoren
Seite 103-108
Sei V ein K-Vektorraum und F : V → V ein Endomorphismus. Ein Skalar λ ∈ K heißt Eigenwert von F , wenn
es ein v ∈ V \ {0} gibt, sodass F (v) = λv ist. Der Vektor v heißt der zu λ gehörige Eigenvektor von F . Der
Vektorraum EignF (λ) := ker(F − λ · Id) heißt der zu λ gehörige Eigenvektorraum von F . Seine Dimension
heißt Multiplizität des Eigenwertes λ.
Zwei Matrizen C, Ĉ heißen ähnlich, falls es ein A ∈ GL(n, K) gibt mit Ĉ = A−1 CA.
Eine Matrix C ∈ Mat(n, n; K) heißt diagonal, falls cij = 0 ∀i 6= j. Sie heißt trigonal, falls cij = 0 ∀i > j.
Ein Endomorphismus ist diagonalisierbar, falls es eine Basis B von V gibt, sodass MatB
B (f ) diagonal ist.
Eine Matrix ist genau dann diagonalisierbar, wenn sie ähnlich zu einer Diagonalmatrix ist. Die Summe von
verschiedenen Eigenräumen ist direkt. Ist n = dim V , dann gibt es höchstens n verschiedene Eigenwerte und
die Summe der Multiplizitäten aller Eigenwerte ist höchstens n.
Wir definieren die charakteristische Polynomfunktion von f als χf : K → K, χf (λ) = det(λ · Id − f ). Für
eine Matrix A als χa : K → K, χA (λ) = det(λ · 1 − A). Es gilt χf (x) = 0 genau dann, wenn x ein Eigenwert
von f ist.
Beweis: x ist Eigenwert von f , genau dann wenn 0 6= Eignf (x) = ker(f − x · Id), genau dann wenn x · Id − f
nicht invertierbar ist, genau dann wenn det(x · Id − f ) = 0.
Seite 8
6. Februar 2009
Frank Reinhold
7
Lineare Algebra
Euklidische und Unitäre Vektorräume
7.1
Bilinearformen
Seite 109-111
Sei V ein K-Vektorraum. Eine Abbildung F : V × V → K heißt Bilinearform auf V , falls ∀w ∈ V die
Abbildung V → K, v 7→ F (v, w) und V → K, v 7→ F (w, v) linear sind. Den Raum aller Bilinearformen auf V
bezeichnen wir mit Bilin(V ). Eine Bilinearform heißt symmetrisch, falls F (v, w) = F (w, v) ∀v, w ∈ V . Den
Raum aller symmetrischen Bilinearformen auf V bezeichnen wir als Sym2 (V ).
Sei (b1 , . . . , bn ) eine Basis von V . Die Abbildung mat(bi) : Bilin(V ) → Mat(n, n; K) ist ein Isomorphismus.
Basistransformation: Seien (b1 , . . . , bn ) und (d1 , . . . , dn ) = (b1 , . . . , bn ) · C zwei Basen von V . Dann gilt:
mat(di ) (F ) = C T · mat(bi ) (F ) · C.
7.2
Euklidische Vektorräume
Seite 111-115
Eine symmetrische Bilinearform G ∈ Bilin(V ) heißt positiv definit, falls G(v, v) > 0 ∀v ∈ V \ {0}. Eine positiv
definite symmetrische Bilinearform bezeichnen wir als Skalarprodukt auf V . Ein Euklidischer Vektorraum
ist ein Paar (V, G), wobei V ein reeller Vektorraum und G ein Skalarprodukt auf V ist.
Cauchy-Schwarzsche-Ungleichung: Auf einem Euklidischen Vektorraum (V, G) gilt ∀x, y ∈ V : G(x, y)2 ≤
G(x, x)G(y, y)
p und Gleichheit, wenn x und y linear abhängig sind. Wir definieren die von G induzierte Norm
als kxkG := G(x, x).
Sind v, w ∈ V \ {0}, so definiert man den Winkel zwischen v und w als die Zahl α ∈ [0, π], sodass cos(α) =
G(v,w)
kvkkwk .
Eine Familie von Vektoren (vi |i ∈ I) heißt orthogonal, falls vi ⊥wi ∀i ∈ I ⇔ G(vi , wi ) = 0 ∀i ∈ I. Sie heißt
orthonormal, wenn sie orthogonal ist und zusätzlich gilt kvi kG = 1 ∀i ∈ I. Jede orthogonale Familie von
Vektoren ist linear unabhängig.
Gram-Schmidtsches-Orthonormalisierungsverfahren: Sei (v1 , . . . , vn ) eine beliebige Basis von V . Dann
bestimmen wir induktiv:
b1 :=
7.3
k
X
v1
b̂2
, b̂2 := v2 − G(v2 , b1 )b1 , b2 :=
G(vi+1 , bi )bi
, . . . , b̂k+1 := vk+1 −
kv1 k
kb̂2 k
i=1
Unitäre Vektorräume
Seite 115-118
Eine Abbildung f : V → W heißt semi-linear, falls ∀v, w ∈ V und λ ∈ C gilt: f (λv + w) = λ̄f (v) + f (w). Sei
V ein komplexer Vektorraum. Eine Abbildung G : V × V → C heißt sesqui-linear, falls ∀w ∈ V die Abbildung
V → C, v 7→ G(w, v) semi-linear und V → C, v 7→ G(v, w) linear ist. Den Raum aller Sesquilinearformen auf V
bezeichnen wir als Sesqui(V ). Eine Sesquilinearform heißt hermitesch, falls G(v, w) = G(w, v). Eine Sesquilinearform heißt positiv definit,
Pn falls ∀v T∈ V \ {0} gilt: G(v, v) ∈ R und G(v, v) > 0.
Wir definieren hv, wiC
:=
n
i=1 vi w̄i = v w̄ als das kanonische Skalarprodukt auf C.
Wir sagen A ∈ Mat(n, n; C) ist hermitesch oder selbstadjungiert, wenn ĀT = A. Jede positiv definite
Sesquilinearform ist hermitesch.
Ein komplexes Skalarprodukt auf V ist eine positiv definite Sesquilinearform auf V . Ein unitärer Vektorraum ist ein Paar (V, G), wobei V ein komplexer Vektorraum und G ein komplexes Skalarprodukt auf V
ist.
7.4
Isometrien, orthogonale Matrizen
Seite 118-119
Seien V, W Euklidische Vektorräume. Eine Abbildung f : V → W heißt Isometrie, falls f linear ist und ∀v, w ∈
V gilt hf (v), f (w)iW = hv, wiV . Isometrien sind injektiv. Eine Matrix heißt orthogonal, falls LA : Rn → Rn
eine Isometrie ist, wobei A ∈ Mat(n, n; R). Für orthogonale Matrizen ist äquivalent:
1. A oder AT ist orthogonal.
2. AAT = AT A = 1n
3. Die Spalten bzw. Zeilen von A bilden eine Orthonormalbasis.
6. Februar 2009
Seite 9
Lineare Algebra
Frank Reinhold
Die orthogonalen n × n-Matrizen bilden, versehen mit der Matrizenmultiplikation, eine Gruppe, die sogenannte
orthogonale Gruppe O(n), eine Untergruppe von GL(n; R).
Beispiel: Die Abbildung R → R2 , x 7→ ( x0 ) ist eine Isometrie.
7.5
Isometrien, unitäre Matrizen
Seite 120-121
Seien V, W unitäre Vektorräume. Eine Abbildung f : V → W heißt Isometrie, falls f linear ist und ∀v, w ∈ V
gilt hf (v), f (w)iW = hv, wiV . Eine Matrix heißt unitär, falls LA : Cn → Cn eine Isometrie ist, wobei A ∈
Mat(n, n; C). Für unitäre Matrizen ist äquivalent:
1. A, Ā, AT , oder ĀT ist unitär.
2. AĀT = ĀT A = 1n
3. Die Spalten bzw. Zeilen von A bilden eine Orthonormalbasis.
Die unitären n × n-Matrizen bilden, versehen mit der Matrizenmultiplikation, eine Gruppe, die sogenannte
unitäre Gruppe U (n), eine Untergruppe von GL(n; C).
7.6
Orthonormale Hauptachsentransformation von rellen Bilinearformen
Seite 124
Sei (V, h., .i) ein n-dimensionaler Euklidischer Vektorraum, F ∈ Sym2 (V ). Dann gibt es eine Orthonormalbasis
(b1 , . . . , bn ) und λ1 , . . . , λn ∈ R, sodass

λ1

0
mat(bi ) (F ) = 
.
 ..
λ2
0
···
0
···
..
.
..
.
0

0
.. 
. 


0
λn
Oder anders ausgedrückt: F (bi , bj ) = δij λi .
7.7
Hauptachsentransformation von rellen Bilinearformen
Seite 125
Sei V ein endlich-dimensionaler Vektorraum und F ∈ Sym2 (V ). Dann gibt es eine orthogonale Basis (b1 , . . . , bn ),
sodass


1r 0
0
mat(bi ) (F ) =  0 −1s 0  , r + s + t = n
0
0
0t
Die Basis (bi ) berechnet sich folgendermaßen: Man führt eine orthonormale Hauptachsentransformation von
reellen Bilinearformen √
durch und teilt die Basisvektoren der Orthonormalbasis (ci ) durch die Wurzel des zugehörigen Eigenwertes λi .
7.8
Orthonormale Hauptachsentransformation von symmetrischen Matrizen
Seite 125-126
Sei A eine symmetrische n × n-Matrix. Dann gibt es eine Matrix S ∈ O(n), sodass S T AS = S −1 AS eine
Diagonalmatrix ist.
Zwei quadratische Matrizen A, B ∈ Mat(n, n; R) sind orthogonal ähnlich, falls es ein S ∈ O(n) gibt mit B =
S T AS. Eine Matrix A ist orthogonal diagonalisierbar, falls sie orthogonal ähnlich zu einer Diagonalmatrix
ist. Eine Matrix A ist genau dann orthogonal diagonalisierbar, wenn A symmetrisch ist.
7.9
Unitäre Hauptachsentransformation von hermiteschen Matrizen
Seite 129-130
Sei A ∈ Mat(n, n; C) hermitesch. Dann gibt es eine Matrix U ∈ U (n), sodass Ū T AU = U −1 AU eine Diagonalmatrix ist und auf der Diagonalen nur reelle Einträge stehen.
Seite 10
6. Februar 2009
Frank Reinhold
7.10
Lineare Algebra
Adjungierte Homomorphismen
Seite 130-132
Sei f ∈ hom(V, W ). Ein Operator g ∈ hom(W, V ) heißt adjungiert zu f , falls ∀v ∈ V und w ∈ W gilt:
hw, f (v)iW = hg(w), viV . Zu f ∈ hom(V, W ) gibt es genau einen adjungierten Homomorphismus f ∗ . Es
gilt (f ∗ )∗ = f . Die Abbildung hom(V, W ) → hom(W, V ), f 7→ f ∗ ist eine semilineare Bilinearform.
Es gilt: ker f ∗ = (im f )⊥ und im f ∗ = (ker f )⊥ , sowie f ∗ injektiv ⇔ f surjektiv, f ∗ surjektiv ⇔ f injektiv. Sei
V ein endlich-dimensionaler unitärer, bzw. Euklidischer Vektorraum. Ein Endomorphismus f ∈ End(V ) heißt
selbstadjungiert, wenn f ∗ = f .
7.11
Orthonormale Hauptachsentransformation von selbstadjungierten Matrizen
Seite 132-133
Sei V ein endlich-dimensionaler unitärer, bzw. Euklidischer Vektorraum und f ∈ End(V ). Dann ist f genau
dann selbstadjungiert, wenn es eine Orthonormalbasis B von V gibt, sodass MatB
B (f ) eine relle Diagonalmatrix
ist.
8
Polynome und Ringe
8.1
Polynome
Seite 3
Ein Polynom über R ist ein Rechenausdruck der Form P = a0 +a1 X +a2 X 2 +. . .+am X m , in den wir Elemente
eines Ringes S ⊇ R einsetzen können. P : R → R, r 7→ P (r) heißt die zu P assoziierte Polynomfunktion. ai
heißen Koeffizienten zu P . Zwei Polynome P = a0 + . . . + am X m und Q = b0 + . . . + bn X n sind gleich, falls:
1. ai = bi ∀i ∈ {0, . . . min{m, n}}
2. ai = 0 ∀i mit n < i ≤ m
3. bi = 0 ∀i mit m < i ≤ n
8.2
Addition und Multiplikation von Polynomen
Seite 3-5
Sei R ein kommutativer Ring. Wir definieren R[X] := Abbe (N0 , R) die Menge der quasi-endlichen Abbildungen
N0 → R als den Ring der Polynome über R. Elemente von R[X] heißen Polynome.
Addition: (ai )i∈N0 + (bi )i∈N0 := (ai + bi )i∈N0
P
Multiplikation: (ai )i∈N0 · (bi )i∈N0 := (ci )i∈N0 mit ci = k+l=i;k,l∈N0 ak bl
8.3
Ringe
Seite 5
Seien R, S Ringe mit 1. Eine Abbildung ϕ : R → S heißt Homomorphismus von Ringen, falls ϕ(x + y) =
ϕ(x) + ϕ(y) und ϕ(xy) = ϕ(x)ϕ(y) ∀x, y ∈ R und ϕ(1) = 1. Ein Element a eines Ringes R heißt Nullteiler
von R, falls a 6= 0 und ∃b ∈ R \ {0} mit ab = 0. R heißt Nullteilerfrei, wenn es keine Nullteiler gibt. R heißt
Integritätsring, wenn:
1. R ist kommutativer Ring.
2. 1 6= 0
3. R ist Nullteilerfrei.
Jeder Körper ist ein Integritätsring, jeder Unterring eines Integritätsrings ist selbst ein Integritätsring.
8.4
Eigenschaften der Polynome
Seite 6-8
Ein Monom ist ein Polynom der Form aX m , a ∈ R, m ∈ N0 . Das X in R[X] nennt man die Unbestimmte des
Polynomrings R[X]. deg P := max{i ∈ N0 |ai 6= 0} heißt Grad des Polynoms. Sei R ein Ring und P, Q ∈ R[X],
dann gilt:
1. deg(P + Q) ≤ max{deg P, deg Q}
6. Februar 2009
Seite 11
Lineare Algebra
Frank Reinhold
2. deg(P Q) ≤ deg Q + deg P , Gleichheit gilt, falls R Nullteilerfrei ist.
Sei ϕ : R → S ein Homomorphismus von Ringen,PR kommutativ.
PmFür A ∈ S definieren wir die Evaluation
m
oder Einsetzabbildung ev ϕA : R[X] → S, P = i=0 ai X i 7→ i=0 ϕ(ai )Ai .
Sei ϕ : R → S ein Homomorphismus von Ringen. Dann gilt:
1. ev ϕA |R = ϕ
2. evϕ
A (X) = A
ϕ
ϕ
3. evϕ
A (P + Q) = evA (P ) + evA (Q)
4. evϕ
A ist ein Homomorphismus von Ringen ⇔ ∀r ∈ R gilt ϕ(r)A = Aϕ(r).
8.5
Polynomdivision
Seite 8-9
Seien P, Q ∈ K[X], Q 6= 0. Dann gibt es
(eindeutige)
S, T ∈ K[X], sodass P = QS + T mit deg T < deg Q.
Beispiel:
6X 3 − 5X 2 − 11X − 6 ÷ X − 2 = 6X 2 + 7X + 3
− 6X 3 + 12X 2
7X 2 − 11X
− 7X 2 + 14X
3X − 6
− 3X + 6
0
8.6
Nullstellen von Polynomen
Seite 9
Sei P ∈ K[X]. α ∈ K heißt Nullstelle von P , falls P (α) = 0. α ∈ K ist Nullstelle, genau dann wenn
∃Q ∈ K[X] : Q(X − α) = P .
Beweis: Sei P = Q(X − α) ⇒ P (α) = Q(α)(α − α) = 0. Sei P (α) = 0. Dividiere P durch (X − α) ⇒ P =
S(X − α) + T mit deg T < deg(X − α) = 1 ⇒ ∃c ∈ K : T = c. 0 = P (α) = S(α)(α − α) + T (α) = c ⇒ c =
T ==∈ K[X]
8.7
Ideale und Hauptideale
Seite 10-12
Sei R ein Ring, I ⊆ R heißt Ideal, falls:
1. (I, +) ist eine Untergruppe von (R, +).
2. x · a ∈ I ∀x ∈ R, a ∈ I
3. a · x ∈ I ∀x ∈ R, a ∈ I
Man schreibt kurz I / R. Insbesondere ist I abgeschlossen unter Addition, x 7→ −x, Multiplikation.
Beispiel: Sei R = Z, k ∈ Z, dann ist {n · k|n ∈ Z} / Z.
Sei f : R → S ein Homomorphismus
T von Ringen, dann ist im f ein Unterring und ker f ein Ideal. Sei (ai )i∈I
eine Familie von Idealen.
Dann
ist
i∈I ai wieder ein Ideal.
T
Sei M ⊆ R. (M ) := M ⊆A⊆R A/R das kleinste Ideal von R, das M enthält. (M ) heißt das von M erzeugte
Ideal in R. M heißt Erzeugendensystem von (M ). Falls M endlich ist, M := {a1 , . . . , an } dann schreibt
man (a1 , . . . , an ) = ({a1 , . . . , an }). Ein Ideal heißt endlich erzeugt, falls ∃a1 , . . . , an ∈ A mit A = (a1 , . . . , an )
und Hauptideal, falls ∃b ∈ A mit A = (b). Ein Ring heißt Hauptidealring, falls R ein Integritätsring ist und
jedes Ideal von R ist ein Hauptideal.
Beispiel: Z ist ein Hauptidealring.
Ein Euklidischer Ring ist ein Integritätsring R mit einer Abbildung d : R \ {0} → N0 , sodass ∀p, q ∈ R, q 6=
0 : ∃s, t ∈ R mit p = qs + t mit t = 0, oder d(t) < d(q). Alle Euklidischen Ringe sind Hauptidealringe.
Beispiel: R = Z, d : Z → N0 , x 7→ |x|, dann ist (Z, d) ein Euklidischer Ring.
Seite 12
6. Februar 2009
Frank Reinhold
8.8
Lineare Algebra
Teiler, irreduzible und Primelemente
Seite 12-14
Seien R, S Integritätsringe. R∗ := {invertierbare Elemente in R} = {Einheiten von R}. Wir sagen a teilt b,
wenn a|b ⇔ ∃c ∈ R : b = ca. Seien a, b ∈ R \ {0}. a und b heißen assoziiert, wenn a ∼ b ⇔ a|b ∧ b|a ⇔ ∃c ∈
R∗ : b = ca. Dies ist eine Äquivalenzrelation. a ist ein echter Teiler von b ⇔ a|b ∧ a ∈
/ R∗ ∧ a 6∼ b. a ist
∗
∗
irreduzibel ⇔ a ∈
/ R ∧ a hat keine echten Teiler ⇔ a ∈
/ R ∧ Falls a = bc, dann b ∈ R∗ ∨ c ∈ R∗ . a ist
∗
reduzibel ⇔ ∃b, c ∈ R \ (R ∪ {0}), a = bc. a ist prim ⇔ a ∈
/ R∗ ∧ ∀b, c ∈ R : a|bc ⇒ a|b ∨ a|c. In einem
Integritätsring folgt aus prim die Irreduzibilität. Es gilt für a ∈ R:
1. a invertierbar ⇔ (a) = R
2. a|b ⇔ (b) ⊆ (a)
3. a ist echter Teiler von b ⇔ (b) ( (a) ∧ (a) 6= R
4. a ∼ b ⇔ (b) = (a)
5. Sei p ∈ R \ (R∗ ∪ {0}), p irreduzibel ⇔ 6 ∃ Hauptideal (b) ( R, sodass (p) ( (b).
Ein Polynom heißt normiert, falls am = 1 mit P = a0 + . . . + am X m , am 6= 0.
8.9
Größter gemeinsamer Teiler
Seite 15-16
c ist ein kleinstes gemeinsames Vielfaches kgV von a, b ⇔ (c) = (a)∩(b). d ist ein größter gemeinsamer
Teiler ggT von a, b ⇔ (a, b) = (d).
Euklidischer Algorithmus: Beim euklidischen Algorithmus wird in aufeinanderfolgenden Schritten jeweils
eine Division mit Rest durchgeführt, wobei der Rest im nächsten Schritt zum neuen Divisor wird. Der Divisor,
bei dem sich Rest 0 ergibt, ist der größte gemeinsame Teiler der Ausgangszahlen.
Beispiel:
1071 : 1029
1029 : 42
42 : 21
=1
Rest 42
= 24
Rest 21
=2
Rest 0
Somit ist 21 der größte gemeinsame Teiler von 1071 und 1029.
|m·n|
. Damit lässt sich das
Zusammenhang von ggT und kgV: Es gilt die folgende Formel kgV(m, n) = ggT(m,n)
kgV berechnen, falls der ggT (z. B. mit dem euklidischen Algorithmus) bereits bestimmt wurde. Umgekehrt
kann man mit dieser Formel auch den ggT aus dem kgV berechnen.
8.10
Primfaktorzerlegung
Seite 16-18
Existenz: Sei R ein Hauptidealring, a ∈ R \ (R∗ ∪ {0}). Dann gibt es k ∈ N und irreduzible Elemente
p1 , . . . , pk ∈ R, sodass a = p1 · . . . · pk .
Qr
Qs
Eindeutigkeit: Sei R ein Hauptidealring. Es gelte i=1 pi = j=1 qj , wobei p1 , . . . , pr , q1 , . . . , qs Primelemente
sind. Dann gilt r = s und ∃σ ∈ Sr , sodass pi ∼ qσ(i) ∀i ∈ {1, . . . , r}.
Ein Ring, in dem die Zerlegung in irreduzible Elemente immer existiert und eindeutig ist, heißt faktorieller
Ring. Wir sagen α ist eine Nullstelle von P mit Multiplizität m ∈ N, wenn (X − α)m |P , aber (X − α)m+1 6
|P . Sei P ∈ K[X]
Pn \ {0}, α1 , . . . , αn ∈ K verschiedene Nullstellen von P . Sei mi die Multiplizität der Nullstelle
αi . Dann gilt i=1 mi ≤ deg P .
8.11
Algebraische Abgeschlossenheit
Seite 19
Ein Körper K heißt algebraisch abgeschlossen, falls jedes Polynom P ∈ K[X] mit deg P ≥ 1 mindestens
eine Nullstelle besitzt. Es gilt dann sogar: Zu jedem P ∈ K[X] \ K gibt es r ∈ K ∗ und α1 , . . . , αm ∈ K mit
P = r · (X − α1 ) · . . . · (X − αm ).
Fundamentalsatz der Algebra: C ist algebraisch abgeschlossen.
6. Februar 2009
Seite 13
Lineare Algebra
8.12
Frank Reinhold
Reelle Polynome
Seite 19-21
Ein Polynom P ∈ R[X] ist irreduzibel, genau dann wenn deg P = 1 oder deg P = 2 mit P (X) = aX 2 + bX + c
mit 4ac > b2 .
Beweis: Sei 4ac > b2 . Angenommen P wäre reduzibel, dann ∃S1 , S2 ∈ R[X] mit deg S1 = deg S2 = 1 und
P = S1 S2 . P = S1 S2 = (p1 X + q1 )(p2 X + q2 ) = p1 p2 X 2 + (p1 q2 + p2 q1 )X + q1 q2 ⇒ b2 = (p1 q2 + p2 q1 )2 =
(p1 q2 − p2 q1 )2 + 4(p1 p2 q1 q2 ) ≥ 4ac
9
Charakteristisches und Minimalpolynom
9.1
Charakteristisches Polynom
Seite 21-28
Sei K ein Körper, A ∈ Mat(n, n; K). Das charakteristische Polynom von A ist definiert als χA := det(X ·
1 − A). Seien A, B ∈ Mat(n, n; K). Dann gilt:
1. χA ist ein normiertes Polynom vom Grad n.
2. Sind A und B ähnlich, so gilt χA = χB .
3. χAB = χBA
4. χAT = χA
5. χA (0) = (−1)n · det(A)
Sei R ein nicht-kommutativer
Ring. A ∈ R, P ∈ R[X].
gilt evAP
(P (X − A)) = 0.
Pm
PDann
m
m
i
i+1
i
Beweis:
Sei
P
=
a
X
,
a
∈
R.
P
(X
−
A)
=
a
X
−
i
i
i
i=0
i=0 ai AX . Dann ist evA (P (X − A)) =
Pm
Pm i=0 i
i+1
− i=0 ai AA = 0
i=0 ai A
Cayley-Hamilton: Sei K ein Körper, A ∈ Mat(n, n; K). Dann ist χA (A) = 0, also evA (χA ) = 0.
Beweis: ev : (X − A) ∈ (Mat(n, n; K))[X] → Mat(n, n; K[X]), Ψ : Mat(n, n; K[X]) → (Mat(n, n; K))[X].
χA = P
det(ev(X − A)) =P
det(A). Die Cramersche Regel gilt in K[X]: Aad · A = det(A) · 1n = χA · 1n . Schreibe
n
n
i
χA = i=0 ci A = evA ( i=0 (ci · 1n )X i ) = evA (Ψ(χA · 1n )) = evA (Ψ(Aad ) · Ψ(A)) = evA (Ψ(Aad ) · (X − A)) =
0
Pn
Sei A ∈ Mat(n, n; K), A = (aij )ij . Dann
=
i=0 aii . Sei χA das
Pnist die i Spur von A definiert als tr(A)
charakteristische Polynom von A. χA = i=0 ci X . Dann ist cn = 1, c0 = (−1)n det(A) und cn−1 = − tr(A).
Es gilt:
1. tr(AB) = tr(BA) = (n − 1)te Koeffizient von −χAB
2. tr(AT ) = tr(A) ∀A ∈ Mat(n, n; K)
3. D ∈ GL(n; K) ⇒ tr(A) = tr(D−1 AD)
Sei f ∈ End(V ) und Ab := Matbb (f ) bezüglich einer Basis b von V . Dann ist χf = χAb das charakteristische
Polynom des Endomorphismus f und tr(f ) = tr(Ab ) die
von f . Diese Definition ist invariant unter
QSpur
n
Basiswechsel. f ist triangulierbar, genau dann wenn χf = i=1 (X − λi ), λi 6= λj ∀i 6= j, das heißt χf zerfällt
vollständig in Linearfaktoren. Ist K algebraisch abgeschlossen, so ist jeder Endomorphismus triangulierbar.
9.2
Minimalpolynom
Seite 28
Sei µA ∈ K[X] das eindeutig bestimmte, normierte Polynom mit ker(evA ) = (µA ). Dann heißt µA das Minimalpolynom von A. Es gilt:
1. χA (A) = 0 ⇒ χA ∈ ker(evA ) = (µA ) ⇒ µA |χA
2. λ Eigenwert von A ⇒ µA (λ) = 0
Seite 14
6. Februar 2009
Frank Reinhold
9.3
Lineare Algebra
Normalformen von Endomorphismen
Seite 29-32
Zwei Elemente r, s eines Hauptidealringes R heißen teilerfremd, wenn 1 ein ggT von r und s ist. Sie U ein
Unterraum von V . f ∈ End(V ). Dann heißt U invariant unter f , falls f (U ) ⊆ U . Ein Endomorphismus
π ∈ End(V ) heißt idempotent, falls π 2 = π, V = im(f ) ⊕ ker(f ). Es gibt zu jeder Zerlegung von V = U1 ⊕ U2
eine Abbildung π ∈ End(V ) mit π 2 = π, im(π) = U1 ,ker(π) = U2 . Man nennt sie die Projektion von U1 mit
Kern U2 .
Zerlegungssatz für beliebig viele Faktoren: Sei V ein Vektorraum über K, f ∈ End(V ) und P ∈ K[X]\{0}
mit P (f ) = 0. Gilt P = Q1 · . . . · Qm für paarweise teilerfremde Qi ∈ K[X], so gilt:
1. Ui := ker Qi (f ) sind f -invariant.
2. V := U1 ⊕ . . . ⊕ Um
3. Es gibt Polynome Ri ∈ K[X], sodass Ri (f ) ist die Projektion auf Ui mit ker
9.4
L
j6=i
Uj .
Nilpotenz
Seite 32-35
Sei K ein Körper, V ein K-Vektorraum. A ∈ Mat(n, n; K) heißt nilpotent, falls Ak = 0 für ein k ∈ N. Analog
ist die Definition bei Endomorphismen zu verstehen. Falls k minimal gewählt ist, so ist A nilpotent von Stufe
k.
Sei A ∈ Mat(n, n; K) eine strikte obere Dreiecksmatrix mit (aij ) und aij = 0 ∀i ≥ j. Dann gilt An = 0. Falls
A ∈ Mat(n, n; K) nilpotent ist, gilt An = 0. A ∈ Mat(n, n; K) ist ähnlich zu einer strikten oberen Dreiecksmatrix
⇔ A ist nilpotent.
9.5
Jordansche Normalform
Seite 36-38
Ein Polynom P ∈ K[X] \ {0} zerfällt, wenn es r, α1 , . . . , αk ∈ K gibt, sodass P = r · (X − α1 ) · . . . · (X − αk ).
Ein n × n- Jordankästchen zum Eigenwert λ ∈ K ist die Matrix

λ

0
0
1
..
.

0
.. 
.  ∈ Mat(n, n; K)
0
λ
Sei V ein n-dimensionaler Vektorraum, f ∈ End(V ). Angenommen χf zerfällt, dann besitzt V eine Basis b,
sodass


Jλ1 ,m1


..
Matbb (f ) = 

.
Jλk ,mk
Charakteristisches- und Minimalpolynom in dieser Form: {λ1 , . . . , λk } = {α1 , . . . , αr } wobei λ mehrfach
Pλj =αi
Qr
genannt werden darf, die α jedoch paarweise verschieden sind. ki = j∈{1,...,k}
mj . Dann ist χf = i=1 (X−αi )li
mit 1 ≤ li ≤ ki und µ(Jλ,m ) = (X −λ)m . µf = kgV(µ(Jλ1 ,m1 ), . . . , µ(Jλk ,mk )) ⇒ li = maxj∈{1,...,k},λj =αi mj ≥
1. Die Länge des größten Jordanblockes eines Eigenwertes λk ist gleich der Multiplizität des Eigenwertes im
Minimalpolynom µA .
10
Diagonalisierbarkeit
Seite 38-40
α ∈ K heißt mehrfache Nullstelle eines Polynoms P ∈ K[X], falls (X −α)2 |P . Sei V ein endlich-dimensionaler
Vektorraum, f ∈ End(V ). f ist diagonalisierbar ⇔ χf zerfällt und µf hat keine mehrfachen Nullstellen. Seien
f, g ∈ End(V ) diagonalisierbar. f, g heißen simultan diagonalisierbar, falls es eine Basis b von V gibt, sodass
Matbb (f ) und Matbb (g) Diagonalmatrizen sind. Dies ist genau dann der Fall, wenn f ◦g = g◦f , sie kommutieren.
6. Februar 2009
Seite 15
Lineare Algebra
10.1
Frank Reinhold
Normalformen von Endomorphismen auf Räumen mit Skalarprodukt
Seite 40-47
Zwei Matrizen A, B ∈ Mat(n, n; K) heißen unitär/orthogonal ähnlich, falls es ein M ∈ U (n)/O(n) gibt mit
A = M −1 BM . A ist unitär/orthogonal diagonalisierbar ⇔ ∃ONB b, sodass A = Matbb (LA ) diagonal ist.
Jeder Endomorphismus f ∈ End(V ), mit V ist ein C-Vektorraum, ist trigonalisierbar. Ein Endomorphismus
f ∈ End(V ) heißt normal, falls f ∗ f = f f ∗ , analog bei Matrizen. Sind A und B unitär ähnlich, A normal, dann
ist auch B normal. Für normale Endomorphismen f ∈ End(V ) gilt:
1. kf (x)k = kf ∗ (x)k
2. ker f = ker f ∗
3. V = ker f ⊕ im f
4. Der Eigenraum zum Eigenwert λ von f ist gleich dem Eigenraum zum Eigenwert λ̄ von f ∗ .
5. µf hat nur einfache Nullstellen, also ist f diagonalisierbar.
Spektralsätze:
1. Sei K = C, A ∈ Mat(n, n; C) normal, also AĀT = ĀT A. Dann gilt: ∃U ∈ U (n) mit


λ1
0


..
U −1 AU = 

.
0
λn
2. Sei K = R, A ∈ Mat(n, n; R) eine Isometrie, also AAT = 1n . Dann gilt: ∃P ∈ O(n) mit


λ1
0


..


.




λ
cos ϕi − sin ϕi
r
−1


O AO = 
, ϕi ∈ [0, 2π),
 , Ai = sin ϕi
A1
cos ϕi




..


.
0
Al
|λi | = 1
3. Sei K = R, A ∈ Mat(n, n; R) selbstadjungiert, also AT = A, oder A symmetrisch. Dann gilt: ∃P ∈ O(n)
mit


λ1
0


..
P −1 AP = 

.
0
λn
Wir sagen f ist positiv definit, falls f selbstadjungiert ist und falls hx, f (x)i > 0 ∀x ∈ V \ {0}, positiv
semi-definit, falls f selbstadjungiert ist und hx, f (x)i ≥ 0 ∀x ∈ V \ {0}, indefinit, falls f selbstadjungiert ist
und weder positiv, noch negativ definit.
Sei V ein C-Vektorraum, f ∈ End(V ) normal, λ1 , . . . , λn die Eigenwerte von f , die entsprechend ihrer Multiplizitäten vorkommen. Dann gilt:
1. f ist unitär ⇔ |λj | = 1 ∀j ∈ {1, . . . , n}.
2. f ist selbstadjungiert ⇔ λj ∈ R ∀j ∈ {1, . . . , n} ⇔ Bf ist hermitesch.
3. f positiv semi-definit ⇔ λj ≥ 0 ∀j ∈ {1, . . . , n}.
10.2
Quadratwurzel
Seite 47
Sei V ein C-Vektorraum, f ∈ End(V ) positiv definit. Dann gibt es ein g ∈ End(V ), sodass g ≥ 0 und g 2 =
f , die Quadratwurzel von f ist. Zur Berechnung von g diagonalisiert man f , zieht die Wurzel aus der
Diagonalmatrix, und führt sie mittels der umgekehrten Basistransformation zurück. Die so erhaltene Matrix
entspricht g.
Seite 16
6. Februar 2009
Frank Reinhold
10.3
Lineare Algebra
Polarzerlegung
Seite 48-49
Sei U N (V ) die Menge der isometrischen Isomorphismen von V . U N (Cn ) ∼
= U (N ), dim V = n ∈ N, V ein
unitärer Vektorraum. Zu jedem f ∈ End(V ) gibt es ein u ∈ U N (V ), g ∈ End(V ), sodass f = u ◦ g. Zu jeder
Matrix A ∈ Mat(n, n; C) gibt es U ∈ U (N ), G ∈ Mat(n, n; C), sodass A = U · G und G ist positiv semi-definit.
Dann gilt weiterhin:
1. U ∗ = U −1 , G∗ = G ⇒ A∗ = (U G)∗ = G∗ U ∗ = GU −1 ⇒ A∗ A = G2 , also ist G die Quadratwurzel von
A∗ A.
2. ker A = {0} ⇒ G invertierbar ⇒ U = AG−1 .
10.4
Normalformen von Endomorphismen in Euklidischen Vektorräumen
Seite 49-53
Sei K = R, V ein Euklidischer Vektorraum, N 3 n
R[X], dann ist f orthogonal trigonalisierbar. f
selbstadjungiert ist, bzw. A symmetrisch ist. f heißt
AAT ist.
Sei f ein Endomorphismus mit f 2 = −Id. Dann gibt

J

b
..
Matb (f ) = 
.
= dim V , f ∈ End(V ), A ∈ Mat(n, n; R). Zerfällt χf in
ist orthogonal diagonalisierbar, genau dann wenn f
normal, falls f ∗ f = f f ∗ , A heißt normal, falls AT A =
es eine Basis b, sodass

0 1

 mit J = −1 0
J
Ist V ein Euklidischer Vektorraum, und f normal, dann kann man sogar eine ONB mit dieser Eigenschaft finden.
Ist A normal, A2 = −1, dann ist A orthogonal ähnlich zu einer solchen Matrix. In der Primfaktorzerlegung des
Minimalpolynoms eines normalen Endomorphismus kommt jeder Primfaktor höchstens einmal vor.
10.5
Normalformen von Isometrien und orthogonalen Matrizen
Seite 53-54
Sei f ∈ End(V ) eine Isometrie, A = Matbb (f ) ∈ O(n) und b eine ONB von V . Dann existiert eine ONB d von
V , m, k, l ∈ N0 , k + l + 2m = n = dim V , γ1 , . . . , γm ∈ (0, π), sodass


1k





Matdd (f ) = 




11
−1 l
cos γ1
− sin γ1
sin γ1
cos γ1
..
.
cos γm
− sin γm









sin γm 
cos γm
Affine Räume
Seite 55-58
Sei K ein Körper, V ein Vektorraum über K. Ein Affiner Raum über V ist eine nicht-leere Menge A mit einer
Operation + : V × A → A, sodass:
1. ∀v, w ∈ V, a ∈ A : (v + w) + a = v + (w + a).
2. ∀a, b ∈ A gibt es genau ein v ∈ V , sodass b = v + a, v := b − a.
Eine Abbildung ϕ : A0 → A1 zwischen zwei Affinen Räumen über K-Vektorräumen V0 , V1 ist eine Affine
Abbildung, falls es ein Lϕ ∈ hom(V0 , V1 ) gibt, mit: ϕ(v + a) = Lϕ (v) + ϕ(a) ∀v ∈ V, a ∈ A.
Aff(A) := {ϕ : A → A|ϕ ist ein Affiner Automorphismus}, (Aff(A), ◦) ist eine Gruppe. L : Aff(A) → GL(V ) ist
ein Gruppenhomomorphismus. Tv (a) = v + a heißt Translation um den Vektor v. Tv ◦ Tw = Tv+w .
Ein Affines Koordinatensystem ist gegeben durch (a0 , . . . , an ) ∈ A × . . . × A, sodass (a0~a1 , . . . , a0~an ) eine
T
T
Basis von V ist. Für a ∈ A ist dann vs (a) = ( x1 ··· xn ) der Koordinatenvektor, µs (a) = ( 1 x1 ··· xn ) der
inhomogene Koordinatenvektor.
Sei (V, Φ) ein Euklidischer Vektorraum über R. Dann heißt (A, V, Φ) Euklidischer Affiner Raum und d(a, b) =
6. Februar 2009
Seite 17
Lineare Algebra
Frank Reinhold
q
~ = Φ(ab,
~ ab)
~ heißt Abstand zwischen a und b. Eine affine Abbildung heißt Isometrie, genau dann wenn
kabk
d(ϕ(a), ϕ(b)) = d(a, b) ist. Eine Isometrie heißt Bewegung, falls ϕ bijektiv ist.
11.1
Quadrik
Seite 59-62
f : Rn → R heißt quadratische Funktion, falls
 
x1
X
  X
f  ...  =
αij xi xj + 2 ·
αj xj + α0
xn
Qf : {a ∈ A|f (vs (a)) = 0} heißt affine Quadrik. Zwei Quadriken Q, Q0 heißen kongruent, genau dann wenn
eine Bewegung ϕ mit ϕ(Q) = Q0 existiert.
Normalform der Quadriken: In jeder Äquivalenzklasse [Q] existiert eine Quadrik mit Gleichung:
r
X
i=1
r
X
i=1
r
X
λi x2i = 0
λi ∈ R, r ≤ n
λi x2i = 1
λi ∈ R, r ≤ n
λi x2i = 2xr+1
λi ∈ R, r ≤ n − 1
i=1
12
Tensorprodukt
Seite 63-77
Bil(V1 , V2 , W ) := {F : V1 × V2 → W |F bilinear} ist ein K-Vektorraum. Wir wollen einen Vektorraum Z
bestimmen, sodass Bil(V1 , V2 , W ) = hom(Z, W ).
Universelle Eigenschaft des Tensorproduktes: Seien V1 , V2 Vektorräume über K. Dann gibt es einen
K-Vektorraum Z und eine bilineare Abbildung H : V1 × V2 → Z mit den folgenden Eigenschaften: Zu jeder
bilinearen Abbildung F : V1 × V2 → W gibt es genau eine lineare Abbildung F̂ : Z → W , sodass
/W
s9
s
ss
ss
ss
H
s
s
ss F̂
ssss
Z
V1 × V2
F
kommutiert, also F = F̂ ◦ H.
Eindeutigkeit:
0
W
s9
s
s
s
F 0 sss
s
α
s
s
s
s
s
ss
/W
F
V1 × VK2
KK
KK
KK
KK
α0
KK
F0
KK
K% W0
0
Aber:
9W
ss
s
s
F 0 sss
Id
ss
s
s
s
s
s
s
/ W0
V1 × V2
0
⇒ (α0 ◦ α) ◦ F 0 = Id ◦ F 0 = F 0
F
Wir definieren V1 ⊗ V2 := Z als das Tensorprodukt von V1 und V2 . F⊗ := F̂ die von F induzierte lineare
Abbildung F⊗ : V1 ⊗ V2 → W . Seien v1 , ṽ1 ∈ V1 , v2 , ṽ2 ∈ V2 , λ ∈ K. Ein Tensorprodukt ist ein Paar
(V ⊗ W, F⊗ : V × W → V ⊗ W ) bestehend aus einem Vektorraum und einer bilinearen Abbildung, die die
universelle Eigenschaft des Tensorproduktes erfüllt. Für das Tensorprodukt gilt:
Seite 18
6. Februar 2009
Frank Reinhold
Lineare Algebra
1. (v1 + ṽ1 ) ⊗ v2 = v1 ⊗ v2 + ṽ1 ⊗ v2
2. (λv1 ) ⊗ v2 = λ(v1 ⊗ v2 )
3. v1 ⊗ (λv2 ) = λ(v1 ⊗ v2 )
4. v1 ⊗ (v2 + ṽ2 ) = v1 ⊗ v2 + v1 ⊗ ṽ2
5. {v1 ⊗ v2 |v1 ∈ V1 , v2 ∈ V2 } ⊆ V1 ⊗ V2 im Allgemeinen nicht gleich! Kein Untervektorraum!
Elemente von V ⊗ W heißen Tensoren. Ein Tensor t ∈ V ⊗ W heißt zerlegbar, wenn es v ∈ V und w ∈ W
gibt, sodass t = v ⊗ w gilt.
Matrixdarstellung von Tensoren: Sei b = (b1 , . . . , bn ) eine Basis von V , c = (c1 , . . . , cm ) eine Basis von W .
bP⊗ c =
(bi ⊗ cj )i∈{1,...,n},j∈{1,...,m} eine Basis von V ⊗ W . Dann ist ϑb⊗c : Mat(n, m; K) → V ⊗ W, (aij )ij 7→
n Pm
i=1
j=1 aij · bi ⊗ cj ein Isomorphismus von Vektorräumen.
Basiswechsel: Sei v = b · R eine weitere Basis von V , w = c · S eine weitere Basis von W . Es gilt ∀t ∈ V ⊗ W :
−1
T
R · ϑ−1
v⊗w (t) · S = ϑb⊗c (t). Insbesondere gilt: dim V < ∞, dim W < ∞ ⇒ dim V ⊗ W = dim V · dim W < ∞.
Zerlegbarkeit: Sei t ∈ V ⊗ W , dann sind äquivalent:
1. t ist zerlegbar.
2. Es existiert eine Basis b von V und c von W , sodass Rang(ϑ−1
b⊗c (t)) ≤ 1.
3. Dies gilt für alle Basen von V und W .
Beispielaufgabe: ∃f :
R2 ⊗ R2 → R2 mit f (v, w) =
R2 × R2 → R2 bilinear, mit f ◦ H = g ⇒ g(v, w) =
v12 w2
? Annahme: Es existiert solch ein f . ⇒ ∃g :
2
v22 w1 v1 w2
. Widerspruch zur Bilinearität, wie sich leicht
v2 w12
überprüfen lässt. Also existiert f nicht.
13
Äußeres Produkt
Seite 77-85
Universelle Eigenschaft des Äußeren Produktes: Sei V ein K-Vektorraum, r ∈ N. Dann gibt es einen
Vektorraum Z und eine alternierende r-lineare Abbildung A : V × . . . × V → Z, sodass gilt: Zu jeder alternierenden r-linearen Abbildung ω : V × . . . × V → W gibt es genau eine lineare Abbildung ω∧ : Z → W ,
sodass
ω
/W
V × ... × V
s9
s
ss
ss
ss
A
s
s
ss ω∧
ssss
Z
kommutiert, also ω = ω∧ ◦ A.
Wir schreiben Λr V = V ∧ . . . ∧ V dür dieses Z. A : V × . . . × V → Λr V heißt kanonische Abbildung. Man
nennt es das r-fache äußere Produkt von V , oder r-fache äußere Potenz, oder Dach-Produkt.
Es gilt: span(im(A)) = Λr V
Rechenregeln:
1. λ(v1 ∧ . . . ∧ vr ) = v1 ∧ . . . ∧ (λvi ) ∧ . . . ∧ vr
2. v1 ∧ . . . ∧ vi + vj ∧ . . . ∧ vr = v1 ∧ . . . ∧ vi ∧ . . . ∧ vr + v1 ∧ . . . ∧ vj ∧ . . . ∧ vr
3. v1 ∧ . . . ∧ vr = 0 falls vi = vj für i < j
4. 0 = (v1 + v2 ) ∧ (v1 + v2 ) = v1 ∧ v1 + v1 ∧ v2 + v2 ∧ v1 + v2 ∧ v2 ⇒ v1 ∧ v2 = −v2 ∧ v1
Basis von Λr V : Sei (b1 , . . . , bn ) eine Basis von V . Dann ist B = (bi1 ∧ . . . ∧ bir |(i1 , . . . , ir ) ∈ J), J :=
{(i1 , . . . , ir ) ∈ {1, . . . , n}r |i1 < . . . < ir } eine Basis von Λr V . Es gilt: dim V = n ⇒ dim Λr V = ( nr )
Beispiel: Sei K = R, V = R3 , (e1 , e2 , e3 ) eine Basis von V . Dann ist (e1 ∧ e2 , e1 ∧ e3 , e2 ∧ e3 ) eine Basis von
Λ2 V .
Beispiel: Sei (v1 , . . . , vn ) eine Basis von V . Dann ist vi ∧ vj , i < j eine Basis von Λ2 V , vi ∧ vj ∧ vk , i < j < k
eine Basis von Λ3 V , etc.
6. Februar 2009
Seite 19
Lineare Algebra
14
Frank Reinhold
Algebra
Seite 85-87
Eine K-Algebra A ist ein Vektorraum, auf dem eine K-lineare Abbildung • : A × A → A existiert, sodass
(A, +, •) ein Ring ist. Falls der Ring kommutativ ist, nennt man die Algebra kommutative Algebra, mit 1
Algebra mit 1.
Beispiel: Mat(n, n; K) ist eine K-Algebra, nicht kommutativ, falls n ≥ 2.
Beispiel:
K[X] ist eine K-Algebra.
Nr
V := V ⊗ . . . ⊗ V , Λr V := V ∧ . . . ∧ V .
Nr
Ns
Nr+s
Es gibt genau eine bilineare Abbildung µr,s : (
V )×(
V)→
V , sodass (v1 ⊗ . . . ⊗ vr , w1 ⊗ . . . ⊗
ws ) 7→ v1 ⊗ . . . ⊗ vr ⊗ w1 ⊗ . . . ⊗ ws . Diese Abbildung ist assoziativ.
N∗
L
Ni
Algebra der Tensoren:
V = i∈N0
V.
Es gibt genau eine bilineare Abbildung ηr,s : (Λr V )×(Λs V ) → Λr+s V , sodass (v1 ∧. . .∧vr , w1 ∧. . .∧ws ) 7→
v1 ∧ . . . ∧ vr ∧ w1 ∧ . . . ∧ wsL
. Diese Abbildung ist assoziativ.
Äußere Algebra: Λ∗ V = i∈N0 Λi V .
Seite 20
6. Februar 2009
Herunterladen