Lineare Algebra - 1. Semester

Werbung
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
Lineare Algebra - 1. Semester
1. Gruppe
Seite 23-28
Eine Gruppe ist eine Menge X mit einer Verknüpfung ◦, für die gilt:
(a) Assoziativität: ∀x, y, z ∈ X gilt: (x ◦ y) ◦ z = x ◦ (y ◦ z).
(b) Neutrales Elemente: ∃e ∈ X, sodass ∀x ∈ X gilt: e ◦ x = x = x ◦ e.
(c) Inverses Element: ∀x ∈ X∃y ∈ X, sodass gilt: x ◦ y = e = y ◦ x.
(d) (Kommutativität: ∀x, y ∈ X gilt: x ◦ y = y ◦ x) ⇒ abelsche Gruppe.
2. Ring
Seite 28-31
Ein Ring ist eine Menge R mit zwei Verknüpfungen +, ·, für die gilt:
(a) (R, +) ist eine abelsche Gruppe.
(b) (R, ·) ist assoziativ.
(c) +, · erfüllen das Distributivgesetz: ∀x, y, z ∈ R gilt: x · (y + z) = x · y + x · z.
(d) ((R, ·) besitzt ein neutrales Elemten) ⇒ Ring mit 1.
(e) ((R, ·) ist kommutativ) ⇒ kommutativer Ring.
3. Körper
Seite 31
Ein Körper ist eine Menge K mit zwei Verknüpfungen +, ·, für die gilt:
(a) (R, +) ist eine abelsche Gruppe.
(b) (R, ·) ist eine abelsche Gruppe.
(c) +, · erfüllen das Distributivgesetz.
4. n × m-Matrix
Seite 33-34
Eine Abbildung {1, . . . , n} × {1, . . . , m} → R, (i, j) 7→ aij heißt
! n × m-Matrix.
a11 ··· a1m
..
..
A ∈ Mat(n, m; K) dann ist A von der Form: A =
.
.
.
an1 ··· anm
Für n = 1: A = ( a11 ···!a1m ) heißt Zeilenvektor.
a11
..
Für m = 1: A =
heißt Spaltenvektor.
.
an1
Ist n = m, dann heißt die Matrix quadratische Matrix.
5. Addition von Matrizen
Seite 34
Seien A, B ∈ Mat(n, m; K). Dann ist die Addition von Matrizen definiert als

 
 
a11 · · · a1m
b11 · · · b1m
a11 + b11 · · ·
 ..




.
.
.
..
..  +  ..
..  = 
A + B :=  .
.
an1
···
anm
bn1
···
bnm
an1 + bn1
···

a1m + b1m

..

.
anm + bnm
6. Multiplikation von Matrizen
Seite 34-35
Man kann eine k×l-Matrix mit einer m×n-Matrix multiplizieren,
falls l = m. Wir definieren das Produkt
Pl
zweier Matrizen (cij )i∈{1,...,k},j∈{1,...,n} durch cij := x=1 aix bxj
7. Multiplikation von Matrizen mit Skalaren
Seite 35
Seien µ, λ ∈ R, A, B ∈ Mat(n, m; K). Dann ist λ(aij ) = (λaij )
λ(AB) = (λA)C = A(λC), λµA = µλA
(λ + µ)A = λA + µA, µ(A + B) = µA + µB
22. Oktober 2008
Seite 1
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
8. Transposition
Seite 36
Die Abbildung T : Mat(n, m; K) → Mat(m, n; K), (aij ) 7→ (aji ) heißt Transposition. Es gilt:
(AT )T = A, (A + B)T = AT + B T , (AB)T = B T AT
9. Lineare Gleichungssysteme
Seite 38-40; Wikipedia, Stichwort: Lösbarkeit“
”
Ein Vektor x ist eine Lösung des linearen Gleichungssystems, wenn Ax = b gilt. Ob und wie viele
Lösungen ein Gleichungssystem besitzt, ist unterschiedlich. Bei linearen Gleichungssystemen treten drei
Fälle auf:
(a) das lineare Gleichungssystem hat keine Lösung.
(b) das lineare Gleichungssystem hat genau eine Lösung.
(c) das lineare Gleichungssystem hat unendlich viele Lösungen, falls K kein endlicher Körper ist, ansonsten ist die Anzahl der Lösungen eine Potenz der Mächtigkeit von K.
Dabei ist das lineare Gleichungssystem genau dann lösbar, wenn der Rang der Koeffizientenmatrix A
gleich dem Rang der erweiterten Koeffizientenmatrix ist. Entspricht der Rang der (erweiterten) Koeffizientenmatrix auch noch der Anzahl der Unbekannten, so besitzt das Gleichungssystem genau eine
Lösung.
Bei einem quadratischen Gleichungssystem gibt die Determinante Auskunft über die Lösbarkeit. Das
Gleichungssystem ist genau dann eindeutig lösbar, wenn der Wert der Determinante der Koeffizientenmatrix ungleich null ist. Ist der Wert jedoch gleich null, hängt die Lösbarkeit von den Werten der
Nebendeterminanten ab. Bei diesen wird jeweils eine Spalte der Koeffizientenmatrix durch die Spalte der
rechten Seite (den Vektor b) ersetzt. Nur wenn alle Nebendeterminanten den Wert null haben, kann das
System unendlich viele Lösungen haben, ansonsten ist das Gleichungssystem unlösbar.
Insbesondere Gleichungssysteme mit mehr Gleichungen als Unbekannten besitzen oft keine Lösung.
Beispielsweise besitzt das folgende Gleichungssystem keine Lösung, da x1 nicht beide Gleichungen erfüllen
3x1 = 2
kann: 4x
.
1 = 2
Lösungen werden dann meist über die Ausgleichungsrechnung definiert und bestimmt. Dass ein lineares
Gleichungssystem unendlich viele Lösungen hat, kann nur vorkommen, wenn es weniger linear unabhängige
Gleichungen als Unbekannte gibt. Beispielsweise besitzt das folgende, aus nur einer Gleichung bestehende
Gleichungssystem unendlich viele Lösungen, nämlich alle Vektoren mit x2 = 1 − x1 : x1 + x2 = 1.
Sei Ax = 0 ein homogenes Gleichungssystem, A ∈ Mat(n, m; R), x ∈ Rm . Dann gilt: Lös(Ax = 0) ist
eine Untergruppe von (Rm , +) und falls x ∈ Lös(Ax = 0) und λ ∈ R, dann auch λx ∈ Lös(Ax = 0).
Beweis: A · 0 = 0 ⇒ 0 ∈ Lös(Ax = 0) 6= ∅. Falls x, y ∈ Lös(Ax = 0), dann Ax = Ay = 0 ⇒ A(x + y) =
Ax + Ay = 0 + 0 = 0 ⇒ (x + y) ∈ Lös(Ax = 0)
10. Quadratische Matrizen
Seite 40-41
Die Menge Mat(n, n; R) bildet, mit Matrizenmultiplikation und Matrizenaddition versehen, einen Ring.
Eine Matrix A heißt invertierbar, falls es ein B ∈ Mat(n, n; R) gibt, sodass AB = BA = 1.
11. Vektorraum
Seite 43-45
Ein Vektorraum über K ist eine Menge V , versehen mit einer Addition + : V × V → V , (v, w) 7→ v + w
und einer Multiplikation mit Skalaren · : K × V → V , (λ, v) 7→ λv, mit folgenden Eigenschaften:
(a) (V, +) ist eine abelsche Gruppe.
(b) ∀v ∈ V gilt 1K · v = v.
(c) Assoziativität: ∀λ, µ ∈ K und ∀v ∈ V gilt: (λmu)v = λ(µv)
(d) Distributivität: ∀λ, µ ∈ K und ∀v, w ∈ V gilt: (λ +K µ)v = λv + λw, λ(v + w) = λv + λw
Eine Teilmenge U ⊆ V mit der auf U eingeschränkten Addition und Multilikation mit Skalaren ist genau
dann ein Untervektorraum, wenn:
(a) U 6= ∅.
(b) U abgeschlossen bzgl. Addition.
(c) U abgeschlossen bzgl. Multiplikation mit Skalaren.
22. Oktober 2008
Seite 2
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
12. Basis
Seite 46-56
T
Seien A ⊆ V , IA,V := {U |U ist Untervektorraum von V ∧ A ⊆ U }, dann ist span A := (U |U ∈ IA,V ) der
von A erzeugte Untervektorraum. Falls span A = V , P
dann erzeugt A ⊆ V den Vektorraum V .
Es gilt: v ∈ span A, genau dann wenn ∃λa , a ∈ A mit v = a∈A λa a (Linearkombination). Im unendlichen funktioniert das mit einer quasi-endlichen Familie von Skalaren analog.
Eine Familie von Vektoren (vi |i ∈ I) heißt
P linear abhängig, wenn es nicht-triviale quasi-endliche Familien von Skalaren (λi |i ∈ I) gibt,
mit
i∈I λi vi = 0.
(
i=j
.
i 6= j
Wir definieren ei := (δij )j∈{1,...,n} ∈ Kn als die kanonische Basis von Kn .
Eine V erzeugende Familie von Vektoren ist genau dann minimal, wenn sie linear unabhängig ist. Eine
linear unabhängige Familie von Vektoren erzeugt V genau dann, wenn sie maximal ist. Dann ist diese
Familie von Vektoren eine Basis von V. Sei V ein Vektorraum, n ∈ N und (vi |i ∈ {1, . . . , n}) eine V
erzeugende Familie. Dann besitzt V eine Basis.
Basis-Ergänzungssatz: Sei V ein Vektorraum, (vi |i ∈ I) eine linear unabhängige Familie von Vektoren
in V und (vi |i ∈ J), J ⊇ I eine V erzeugende Familie. Dann gibt es eine Indexmenge K mit I ⊆ K ⊆ J,
sodass (vi |i ∈ K) eine Basis von V ist.
Beweis: Sei U := {(vi |i ∈ L)|I ⊆ L ⊆ J, (vi |i ∈ L) linear unabhängig}. Wir wollen zeigen, dass (U, ≤)
mindestens ein maximales Elemente (vi |i ∈ K) enthält. Dies ist dann die gesuchte Basis.
Alle Elemente von U sind von der Form (vi |i ∈ Iu ). Die vi sind immer die selben, nur Iu hängt von u ab.
Wir müssen also maximale Elemente von U := {L ⊆ J|I ⊆ L, (vi |i ∈ L) linear unabhängig} bezüglich der
Relation ⊆ bestimmen.
Um die Existenz eines maximalen Elements zu zeigen,Swenden
S wir das Lemma von Zorn an. Sei Q eine
˜
total geordnete Teilmenge von U . Wir definieren I˜ := Q = A∈Q A ⊆ J. Nun behaupten wir: (vi |i ∈ I)
ist linear unabhängig.
P
Um die Behauptung zu zeigen, nehmen wir an, dass 0 =
i∈I˜ λi vi für eine quasi-endliche Familie
P
˜
ˆ
˜
(λi |i ∈ I). Sei I := {i ∈ I|λi 6= 0}, also 0 = i∈Iˆ λi vi .
ˆ hat ein maximales Element
Zu jedem i ∈ Iˆ wählen wir ein Ii ∈ Q mit i ∈ Ii . Die endliche Menge {Ii |i ∈ I}
¯
bezüglich ⊆, das wir I nennen. Es ist ein Maximum dieser Menge, da diese Menge Teilmenge der total
¯ Da diese Familie (vi |i ∈ I)
¯ linear unabhängig ist, folgt λi = 0 für
geordneten Menge Q ist. Es folgt Iˆ ⊆ I.
alle i und die Behauptung ist gezeigt.
˜ ist somit eine obere Schranke von Q in U . Das Lemma von Zorn kann angewendet
Die Familie (vi |i ∈ I)
werden und die Existenz eines maximalen Elements folgt.
Kronecker-Symbol: δij =
1
0
13. Dimension
Seite 57-59
Die Zeilenumformungen des Gauß’schen Verfahrens sind Äquivalenzumformungen. Sei r, k ∈ N und
(v1 , . . . , vr ) ein linear unabhängiger r-Tupel von Vektoren in Kk . Dann gilt r ≤ k. Sei V ein Vektorraum mit Basis (vi |i ∈ I). Dann ist die Dimension des Vektorraumes V definiert als: dim V = #I.
14. Basiswechsel
Seite 62-63
Sei (b1 , . . . , bn ) eine Basis von V und (v1 , . . . , vn ) = (b1 , . . . , bn )A. Dann besitzt A genau ein Linksund Rechtsinverses, wenn (v1 , . . . , vn ) eine Basis von V ist. Die Menge der invertierbaren Matrizen in
Mat(n, n; K) nennen wir die allgemeine lineare Gruppe GL(n; K).
Seien B = (b1 , . . . , bn ) und V = (v1 , . . . , vn ) = (b1 , . . . , bn )A zwei Basen. Ein Vektor w ∈ W habe bezüglich
der Basis V die Koordinaten (λ1 , . . . , λn ). Dann gilt:
 
 
 Pn

λ1
λ1
i=1 a1i λi
 
 


..
w = v1 · · · vn  ...  = b1 · · · bn A  ...  = b1 · · · bn 

.
Pn
λn
λn
a
λ
i=1 ni i
Sei (b1 , . . . , bn ) eine Basis und (v1 , . . . , vm ) = (b1 , . . . , bn )A. Falls A ∈ Mat(n, m; K) ein Rechtsinverses
besitzt, so erzeugt (v1 , . . . , vm ) den Raum. Falls A ein Linksinverses besitzt, so ist (v1 , . . . , vm ) linear
unabhängig.
15. Lineare Abbildungen
Seite 65-69
Eine Abbildung f : V → W heißt linear, wenn f (λa + b) = λf (a) + f (b) ∀λ ∈
22. Oktober 2008
K, a, b ∈ V gilt.
Seite 3
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
Man nennt eine lineare Abbildung auch Homomorphismus. Einen surjektiven Homomorphismus nennt
man Epimorphismus, einen injektiven Monomorphismus, einen bijektiven Isomorphismus. Einen
Homomorphismus V → V nennt man Endomorphismus, einen bijektiven Endomorphismus nennt man
Automorphismus.
Der Kern von f : ker f := {v ∈ V |f (v) = 0} = f −1 ({0}) ist ein Untervektorraum von V . Das Bild von f :
im f := {f (v)|v ∈ V } = f (V ) ist ein Untervektorraum von W .
Sei f linear, dann ist f injektiv, genau dann wenn ker f = {0}.
Beweis: Sei f injektiv, dann hat 0 genau ein Urbild. 0 ∈ ker f , also ist ker f = {0}. Sei nun ker f = {0}.
Falls f (v) = f (w) für v, w ∈ V gilt, dann haben wir f (v − w) = f (v) − f (w) = 0, also v − w ∈ ker f . Also
folgt v = w ⇒ f injektiv.
Rangformel: Sei f : V → W linear. Dann gilt dim V = dim ker f +dim im f . Der Rang von f ist definiert
als Rang f = dim im f .
16. Matrix einer Linearen Abbildung
Seite 70-72
Sei f : Km → Kn eine lineare Abbildung. Dann gibt es eine Matrix A ∈ Mat(n, m; K), sodass f = LA :
Km → Kn , v 7→ Av ist. Diese Matrix erhält man leicht als A := ( L(e1 ) ··· L(em ) ).
(v ,...,v )·A
(v ,...,v )
Basiswechsel: Mat(w11 ,...,wnm )·B (f ) = B −1 · Mat(w11 ,...,wnm ) (f ) · A.
17. Homomorphismen als Vektorräume
Seite 72-73
Die Menge hom(V, W ) versehen mit der Addition + : hom(V, W ) × hom(V, W ) → hom(V, W ), (f, g) 7→
(v 7→ (f + g)(v) = f (v) + g(v)) und der Multiplikation mit Skalaren · : K × hom(V, W ) → hom(V, W ),
(α, f ) 7→ (v 7→ (αf )(v) = αf (v)) ist ein K-Vektorraum.
18. Dualraum
Seite 73-77
Wir nennen V 0 = hom(V, K) den Dualraum zu V . Vektoren in V 0 nennt man auch Linearformen auf
V . Ist a ∈ V 0 , a 6= 0, dim V = n, dann ist ker a ein n − 1-dimensionaler Untervektorraum von V .
Sei V endlich-dimensional und (b1 , . . . , bn ) eine Basis von V , dann definieren wir für i ∈ {1, . . . , n} die
Linearform b0i : V → K durch die Angabe der Bilder der Basis (b1 , . . . , bn ): b0i (bj ) := δij . Ist (b1 , . . . , bn )
V 0.
eine Basis von V , so ist (b01 , . . . , b0n ) eine Basis
Pvon
n
0
0
0
Beweis (Lineare
Unabhängigkeit):
Sei
λ
i=1 i bi = 0V ∈ V . Wir setzen bj ein und erhalten: 0K =
Pn
Pn
0
0
0
0V 0 (bj ) =
λ
b
(b
)
=
λ
δ
=
λ
.
Also
sind
alle
λ
j
j = 0 und deswegen (b1 , . . . , bn ) linear
i=1 i i j
i=1 i ij
unabhängig.
Pn
0
Beweis (Erzeugendensystem): Sei a ∈ V 0 . Unser Ziel ist es λi zu finden, so dass a =
i=1 λi bi .
Um die Formel zu motivieren,Pnehmen wir zunächst
an,
wir
hätten
sie
bereits
gezeigt
und
werten
auf
Pn
n
bj aus und erhalten: a(bj ) = i=1 λi b0i (bj ) = i=1 λi δij = λj . Wenn es also
Pnλj mit den gewünschten
Eigenschaften gibt, dann λj = a(bj ). Wir probieren also aus: λi := a(bi ), ã = i=1 λi b0i . Es folgt dann wie
oben a(bj ) = λj = ã(bj ). Somit stimmen a und ã auf der Basis (b1 , . . . , bn ) überein, also ã = a. Es folgt,
dass (b01 , . . . , b0n ) den Raum V 0 erzeugt.
Sei (v1 , . . . , vm ) eine Basis von V , (w1 , . . . , wn ) eine Basis von W und f : V → W linear, dann gilt:
T
(w0 )
(v )
Mat(v0i) (f 0 ) = Mat(wii ) (f ) .
i
Sei f : V → W ein Homomorphismus zwischen beliebigen Vektorräumen. Dann gilt: im(f 0 ) ∼
= (im f )0 .
19. Rang
Seite 77-81
Wir nennen dim im LA = Rang LA den Spaltenrang von A. Offensichtlich ist der Zeilenrang von A
gleich dem Spaltenrang von AT , das heißt der Zeilenrang von A ist gleich dim im LAT . Für jede Matrix
A ∈ Mat(n, n; K) stimmen Zeilenrang und Spaltenrang überein.
Beweis mit Dualräumen: Sei S der Spaltenrang und Z der Zeilenrang von A. Es gilt nach Definition: S = dim im LA und Z ist der Spaltenrang von AT . Wir drücken die Abbildung (LA )0 : (Kn )0 →
(e0 ,...,e0 )
(Km )0 in den Basen (e01 , . . . , e0n ) und (e01 , . . . , e0m ) aus. Dann ist Mat(e01 ,...,e0n ) ((LA )0 ) = AT . Es folgt
m
1
Z = Rang ((LA )0 ) = dim im ((LA )0 ). Andererseits ist im ((LA )0 ) isomorph zu (im LA )0 und somit Z =
dim(im LA )0 = dim im LA = S.
Elementare Zeilenumformungen bewahren den Zeilen- bzw. Spaltenrang. Sei A ∈ Mat(n, m; K). Dann
erhalten wir aus A durch endlich viele elementare Zeilenumformungen eine Matrix in Zeilenstufenform.
20. Determinanten
Seite 83-85
22. Oktober 2008
Seite 4
Frank Reinhold
Sei A := ( aa11
21
erfüllt:
Prüfungsthemen - Lineare Algebra I+II
a12
a22
). Wir definieren die Determinante von A als det A := a11 a22 − a12 a21 . Diese Abbilung
(a) det A 6= 0 ⇔ A invertierbar ⇔ Rang A = 2
(b) det A = det AT
(c) Bilinearität in Spalten und Zeilen
(d) Alternierend in Spalten und Zeilen
(e) det AB = det A det B, det 12 = 1, det A−1 = (det A)−1
Sei V ein 2-dimensionaler Vektorraum mit zwei Basen vi und wi . Dann gilt: Die Determinante ist unabhängig von der Wahl der Basis.
vi
−1
i
i
Beweis: Wähle B, sodass Matvvii (f ) = B −1 Matw
Matw
wi (f )B. Dann ist det Matvi (f ) = det(B
wi (f )B) =
wi
wi
−1
(det B) det Matwi (f ) det B = det Matwi (f ).
) aufgespannt.
) und b = ( aa12
Geometrische Interpretation: Ein Parallelogram werde von a = ( aa11
22
21
a11 a12
Dann ist der Flächeninhalt gegeben durch | det ( a21 a22 ) |.
21. Symmetrische Gruppe
Seite 85-89
Wir versehen die Menge Sn := Bij({1, . . . , n}), n ∈ N mit der Verkettung von Abbildungen. Dies ist eine
Gruppe mit neutralem Element Id{1,...,n} . Man nennt sie die Permutationsgruppe oder Symmetrische Gruppe zum Index n.
Eine Permutation σ ∈ Sn heißt Transposition von i und j, falls σ(i) = j, σ(j) = i und σ(k) = k ∀k ∈
{1, . . . , n} \ {i, j}. σ = [i, j] ist also ein Zykel der Länge 2.
Zwei Zykel heißen disjunkt, wenn kein Element sowogl von σ1 , als auch von σ2 verschoben wird, also
entweder σ1 (i) = i, oder σ2 (i) = i ∀i ∈ {1, . . . , n}. Jede Permutation ist die Verkettung von disjunkten
Zykeln. Jede Permutation ist die Verkettung von Transpositionen. Ein Fehlstand einer Permutation
σ ∈ Sn ist eine Teilmenge {i, j} ⊆ {1, . . . , n}, i < j mit σ(i) > σ(j).
Q
∈ {−1, 1}. Für τ, σ ∈ Sn gilt: sgn(τ ◦ σ) = sgn(τ ) sgn(σ).
Signum: sgn(σ) := 1≤i<j≤n σ(j)−σ(i)
j−i
Eine Permutation ist genau dann gerade, wenn sie die Verkettung einer geraden Anzahl von Transpositionen ist, oder wenn sie eine gerade Anzahl von Fehlständen hat.
22. Multilineare Abbildungen
Seite 89-97
Seien V1 , . . . , Vr , W Vektorräume über K. Eine Abbildung f : V1 × . . . × Vr → W heißt multilinear, falls
∀j ∈ {1, . . . , r} und alle v1 ∈ V1 , . . . , vr ∈ Vr die Abbildung Vj → W , v 7→ f (v1 , . . . , v, . . . , vr ) linear ist.
Für 2-linear sagt man auch Bilinear.
Pn
Das kanonische Skalarprodukt auf Rn ist bilinear: Rn × Rn → R, (x, y) 7→ hx, yi = i=1 xi yi
Eine Abbildung F : V × . . . × V → W heißt alternierend, falls für alle v1 , . . . , vn ∈ V und i 6= j gilt:
F (v1 , . . . , vi , . . . , vj , . . . , vn ) = −F (v1 , . . . , vj , . . . , vi , . . . , vn ). Für alternierende r-lineare Abbildungen F
und σ ∈ Sr gilt: F (vσ(1) , . . . , vσ(r) ) = sgn(σ)F (v1 , . . . , vr ).
Die Funktion
  

a11
a1n
X
  

det : Kn × . . . × Kn → K,  ...  . . .  ...  7→
(sgn(σ)) · aσ(1)1 · . . . · aσ(n)n
an1
ist eine Determinantenform auf
ann
σ∈Sn
Kn . Für A, B ∈ Mat(n, n; K) gilt:
(a) det(AB) = det(A) det(B)
(b) Eine Matrix A ist genau dann invertierbar, wenn det(A) 6= 0.
(c) Für alle quadratischen Matrizen A gilt: det(A) = det(AT ).
Sei f : V → V ein Endomorphismus, B eine Basis von V . Dann definieren wir die Determinante von f
als det(f ) := det(MatB
B (f )).
23. Berechnung von Determinanten
Seite 97-102
Diagonalmatrizen: det(Diag(λ1 , . . . , λn )) = λ1 · . . . · λn
Gauß’sches Verfahren: Elementare Zeilen- und Spaltenumformungen vom Typ 1 - Multiplikation einer
Zeile mit λ1 - multiplizieren die Determinante mit λ. Typ 2 - Addition einer Zeile zu einer anderen 22. Oktober 2008
Seite 5
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
erhält die Determinante. Typ 3 - vertauschen zweier Zeilen - wechselt das Vorzeichen der Determinante.
Blockmatrizen: det ( A0 B
C ) = det(A) det(C) P
n
Laplacescher Entwicklungssatz: det(A) = i=1 (−1)i+j · aij · det(Âij )
ad
Cramersche Regel: A · A = det(A) · 1n = A · Aad
24. Eigenwerte und Eigenvektoren
Seite 103-108
Sei V ein K-Vektorraum und F : V → V ein Endomorphismus. Ein Skalar λ ∈ K heißt Eigenwert von
F , wenn es ein v ∈ V \ {0} gibt, sodass F (v) = λv ist. Der Vektor v heißt der zu λ gehörige Eigenvektor
von F . Der Vektorraum EignF (λ) := ker(F − λ · Id) heißt der zu λ gehörige Eigenvektorraum von F .
Seine Dimension heißt Multiplizität des Eigenwertes λ.
Zwei Matrizen C, Ĉ heißen ähnlich, falls es ein A ∈ GL(n, K) gibt mit Ĉ = A−1 CA.
Eine Matrix C ∈ Mat(n, n; K) heißt diagonal, falls cij = 0 ∀i 6= j. Sie heißt trigonal, falls cij = 0 ∀i > j.
Ein Endomorphismus ist diagonalisierbar, falls es eine Basis B von V gibt, sodass MatB
B (f ) diagonal
ist. Eine Matrix ist genau dann diagonalisierbar, wenn sie ähnlich zu einer Diagonalmatrix ist. Die
Summe von verschiedenen Eigenräumen ist direkt. Ist n = dim V , dann gibt es höchstens n verschiedene
Eigenwerte und die Summe der Multiplizitäten aller Eigenwerte ist höchstens n.
Wir definieren die charakteristische Polynomfunktion von f als χf : K → K, χf (λ) = det(λ · Id − f ).
Für eine Matrix A als χa : K → K, χA (λ) = det(λ · 1 − A). Es gilt χf (x) = 0 genau dann, wenn x ein
Eigenwert von f ist.
Beweis: x ist Eigenwert von f , genau dann wenn 0 6= Eignf (x) = ker(f − x · Id), genau dann wenn
x · Id − f nicht invertierbar ist, genau dann wenn det(x · Id − f ) = 0.
25. Bilinearformen
Seite 109-111
Sei V ein K-Vektorraum. Eine Abbildung F : V × V → K heißt Bilinearform auf V , falls ∀w ∈ V die
Abbildung V → K, v 7→ F (v, w) und V → K, v 7→ F (w, v) linear sind. Den Raum aller Bilinearformen auf
V bezeichnen wir mit Bilin(V ). Eine Bilinearform heißt symmetrisch, falls F (v, w) = F (w, v) ∀v, w ∈ V .
Den Raum aller symmetrischen Bilinearformen auf V bezeichnen wir als Sym2 (V ).
Sei (b1 , . . . , bn ) eine Basis von V . Die Abbildung mat(bi) : Bilin(V ) → Mat(n, n; K) ist ein Isomorphismus.
Basistransformation: Seien (b1 , . . . , bn ) und (d1 , . . . , dn ) = (b1 , . . . , bn ) · C zwei Basen von V . Dann gilt:
mat(di ) (F ) = C T · mat(bi ) (F ) · C.
26. Euklidische Vektorräume
Seite 111-115
Eine symmetrische Bilinearform G ∈ Bilin(V ) heißt positiv definit, falls G(v, v) > 0 ∀v ∈ V \ {0}.
Eine positiv definite symmetrische Bilinearform bezeichnen wir als Skalarprodukt auf V . Ein Euklidischer Vektorraum ist ein Paar (V, G), wobei V ein reeller Vektorraum und G ein Skalarprodukt auf V ist.
Cauchy-Schwarzsche-Ungleichung: Auf einem Euklidischen Vektorraum (V, G) gilt ∀x, y ∈ V : G(x, y)2 ≤
G(x, x)G(y, y) und p
Gleichheit, wenn x und y linear abhängig sind. Wir definieren die von G induzierte
Norm als kxkG := G(x, x).
Sind v, w ∈ V \ {0}, so definiert man den Winkel zwischen v und w als die Zahl α ∈ [0, π], sodass
G(v,w)
cos(α) = kvkkwk
.
Eine Familie von Vektoren (vi |i ∈ I) heißt orthogonal, falls vi ⊥wi ∀i ∈ I ⇔ G(vi , wi ) = 0 ∀i ∈ I.
Sie heißt orthonormal, wenn sie orthogonal ist und zusätzlich gilt kvi kG = 1 ∀i ∈ I. Jede orthogonale
Familie von Vektoren ist linear unabhängig.
Gram-Schmidtsches-Orthonormalisierungsverfahren: Sei (v1 , . . . , vn ) eine beliebige Basis von V .
Dann bestimmen wir induktiv:
b1 :=
k
X
b̂2
v1
, b̂2 := v2 − G(v2 , b1 )b1 , b2 :=
, . . . , b̂k+1 := vk+1 −
G(vi+1 , bi )bi
kv1 k
kb̂2 k
i=1
27. Unitäre Vektorräume
Seite 115-118
Eine Abbildung f : V → W heißt semi-linear, falls ∀v, w ∈ V und λ ∈ C gilt: f (λv + w) = λ̄f (v) + f (w).
Sei V ein komplexer Vektorraum. Eine Abbildung G : V × V → C heißt sesqui-linear, falls ∀w ∈ V
die Abbildung V → C, v 7→ G(w, v) semi-linear und V → C, v 7→ G(v, w) linear ist. Den Raum aller
Sesquilinearformen auf V bezeichnen wir als Sesqui(V ). Eine Sesquilinearform heißt hermitesch, falls
G(v, w) = G(w, v). Eine Sesquilinearform heißt positiv definit, falls ∀v ∈ V \ {0} gilt: G(v, v) ∈ R und
G(v, v) > 0.
22. Oktober 2008
Seite 6
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
Pn
T
Wir definieren hv, wiC
n :=
i=1 vi w̄i = v w̄ als das kanonische Skalarprodukt auf C.
Wir sagen A ∈ Mat(n, n; C) ist hermitesch oder selbstadjungiert, wenn ĀT = A. Jede positiv
definite Sesquilinearform ist hermitesch.
Ein komplexes Skalarprodukt auf V ist eine positiv definite Sesquilinearform auf V . Ein unitärer
Vektorraum ist ein Paar (V, G), wobei V ein komplexer Vektorraum und G ein komplexes Skalarprodukt
auf V ist.
28. Isometrien, orthogonale Matrizen
Seite 118-119
Seien V, W Euklidische Vektorräume. Eine Abbildung f : V → W heißt Isometrie, falls f linear ist und
∀v, w ∈ V gilt hf (v), f (w)iW = hv, wiV . Isometrien sind injektiv. Eine Matrix heißt orthogonal, falls
LA : Rn → Rn eine Isometrie ist, wobei A ∈ Mat(n, n; R). Für orthogonale Matrizen ist äquivalent:
(a) A oder AT ist orthogonal.
(b) AAT = AT A = 1n
(c) Die Spalten bzw. Zeilen von A bilden eine Orthonormalbasis.
Die orthogonalen n × n-Matrizen bilden, versehen mit der Matrizenmultiplikation, eine Gruppe, die sogenannte orthogonale Gruppe O(n), eine Untergruppe von GL(n; R).
Beispiel: Die Abbildung R → R2 , x 7→ ( x0 ) ist eine Isometrie.
29. Isometrien, unitäre Matrizen
Seite 120-121
Seien V, W unitäre Vektorräume. Eine Abbildung f : V → W heißt Isometrie, falls f linear ist und
∀v, w ∈ V gilt hf (v), f (w)iW = hv, wiV . Eine Matrix heißt unitär, falls LA : Cn → Cn eine Isometrie ist,
wobei A ∈ Mat(n, n; C). Für unitäre Matrizen ist äquivalent:
(a) A, Ā, AT , oder ĀT ist unitär.
(b) AĀT = ĀT A = 1n
(c) Die Spalten bzw. Zeilen von A bilden eine Orthonormalbasis.
Die unitären n × n-Matrizen bilden, versehen mit der Matrizenmultiplikation, eine Gruppe, die sogenannte
unitäre Gruppe U (n), eine Untergruppe von GL(n; C).
30. Orthonormale Hauptachsentransformation von rellen Bilinearformen
Seite 124
Sei (V, h., .i) ein n-dimensionaler Euklidischer Vektorraum, F ∈ Sym2 (V ). Dann gibt es eine Orthonormalbasis (b1 , . . . , bn ) und λ1 , . . . , λn ∈ R, sodass


λ1 0 · · · 0

.. 
 0 λ2 . . .
. 


mat(bi ) (F ) =  .

..
 ..
. 0
0 ···
0 λn
Oder anders ausgedrückt: F (bi , bj ) = δij λi .
31. Hauptachsentransformation von rellen Bilinearformen
Seite 125
Sei V ein endlich-dimensionaler Vektorraum und F ∈
(b1 , . . . , bn ), sodass

1r 0
mat(bi ) (F ) =  0 −1s
0
0
Sym2 (V ). Dann gibt es eine orthogonale Basis

0
0,r + s + t = n
0t
Die Basis (bi ) berechnet sich folgendermaßen: Man führt eine orthonormale Hauptachsentransformation
von reellen Bilinearformen durch
√ und teilt die Basisvektoren der Orthonormalbasis (ci ) durch die Wurzel
des zugehörigen Eigenwertes λi .
32. Orthonormale Hauptachsentransformation von symmetrischen Matrizen
Seite 125-126
Sei A eine symmetrische n × n-Matrix. Dann gibt es eine Matrix S ∈ O(n), sodass S T AS = S −1 AS eine
Diagonalmatrix ist.
22. Oktober 2008
Seite 7
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
Zwei quadratische Matrizen A, B ∈ Mat(n, n; R) sind orthogonal ähnlich, falls es ein S ∈ O(n) gibt
mit B = S T AS. Eine Matrix A ist orthogonal diagonalisierbar, falls sie orthogonal ähnlich zu einer
Diagonalmatrix ist. Eine Matrix A ist genau dann orthogonal diagonalisierbar, wenn A symmetrisch
ist.
33. Unitäre Hauptachsentransformation von hermiteschen Matrizen
Seite 129-130
Sei A ∈ Mat(n, n; C) hermitesch. Dann gibt es eine Matrix U ∈ U (n), sodass Ū T AU = U −1 AU eine
Diagonalmatrix ist und auf der Diagonalen nur reelle Einträge stehen.
34. Adjungierte Homomorphismen
Seite 130-132
Sei f ∈ hom(V, W ). Ein Operator g ∈ hom(W, V ) heißt adjungiert zu f , falls ∀v ∈ V und w ∈ W gilt:
hw, f (v)iW = hg(w), viV . Zu f ∈ hom(V, W ) gibt es genau einen adjungierten Homomorphismus f ∗ .
Es gilt (f ∗ )∗ = f . Die Abbildung hom(V, W ) → hom(W, V ), f 7→ f ∗ ist eine semilineare Bilinearform.
Es gilt: ker f ∗ = (im f )⊥ und im f ∗ = (ker f )⊥ , sowie f ∗ injektiv ⇔ f surjektiv, f ∗ surjektiv ⇔ f
injektiv. Sei V ein endlich-dimensionaler unitärer, bzw. Euklidischer Vektorraum. Ein Endomorphismus
f ∈ End(V ) heißt selbstadjungiert, wenn f ∗ = f .
35. Orthonormale Hauptachsentransformation von selbstadjungierten Matrizen
Seite 132-133
Sei V ein endlich-dimensionaler unitärer, bzw. Euklidischer Vektorraum und f ∈ End(V ). Dann ist f
genau dann selbstadjungiert, wenn es eine Orthonormalbasis B von V gibt, sodass MatB
B (f ) eine relle
Diagonalmatrix ist.
22. Oktober 2008
Seite 8
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
Lineare Algebra - 2. Semester
1. Polynome
Seite 3
Ein Polynom über R ist ein Rechenausdruck der Form P = a0 + a1 X + a2 X 2 + . . . + am X m , in den
wir Elemente eines Ringes S ⊇ R einsetzen können. P : R → R, r 7→ P (r) heißt die zu P assoziierte
Polynomfunktion. ai heißen Koeffizienten zu P . Zwei Polynome P = a0 + . . . + am X m und Q =
b0 + . . . + bn X n sind gleich, falls:
(a) ai = bi ∀i ∈ {0, . . . min{m, n}}
(b) ai = 0 ∀i mit n < i ≤ m
(c) bi = 0 ∀i mit m < i ≤ n
2. Addition und Multiplikation von Polynomen
Seite 3-5
Sei R ein kommutativer Ring. Wir definieren R[X] := Abbe (N0 , R) die Menge der quasi-endlichen Abbildungen N0 → R als den Ring der Polynome über R. Elemente von R[X] heißen Polynome.
Addition: (ai )i∈N0 + (bi )i∈N0 := (ai + bi )i∈N0
P
Multiplikation: (ai )i∈N0 · (bi )i∈N0 := (ci )i∈N0 mit ci = k+l=i;k,l∈N0 ak bl
3. Ringe
Seite 5
Seien R, S Ringe mit 1. Eine Abbildung ϕ : R → S heißt Homomorphismus von Ringen, falls ϕ(x + y) =
ϕ(x)+ϕ(y) und ϕ(xy) = ϕ(x)ϕ(y) ∀x, y ∈ R und ϕ(1) = 1. Ein Element a eines Ringes R heißt Nullteiler
von R, falls a 6= 0 und ∃b ∈ R \ {0} mit ab = 0. R heißt Nullteilerfrei, wenn es keine Nullteiler gibt. R
heißt Integritätsring, wenn:
(a) R ist kommutativer Ring.
(b) 1 6= 0
(c) R ist Nullteilerfrei.
Jeder Körper ist ein Integritätsring, jeder Unterring eines Integritätsrings ist selbst ein Integritätsring.
4. Eigenschaften der Polynome
Seite 6-8
Ein Monom ist ein Polynom der Form aX m , a ∈ R, m ∈ N0 . Das X in R[X] nennt man die Unbestimmte des Polynomrings R[X]. deg P := max{i ∈ N0 |ai 6= 0} heißt Grad des Polynoms. Sei R ein
Ring und P, Q ∈ R[X], dann gilt:
(a) deg(P + Q) ≤ max{deg P, deg Q}
(b) deg(P Q) ≤ deg Q + deg P , Gleichheit gilt, falls R Nullteilerfrei ist.
Sei ϕ : R → S ein Homomorphismus von Ringen, RPkommutativ. P
Für A ∈ S definieren wir die Evaluation
m
m
oder Einsetzabbildung ev ϕA : R[X] → S, P = i=0 ai X i 7→ i=0 ϕ(ai )Ai .
Sei ϕ : R → S ein Homomorphismus von Ringen. Dann gilt:
(a) ev ϕA |R = ϕ
(b) evϕ
A (X) = A
ϕ
ϕ
(c) evϕ
A (P + Q) = evA (P ) + evA (Q)
(d) evϕ
A ist ein Homomorphismus von Ringen ⇔ ∀r ∈ R gilt ϕ(r)A = Aϕ(r).
5. Polynomdivision
Seite 8-9
Seien P, Q ∈ K[X], Q 6= 0. Dann gibt es (eindeutige)
S, T ∈ K[X], sodass P = QS + T mit deg T < deg Q.
Beispiel:
6X 3 − 5X 2 − 11X − 6 ÷ X − 2 = 6X 2 + 7X + 3
− 6X 3 + 12X 2
7X 2 − 11X
− 7X 2 + 14X
3X − 6
− 3X + 6
0
22. Oktober 2008
Seite 9
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
6. Nullstellen von Polynomen
Seite 9
Sei P ∈ K[X]. α ∈ K heißt Nullstelle von P , falls P (α) = 0. α ∈ K ist Nullstelle, genau dann wenn
∃Q ∈ K[X] : Q(X − α) = P .
Beweis: Sei P = Q(X −α) ⇒ P (α) = Q(α)(α−α) = 0. Sei P (α) = 0. Dividiere P durch (X −α) ⇒ P =
S(X − α) + T mit deg T < deg(X − α) = 1 ⇒ ∃c ∈ K : T = c. 0 = P (α) = S(α)(α − α) + T (α) =
c ⇒ c = T ==∈ K[X]
7. Ideale und Hauptideale
Seite 10-12
Sei R ein Ring, I ⊆ R heißt Ideal, falls:
(a) (I, +) ist eine Untergruppe von (R, +).
(b) x · a ∈ I ∀x ∈ R, a ∈ I
(c) a · x ∈ I ∀x ∈ R, a ∈ I
Man schreibt kurz I / R. Insbesondere ist I abgeschlossen unter Addition, x 7→ −x, Multiplikation.
Beispiel: Sei R = Z, k ∈ Z, dann ist {n · k|n ∈ Z} / Z.
Sei f : R → S ein Homomorphismus vonTRingen, dann ist im f ein Unterring und ker f ein Ideal. Sei
(ai )i∈I eine Familie von
T Idealen. Dann ist i∈I ai wieder ein Ideal.
Sei M ⊆ R. (M ) := M ⊆A⊆R A / R das kleinste Ideal von R, das M enthält. (M ) heißt das von M
erzeugte Ideal in R. M heißt Erzeugendensystem von (M ). Falls M endlich ist, M := {a1 , . . . , an }
dann schreibt man (a1 , . . . , an ) = ({a1 , . . . , an }). Ein Ideal heißt endlich erzeugt, falls ∃a1 , . . . , an ∈ A
mit A = (a1 , . . . , an ) und Hauptideal, falls ∃b ∈ A mit A = (b). Ein Ring heißt Hauptidealring, falls
R ein Integritätsring ist und jedes Ideal von R ist ein Hauptideal.
Beispiel: Z ist ein Hauptidealring.
Ein Euklidischer Ring ist ein Integritätsring R mit einer Abbildung d : R \ {0} → N0 , sodass ∀p, q ∈
R, q 6= 0 : ∃s, t ∈ R mit p = qs+t mit t = 0, oder d(t) < d(q). Alle Euklidischen Ringe sind Hauptidealringe.
Beispiel: R = Z, d : Z → N0 , x 7→ |x|, dann ist (Z, d) ein Euklidischer Ring.
8. Teiler, irreduzible und Primelemente
Seite 12-14
Seien R, S Integritätsringe. R∗ := {invertierbare Elemente in R} = {Einheiten von R}. Wir sagen a teilt
b, wenn a|b ⇔ ∃c ∈ R : b = ca. Seien a, b ∈ R \ {0}. a und b heißen assoziiert, wenn a ∼ b ⇔ a|b ∧
b|a ⇔ ∃c ∈ R∗ : b = ca. Dies ist eine Äquivalenzrelation. a ist ein echter Teiler von b ⇔ a|b ∧ a ∈
/
R∗ ∧ a 6∼ b. a ist irreduzibel ⇔ a ∈
/ R∗ ∧ a hat keine echten Teiler ⇔ a ∈
/ R∗ ∧ Falls a = bc, dann
b ∈ R∗ ∨ c ∈ R∗ . a ist reduzibel ⇔ ∃b, c ∈ R \ (R∗ ∪ {0}), a = bc. a ist prim ⇔ a ∈
/ R∗ ∧ ∀b, c ∈ R :
a|bc ⇒ a|b ∨ a|c. In einem Integritätsring folgt aus prim die Irreduzibilität. Es gilt für a ∈ R:
(a) a invertierbar ⇔ (a) = R
(b) a|b ⇔ (b) ⊆ (a)
(c) a ist echter Teiler von b ⇔ (b) ( (a) ∧ (a) 6= R
(d) a ∼ b ⇔ (b) = (a)
(e) Sei p ∈ R \ (R∗ ∪ {0}), p irreduzibel ⇔ 6 ∃ Hauptideal (b) ( R, sodass (p) ( (b).
Ein Polynom heißt normiert, falls am = 1 mit P = a0 + . . . + am X m , am 6= 0.
9. Größter gemeinsamer Teiler
Seite 15-16
c ist ein kleinstes gemeinsames Vielfaches kgV von a, b ⇔ (c) = (a) ∩ (b). d ist ein größter gemeinsamer Teiler ggT von a, b ⇔ (a, b) = (d).
Euklidischer Algorithmus: Beim euklidischen Algorithmus wird in aufeinanderfolgenden Schritten jeweils eine Division mit Rest durchgeführt, wobei der Rest im nächsten Schritt zum neuen Divisor wird.
Der Divisor, bei dem sich Rest 0 ergibt, ist der größte gemeinsame Teiler der Ausgangszahlen.
Beispiel:
1071 : 1029
=1
Rest 42
1029 : 42
= 24
Rest 21
=2
Rest 0
42 : 21
22. Oktober 2008
Seite 10
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
Somit ist 21 der größte gemeinsame Teiler von 1071 und 1029.
|m·n|
Zusammenhang von ggT und kgV: Es gilt die folgende Formel kgV(m, n) = ggT(m,n)
. Damit lässt
sich das kgV berechnen, falls der ggT (z. B. mit dem euklidischen Algorithmus) bereits bestimmt wurde.
Umgekehrt kann man mit dieser Formel auch den ggT aus dem kgV berechnen.
10. Primfaktorzerlegung
Seite 16-18
Existenz: Sei R ein Hauptidealring, a ∈ R \ (R∗ ∪ {0}). Dann gibt es k ∈ N und irreduzible Elemente
p1 , . . . , pk ∈ R, sodass a = p1 · . . . · pk .
Qr
Qs
Eindeutigkeit: Sei R ein Hauptidealring. Es gelte i=1 pi = j=1 qj , wobei p1 , . . . , pr , q1 , . . . , qs Primelemente sind. Dann gilt r = s und ∃σ ∈ Sr , sodass pi ∼ qσ(i) ∀i ∈ {1, . . . , r}.
Ein Ring, in dem die Zerlegung in irreduzible Elemente immer existiert und eindeutig ist, heißt faktorieller Ring. Wir sagen α ist eine Nullstelle von P mit Multiplizität m ∈ N, wenn (X − α)m |P ,
aber (X − α)m+1 6 |P . Sei P ∈ K[X] \ {0},
Pnα1 , . . . , αn ∈ K verschiedene Nullstellen von P . Sei mi die
Multiplizität der Nullstelle αi . Dann gilt i=1 mi ≤ deg P .
11. Algebraische Abgeschlossenheit
Seite 19
Ein Körper K heißt algebraisch abgeschlossen, falls jedes Polynom P ∈ K[X] mit deg P ≥ 1 mindestens
eine Nullstelle besitzt. Es gilt dann sogar: Zu jedem P ∈ K[X] \ K gibt es r ∈ K ∗ und α1 , . . . , αm ∈ K
mit P = r · (X − α1 ) · . . . · (X − αm ).
Fundamentalsatz der Algebra: C ist algebraisch abgeschlossen.
12. Reelle Polynome
Seite 19-21
Ein Polynom P ∈ R[X] ist irreduzibel, genau dann wenn deg P = 1 oder deg P = 2 mit P (X) =
aX 2 + bX + c mit 4ac > b2 .
Beweis: Sei 4ac > b2 . Angenommen P wäre reduzibel, dann ∃S1 , S2 ∈ R[X] mit deg S1 = deg S2 = 1 und
P = S1 S2 . P = S1 S2 = (p1 X + q1 )(p2 X + q2 ) = p1 p2 X 2 + (p1 q2 + p2 q1 )X + q1 q2 ⇒ b2 = (p1 q2 + p2 q1 )2 =
(p1 q2 − p2 q1 )2 + 4(p1 p2 q1 q2 ) ≥ 4ac
13. Charakteristisches Polynom
Seite 21-28
Sei K ein Körper, A ∈ Mat(n, n; K). Das charakteristische Polynom von A ist definiert als χA :=
det(X · 1 − A). Seien A, B ∈ Mat(n, n; K). Dann gilt:
(a) χA ist ein normiertes Polynom vom Grad n.
(b) Sind A und B ähnlich, so gilt χA = χB .
(c) χAB = χBA
(d) χAT = χA
(e) χA (0) = (−1)n · det(A)
Sei R ein nicht-kommutativer
Ring. A ∈ R, P ∈ R[X].
gilt P
evA (P (X − A)) = 0.
Pm
Pm Danni+1
m
i
i
Beweis:
Sei
P
=
a
X
,
a
∈
R.
P
(X
−A)
=
a
X
−
i
i
i
i=0
i=0
i=0 ai AX . Dann ist evA (P (X −A)) =
Pm
P
m
i+1
i
− i=0 ai AA = 0
i=0 ai A
Cayley-Hamilton: Sei K ein Körper, A ∈ Mat(n, n; K). Dann ist χA (A) = 0, also evA (χA ) = 0.
Beweis: ev : (X − A) ∈ (Mat(n, n; K))[X] → Mat(n, n; K[X]), Ψ : Mat(n, n; K[X]) → (Mat(n, n; K))[X].
χA = P
det(ev(X−A)) = det(A).
Die Cramersche Regel gilt in K[X]: Aad ·A = det(A)·1n = χA ·1n . Schreibe
Pn
n
i
χA = i=0 ci A = evA ( i=0 (ci · 1n )X i ) = evA (Ψ(χA · 1n )) = evA (Ψ(Aad ) · Ψ(A)) = evA (Ψ(Aad ) · (X −
A)) = 0
Pn
Sei A ∈ Mat(n, n; K), A = (aij )ij . Dann ist
von A definiert als tr(A) = i=0 aii . Sei χA das
Pndie Spur
i
n
charakteristische Polynom von A. χA =
i=0 ci X . Dann ist cn = 1, c0 = (−1) det(A) und cn−1 =
− tr(A). Es gilt:
(a) tr(AB) = tr(BA) = (n − 1)te Koeffizient von −χAB
(b) tr(AT ) = tr(A) ∀A ∈ Mat(n, n; K)
(c) D ∈ GL(n; K) ⇒ tr(A) = tr(D−1 AD)
Sei f ∈ End(V ) und Ab := Matbb (f ) bezüglich einer Basis b von V . Dann ist χf = χAb das charakteristische Polynom des Endomorphismus f und tr(f ) = tr(Ab ) die SpurQvon f . Diese Definition ist
n
invariant unter Basiswechsel. f ist triangulierbar, genau dann wenn χf = i=1 (X − λi ), λi 6= λj ∀i 6= j,
22. Oktober 2008
Seite 11
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
das heißt χf zerfällt vollständig in Linearfaktoren. Ist K algebraisch abgeschlossen, so ist jeder
Endomorphismus triangulierbar.
14. Minimalpolynom
Seite 28
Sei µA ∈ K[X] das eindeutig bestimmte, normierte Polynom mit ker(evA ) = (µA ). Dann heißt µA das
Minimalpolynom von A. Es gilt:
(a) χA (A) = 0 ⇒ χA ∈ ker(evA ) = (µA ) ⇒ µA |χA
(b) λ Eigenwert von A ⇒ µA (λ) = 0
15. Normalformen von Endomorphismen
Seite 29-32
Zwei Elemente r, s eines Hauptidealringes R heißen teilerfremd, wenn 1 ein ggT von r und s ist. Sie U ein
Unterraum von V . f ∈ End(V ). Dann heißt U invariant unter f , falls f (U ) ⊆ U . Ein Endomorphismus
π ∈ End(V ) heißt idempotent, falls π 2 = π, V = im(f ) ⊕ ker(f ). Es gibt zu jeder Zerlegung von
V = U1 ⊕ U2 eine Abbildung π ∈ End(V ) mit π 2 = π, im(π) = U1 ,ker(π) = U2 . Man nennt sie die
Projektion von U1 mit Kern U2 .
Zerlegungssatz für beliebig viele Faktoren: Sei V ein Vektorraum über K, f ∈ End(V ) und P ∈
K[X] \ {0} mit P (f ) = 0. Gilt P = Q1 · . . . · Qm für paarweise teilerfremde Qi ∈ K[X], so gilt:
(a) Ui := ker Qi (f ) sind f -invariant.
(b) V := U1 ⊕ . . . ⊕ Um
(c) Es gibt Polynome Ri ∈ K[X], sodass Ri (f ) ist die Projektion auf Ui mit ker
L
j6=i
Uj .
16. Nilpotenz
Seite 32-35
Sei K ein Körper, V ein K-Vektorraum. A ∈ Mat(n, n; K) heißt nilpotent, falls Ak = 0 für ein k ∈ N.
Analog ist die Definition bei Endomorphismen zu verstehen. Falls k minimal gewählt ist, so ist A nilpotent
von Stufe k.
Sei A ∈ Mat(n, n; K) eine strikte obere Dreiecksmatrix mit (aij ) und aij = 0 ∀i ≥ j. Dann gilt An = 0.
Falls A ∈ Mat(n, n; K) nilpotent ist, gilt An = 0. A ∈ Mat(n, n; K) ist ähnlich zu einer strikten oberen
Dreiecksmatrix ⇔ A ist nilpotent.
17. Jordansche Normalform
Seite 36-38
Ein Polynom P ∈ K[X]\{0} zerfällt, wenn es r, α1 , . . . , αk ∈ K gibt, sodass P = r·(X −α1 )·. . .·(X −αk ).
Ein n × n- Jordankästchen zum Eigenwert λ ∈ K ist die Matrix


λ 1
0


 0 . . . . . .  ∈ Mat(n, n; K)
0
0
λ
Sei V ein n-dimensionaler Vektorraum, f ∈ End(V ). Angenommen χf zerfällt, dann besitzt V eine Basis
b, sodass


Jλ1 ,m1


..
Matbb (f ) = 

.
Jλk ,mk
Charakteristisches- und Minimalpolynom in dieser Form: {λ1 , . . . , λk } = {α1 , . . . , αr } wobei λ
Pλj =αi
mehrfach genannt werden darf, die α jedoch paarweise verschieden sind. ki = j∈{1,...,k}
mj . Dann ist
Qr
χf = i=1 (X−αi )li mit 1 ≤ li ≤ ki und µ(Jλ,m ) = (X−λ)m . µf = kgV(µ(Jλ1 ,m1 ), . . . , µ(Jλk ,mk )) ⇒ li =
maxj∈{1,...,k},λj =αi mj ≥ 1. Die Länge des größten Jordanblockes eines Eigenwertes λk ist gleich der Multiplizität des Eigenwertes im Minimalpolynom µA .
18. Diagonalisierbarkeit
Seite 38-40
α ∈ K heißt mehrfache Nullstelle eines Polynoms P ∈ K[X], falls (X − α)2 |P . Sei V ein endlichdimensionaler Vektorraum, f ∈ End(V ). f ist diagonalisierbar ⇔ χf zerfällt und µf hat keine mehrfachen Nullstellen. Seien f, g ∈ End(V ) diagonalisierbar. f, g heißen simultan diagonalisierbar, falls es
eine Basis b von V gibt, sodass Matbb (f ) und Matbb (g) Diagonalmatrizen sind. Dies ist genau dann der Fall,
wenn f ◦ g = g ◦ f , sie kommutieren.
22. Oktober 2008
Seite 12
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
19. Normalformen von Endomorphismen auf Räumen mit Skalarprodukt
Seite 40-47
Zwei Matrizen A, B ∈ Mat(n, n; K) heißen unitär/orthogonal ähnlich, falls es ein M ∈ U (n)/O(n)
gibt mit A = M −1 BM . A ist unitär/orthogonal diagonalisierbar ⇔ ∃ONB b, sodass A = Matbb (LA )
diagonal ist.
Jeder Endomorphismus f ∈ End(V ), mit V ist ein C-Vektorraum, ist trigonalisierbar. Ein Endomorphismus f ∈ End(V ) heißt normal, falls f ∗ f = f f ∗ , analog bei Matrizen. Sind A und B unitär ähnlich,
A normal, dann ist auch B normal. Für normale Endomorphismen f ∈ End(V ) gilt:
(a)
(b)
(c)
(d)
(e)
kf (x)k = kf ∗ (x)k
ker f = ker f ∗
V = ker f ⊕ im f
Der Eigenraum zum Eigenwert λ von f ist gleich dem Eigenraum zum Eigenwert λ̄ von f ∗ .
µf hat nur einfache Nullstellen, also ist f diagonalisierbar.
Spektralsätze:
(a) Sei K = C, A ∈ Mat(n, n; C) normal, also AĀT = ĀT A. Dann gilt: ∃U ∈ U (n) mit


λ1
0


..
U −1 AU = 

.
0
λn
(b) Sei K = R, A ∈ Mat(n, n; R) eine Isometrie, also AAT = 1n . Dann gilt: ∃P ∈ O(n) mit


λ1
0


..


.




λr
 , Ai = cos ϕi − sin ϕi , ϕi ∈ [0, 2π),
O−1 AO = 


A1
sin ϕi
cos ϕi




.
..


0
Al
|λi | = 1
(c) Sei K = R, A ∈ Mat(n, n; R) selbstadjungiert, also AT = A, oder A symmetrisch. Dann gilt:
∃P ∈ O(n) mit


λ1
0


..
P −1 AP = 

.
0
λn
Wir sagen f ist positiv definit, falls f selbstadjungiert ist und falls hx, f (x)i > 0 ∀x ∈ V \ {0}, positiv
semi-definit, falls f selbstadjungiert ist und hx, f (x)i ≥ 0 ∀x ∈ V \{0}, indefinit, falls f selbstadjungiert
ist und weder positiv, noch negativ definit.
Sei V ein C-Vektorraum, f ∈ End(V ) normal, λ1 , . . . , λn die Eigenwerte von f , die entsprechend ihrer
Multiplizitäten vorkommen. Dann gilt:
(a) f ist unitär ⇔ |λj | = 1 ∀j ∈ {1, . . . , n}.
(b) f ist selbstadjungiert ⇔ λj ∈ R ∀j ∈ {1, . . . , n} ⇔ Bf ist hermitesch.
(c) f positiv semi-definit ⇔ λj ≥ 0 ∀j ∈ {1, . . . , n}.
20. Quadratwurzel
Seite 47
Sei V ein C-Vektorraum, f ∈ End(V ) positiv definit. Dann gibt es ein g ∈ End(V ), sodass g ≥ 0 und
g 2 = f , die Quadratwurzel von f ist. Zur Berechnung von g diagonalisiert man f , zieht die Wurzel aus
der Diagonalmatrix, und führt sie mittels der umgekehrten Basistransformation zurück. Die so erhaltene
Matrix entspricht g.
21. Polarzerlegung
Seite 48-49
Sei U N (V ) die Menge der isometrischen Isomorphismen von V . U N (Cn ) ∼
= U (N ), dim V = n ∈ N, V ein
unitärer Vektorraum. Zu jedem f ∈ End(V ) gibt es ein u ∈ U N (V ), g ∈ End(V ), sodass f = u ◦ g. Zu
jeder Matrix A ∈ Mat(n, n; C) gibt es U ∈ U (N ), G ∈ Mat(n, n; C), sodass A = U · G und G ist positiv
semi-definit. Dann gilt weiterhin:
22. Oktober 2008
Seite 13
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
(a) U ∗ = U −1 , G∗ = G ⇒ A∗ = (U G)∗ = G∗ U ∗ = GU −1 ⇒ A∗ A = G2 , also ist G die Quadratwurzel
von A∗ A.
(b) ker A = {0} ⇒ G invertierbar ⇒ U = AG−1 .
22. Normalformen von Endomorphismen in Euklidischen Vektorräumen
Seite 49-53
Sei K = R, V ein Euklidischer Vektorraum, N 3 n = dim V , f ∈ End(V ), A ∈ Mat(n, n; R). Zerfällt
χf in R[X], dann ist f orthogonal trigonalisierbar. f ist orthogonal diagonalisierbar, genau dann
wenn f selbstadjungiert ist, bzw. A symmetrisch ist. f heißt normal, falls f ∗ f = f f ∗ , A heißt normal,
falls AT A = AAT ist.
Sei f ein Endomorphismus mit f 2 = −Id. Dann gibt es eine Basis b, sodass


J
0 1


..
mit
J
=
Matbb (f ) = 

.
−1 0
J
Ist V ein Euklidischer Vektorraum, und f normal, dann kann man sogar eine ONB mit dieser Eigenschaft
finden. Ist A normal, A2 = −1, dann ist A orthogonal ähnlich zu einer solchen Matrix. In der Primfaktorzerlegung des Minimalpolynoms eines normalen Endomorphismus kommt jeder Primfaktor höchstens
einmal vor.
23. Normalformen von Isometrien und orthogonalen Matrizen
Seite 53-54
Sei f ∈ End(V ) eine Isometrie, A = Matbb (f ) ∈ O(n) und b eine ONB von V . Dann existiert eine ONB d
von V , m, k, l ∈ N0 , k + l + 2m = n = dim V , γ1 , . . . , γm ∈ (0, π), sodass


1k





d
Matd (f ) = 




−1l
cos γ1
− sin γ1
sin γ1
cos γ1
..
.
cos γm
− sin γm









sin γm 
cos γm
24. Affine Räume
Seite 55-58
Sei K ein Körper, V ein Vektorraum über K. Ein Affiner Raum über V ist eine nicht-leere Menge A
mit einer Operation + : V × A → A, sodass:
(a) ∀v, w ∈ V, a ∈ A : (v + w) + a = v + (w + a).
(b) ∀a, b ∈ A gibt es genau ein v ∈ V , sodass b = v + a, v := b − a.
Eine Abbildung ϕ : A0 → A1 zwischen zwei Affinen Räumen über K-Vektorräumen V0 , V1 ist eine Affine
Abbildung, falls es ein Lϕ ∈ hom(V0 , V1 ) gibt, mit: ϕ(v + a) = Lϕ (v) + ϕ(a) ∀v ∈ V, a ∈ A.
Aff(A) := {ϕ : A → A|ϕ ist ein Affiner Automorphismus}, (Aff(A), ◦) ist eine Gruppe. L : Aff(A) →
GL(V ) ist ein Gruppenhomomorphismus. Tv (a) = v + a heißt Translation um den Vektor v. Tv ◦ Tw =
Tv+w .
Ein Affines Koordinatensystem ist gegeben durch (a0 , . . . , an ) ∈ A × . . . × A, sodass (a0~a1 , . . . , a0~an )
T
eine Basis von V ist. Für a ∈ A ist dann vs (a) = ( x1 ··· xn ) der Koordinatenvektor, µs (a) =
T
( 1 x1 ··· xn ) der inhomogene Koordinatenvektor.
Sei (V, Φ) ein Euklidischer
Vektorraum über R. Dann heißt (A, V, Φ) Euklidischer Affiner Raum und
q
~
~
~
d(a, b) = kabk = Φ(ab, ab) heißt Abstand zwischen a und b. Eine affine Abbildung heißt Isometrie,
genau dann wenn d(ϕ(a), ϕ(b)) = d(a, b) ist. Eine Isometrie heißt Bewegung, falls ϕ bijektiv ist.
25. Quadrik
Seite 59-62
f : Rn → R heißt quadratische Funktion, falls
 
x1
X
 ..  X
f . =
αij xi xj + 2 ·
αj xj + α0
xn
22. Oktober 2008
Seite 14
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
Qf : {a ∈ A|f (vs (a)) = 0} heißt affine Quadrik. Zwei Quadriken Q, Q0 heißen kongruent, genau dann
wenn eine Bewegung ϕ mit ϕ(Q) = Q0 existiert.
Normalform der Quadriken: In jeder Äquivalenzklasse [Q] existiert eine Quadrik mit Gleichung:
r
X
i=1
r
X
i=1
r
X
λi x2i = 0
λi ∈ R, r ≤ n
λi x2i = 1
λi ∈ R, r ≤ n
λi x2i = 2xr+1
λi ∈ R, r ≤ n − 1
i=1
26. Tensorprodukt
Seite 63-77
Bil(V1 , V2 , W ) := {F : V1 × V2 → W |F bilinear} ist ein K-Vektorraum. Wir wollen einen Vektorraum Z
bestimmen, sodass Bil(V1 , V2 , W ) = hom(Z, W ).
Universelle Eigenschaft des Tensorproduktes: Seien V1 , V2 Vektorräume über K. Dann gibt es einen
K-Vektorraum Z und eine bilineare Abbildung H : V1 × V2 → Z mit den folgenden Eigenschaften: Zu
jeder bilinearen Abbildung F : V1 × V2 → W gibt es genau eine lineare Abbildung F̂ : Z → W , sodass
/W
9
ss
s
s
ss
ss
H
ssF̂
s
s
ssss
Z
V1 × V2
F
kommutiert, also F = F̂ ◦ H.
Eindeutigkeit:
0
W
s9
s
s
s
F 0 sss
s
α
s
s
s
s
s
ss
/W
F
V1 × VK2
KK
KK
KK
KK
α0
KK
F0
KK
K% W0
0
Aber:
9W
ss
s
s
F 0 sss
Id
ss
s
s
s
s
s
s
/ W0
V1 × V2
0
⇒ (α0 ◦ α) ◦ F 0 = Id ◦ F 0 = F 0
F
Wir definieren V1 ⊗ V2 := Z als das Tensorprodukt von V1 und V2 . F⊗ := F̂ die von F induzierte
lineare Abbildung F⊗ : V1 ⊗ V2 → W . Seien v1 , ṽ1 ∈ V1 , v2 , ṽ2 ∈ V2 , λ ∈ K. Ein Tensorprodukt ist ein
Paar (V ⊗ W, F⊗ : V × W → V ⊗ W ) bestehend aus einem Vektorraum und einer bilinearen Abbildung,
die die universelle Eigenschaft des Tensorproduktes erfüllt. Für das Tensorprodukt gilt:
(a)
(b)
(c)
(d)
(e)
(v1 + ṽ1 ) ⊗ v2 = v1 ⊗ v2 + ṽ1 ⊗ v2
(λv1 ) ⊗ v2 = λ(v1 ⊗ v2 )
v1 ⊗ (λv2 ) = λ(v1 ⊗ v2 )
v1 ⊗ (v2 + ṽ2 ) = v1 ⊗ v2 + v1 ⊗ ṽ2
{v1 ⊗ v2 |v1 ∈ V1 , v2 ∈ V2 } ⊆ V1 ⊗ V2 im Allgemeinen nicht gleich! Kein Untervektorraum!
Elemente von V ⊗ W heißen Tensoren. Ein Tensor t ∈ V ⊗ W heißt zerlegbar, wenn es v ∈ V und
w ∈ W gibt, sodass t = v ⊗ w gilt.
Matrixdarstellung von Tensoren: Sei b = (b1 , . . . , bn ) eine Basis von V , c = (c1 , . . . , cm ) eine Basis
von W . b ⊗ c = (b
j )i∈{1,...,n},j∈{1,...,m} eine Basis von V ⊗ W . Dann ist ϑb⊗c : Mat(n, m; K) →
Pi n⊗ cP
m
V ⊗ W, (aij )ij 7→ i=1 j=1 aij · bi ⊗ cj ein Isomorphismus von Vektorräumen.
Basiswechsel: Sei v = b · R eine weitere Basis von V , w = c · S eine weitere Basis von W . Es gilt
−1
T
∀t ∈ V ⊗ W : R · ϑ−1
v⊗w (t) · S = ϑb⊗c (t). Insbesondere gilt: dim V < ∞, dim W < ∞ ⇒ dim V ⊗ W =
dim V · dim W < ∞.
Zerlegbarkeit: Sei t ∈ V ⊗ W , dann sind äquivalent:
22. Oktober 2008
Seite 15
Frank Reinhold
Prüfungsthemen - Lineare Algebra I+II
(a) t ist zerlegbar.
(b) Es existiert eine Basis b von V und c von W , sodass Rang(ϑ−1
b⊗c (t)) ≤ 1.
(c) Dies gilt für alle Basen von V und W .
Beispielaufgabe: ∃f :
R2 ⊗ R2 → R2 mit f (v, w) =
v12 w2
?
v2
w12
v12 w2
= v w2
2 1
⇒ ∃g : R2 × R2 → R2 bilinear, mit f ◦ H = g ⇒ g(v, w)
sich leicht überprüfen lässt. Also existiert f nicht.
Annahme: Es existiert solch ein f .
. Widerspruch zur Bilinearität, wie
27. Äußeres Produkt
Seite 77-85
Universelle Eigenschaft des Äußeren Produktes: Sei V ein K-Vektorraum, r ∈ N. Dann gibt es
einen Vektorraum Z und eine alternierende r-lineare Abbildung A : V × . . . × V → Z, sodass gilt: Zu
jeder alternierenden r-linearen Abbildung ω : V × . . . × V → W gibt es genau eine lineare Abbildung
ω∧ : Z → W , sodass
ω
/W
V × ... × V
9
ss
s
s
s
s
ss
A
ssω∧
s
s
ssss
Z
kommutiert, also ω = ω∧ ◦ A.
Wir schreiben Λr V = V ∧. . .∧V dür dieses Z. A : V ×. . .×V → Λr V heißt kanonische Abbildung. Man
nennt es das r-fache äußere Produkt von V , oder r-fache äußere Potenz, oder Dach-Produkt.
Es gilt: span(im(A)) = Λr V
Rechenregeln:
(a) λ(v1 ∧ . . . ∧ vr ) = v1 ∧ . . . ∧ (λvi ) ∧ . . . ∧ vr
(b) v1 ∧ . . . ∧ vi + vj ∧ . . . ∧ vr = v1 ∧ . . . ∧ vi ∧ . . . ∧ vr + v1 ∧ . . . ∧ vj ∧ . . . ∧ vr
(c) v1 ∧ . . . ∧ vr = 0 falls vi = vj für i < j
(d) 0 = (v1 + v2 ) ∧ (v1 + v2 ) = v1 ∧ v1 + v1 ∧ v2 + v2 ∧ v1 + v2 ∧ v2 ⇒ v1 ∧ v2 = −v2 ∧ v1
Basis von Λr V : Sei (b1 , . . . , bn ) eine Basis von V . Dann ist B = (bi1 ∧ . . . ∧ bir |(i1 , . . . , ir ) ∈ J), J :=
{(i1 , . . . , ir ) ∈ {1, . . . , n}r |i1 < . . . < ir } eine Basis von Λr V . Es gilt: dim V = n ⇒ dim Λr V = ( nr )
Beispiel: Sei K = R, V = R3 , (e1 , e2 , e3 ) eine Basis von V . Dann ist (e1 ∧ e2 , e1 ∧ e3 , e2 ∧ e3 ) eine Basis
von Λ2 V .
Beispiel: Sei (v1 , . . . , vn ) eine Basis von V . Dann ist vi ∧vj , i < j eine Basis von Λ2 V , vi ∧vj ∧vk , i < j < k
eine Basis von Λ3 V , etc.
28. Algebra
Seite 85-87
Eine K-Algebra A ist ein Vektorraum, auf dem eine K-lineare Abbildung • : A × A → A existiert, sodass
(A, +, •) ein Ring ist. Falls der Ring kommutativ ist, nennt man die Algebra kommutative Algebra,
mit 1 Algebra mit 1.
Beispiel: Mat(n, n; K) ist eine K-Algebra, nicht kommutativ, falls n ≥ 2.
Beispiel:
K[X] ist eine K-Algebra.
Nr
V := V ⊗ . . . ⊗ V , Λr V := V ∧ . . . ∧ V .
Nr
Ns
Nr+s
Es gibt genau eine bilineare Abbildung µr,s : (
V )×(
V)→
V , sodass (v1 ⊗ . . . ⊗ vr , w1 ⊗
. . . ⊗ ws ) 7→ v1 ⊗ . . . ⊗ vr ⊗ w1 ⊗ . . . ⊗ ws . Diese Abbildung ist assoziativ.
L
N∗
Ni
Algebra der Tensoren:
V = i∈N0
V.
Es gibt genau eine bilineare Abbildung ηr,s : (Λr V ) × (Λs V ) → Λr+s V , sodass (v1 ∧ . . . ∧ vr , w1 ∧
. . . ∧ ws ) 7→ v1 ∧ . . . ∧ vr ∧ w
1 ∧ . . . ∧ ws . Diese Abbildung ist assoziativ.
L
Äußere Algebra: Λ∗ V = i∈N0 Λi V .
29. Projektive Räume
Seite 88-99
Mut zur Lücke!
22. Oktober 2008
Seite 16
Herunterladen