Lineare Algebra I (Lehramt Gymnasium)

Werbung
Lineare Algebra I
(Lehramt Gymnasium)
Technische Universität München, WS 2012/13
Vorlesung: Caroline Lasser
(aktualisiert am 1. Februar 2013)
Inhaltsverzeichnis
1 Gruppen
1.1 Natürliche Zahlen (16.10.)
1.2 Halbgruppen (19.10.) . . .
1.3 Gruppen (23.10.) . . . . .
1.4 Untergruppen (26.10.) . .
1.5 Faktorgruppen (30.10.) . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
5
6
8
9
2 Ringe und Körper
2.1 Ringe (02.11.) . . . . . . . . .
2.2 Komplexe Zahlen (06.11.) . .
2.3 Angeordnete Körper (09.11.)
2.4 Polynome (13.11.) . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10
10
11
12
13
3 Vektorräume
3.1 Der n-dimensionale reelle Raum (16.11.) . . . . . . . .
3.2 Vektorräume (20.11.) . . . . . . . . . . . . . . . . . . .
3.3 Unterräume (23.11.) . . . . . . . . . . . . . . . . . . .
3.4 Linearkombinationen, lineare Unabhängigkeit (27.11.)
3.5 Lineare Unabhängigkeit (30.11.) . . . . . . . . . . . .
3.6 Basen (04.12.) . . . . . . . . . . . . . . . . . . . . . . .
3.7 Dimension (07.12.) . . . . . . . . . . . . . . . . . . . .
3.8 Summen von Vektorräumen (11.12.) . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
15
16
17
20
21
22
23
4 Lineare Abbildungen
4.1 Homomorphismen (14.12.) . .
4.2 Lineare Abbildungen (18.12.)
4.3 Bild und Kern (21.12.) . . . .
4.4 Quotientenräume (08.01.) . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
24
24
25
26
27
.
.
.
.
.
.
.
.
.
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Matrizen
5.1 Lineare Gleichungssysteme (11.01.) . . . . .
5.2 Lineare Abbildungen und Matrizen (15.01.)
5.3 Multiplikation von Matrizen (18.01.) . . . .
5.4 Invertierbare Matrizen (22.01.) . . . . . . .
5.5 Koordinatentransformationen (25.01.) . . .
5.6 Gaußsche Elimination I (29.01.) . . . . . . .
5.7 Gaußsche Elimination II (01.02.) . . . . . .
5.8 LR-Zerlegung (05.02) . . . . . . . . . . . . .
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
28
28
29
30
31
33
34
35
36
Literatur
[AZ] Aigner, Martin und Ziegler, Günter, Das BUCH der Beweise, SpringerVerlag, 3. Auflage (2010)
[B] Bosch, Siegfried, Lineare Algebra, Springer-Verlag, 4. Auflage (2008)
[Ded] Dedekind, Richard, Was sind und was sollen die Zahlen? (1888), in Richard Dedekind, Gesammelte mathematische Werke, herausgegeben von
Robert Fricke, Emmy Noether, Öystein Ore, Dritter Band, Vieweg (1932)
[Dei] Deiser, Oliver, Grundbegriffe
Springer-Verlag (2010)
der
wissenschaftlichen
Mathematik,
[Dy] Dyck, Walther, Gruppentheoretische Studien, Mathematische Annalen 20(1): 1-44 (1882)
[E] Euler, Leonhard, Introductio in analysin infinitorum, Band 1 (E101) von
2 Bänden (1748). Deutsche Übersetzung von Hermann Maser, SpringerVerlag (1885)
[F] Fischer, Gerd, Lineare Algebra, Vieweg, 17. Auflage (2010)
[FL] Fischer, Gerd, Lernbuch Lineare Algebra und Analytische Geometrie,
Springer Spektrum, 2. Auflage (2012)
[Fr] Frobenius, Ferdinand Georg, Zur Theorie der linearen Gleichungen, Journal
für die reine und angewandte Mathematik 129: 175–180 (1905)
[G] Gauß, Carl Friedrich, Theoria residuorum biquadraticorum, commentatio
secunda (1831), Werke Band 2: 93–148
[Gr] Grassmann, Hermann, Die lineare Ausdehnungslehre, Verlag von Otto Wigand, 2. Auflage (1878)
[KM] Karpfinger, Christian und Meyberg, Kurt, Algebra (Gruppen – Ringe –
Körper), Spektrum Akademischer Verlag, 2. Auflage (2010)
[N] Noether, Emmy, Idealtheorie in Ringbereichen, Mathematische Annalen 83(1–2): 24–66 (1921)
[W] Weyl, Hermann, Raum Zeit Materie, Springer-Verlag, 5. Auflage (1922)
3
1
1.1
Gruppen
Natürliche Zahlen (16.10.)
Natürliche Zahlen. Eine Menge N mit ausgezeichnetem Element 0 ∈ N und
einer Abbildung s : N → N heißt natürliche Zahlen, wenn sie die DedekindPeano Axiome erfüllen: i) s ist injektiv. ii) 0 6∈ s[N]. iii) Erfüllt A ⊆ N sowohl
0 ∈ A als auch s[A] ⊆ A, so gilt A = N.
Injektive Abbildung. Seien A und B Mengen. Eine Abbildung f : A → B,
x 7→ f (x) heißt injektiv, falls für alle x, y ∈ A aus f (x) = f (y) stets x = y folgt.
Die Abbildung f1 : N → N, x 7→ x + 1 ist injektiv. Die Abbildung f2 : N → N,
f2 (x) = x − 1 für x ≥ 1, f2 (0) = 0, ist nicht injektiv.
Teilmengen. Seien M 0 und M Mengen. M 0 heißt Teilmenge von M , in Zeichen M 0 ⊆ M , falls für alle x ∈ M 0 auch x ∈ M gilt. Die natürlichen Zahlen
sind eine Teilmenge der ganzen Zahlen, die wiederum der rationalen Zahlen,
und die der reellen Zahlen: N ⊆ Z ⊆ Q ⊆ R.
Aussonderung. Sei M eine Menge. Dann ist {x ∈ M | E(x)} die Teilmenge
von M , die aus allen x ∈ M mit E(x) besteht. {x ∈ N | x gerade} = {0, 2, 4, . . .}
ist die Menge der geraden natürlichen Zahlen.
Bild & Urbild. Ist f : A → B, A0 ⊆ A und B 0 ⊆ B, so heißen
f [A0 ] = {f (x) | x ∈ A0 } ,
f −1 [B 0 ]
=
{x ∈ M | f (x) ∈ B 0 }
das Bild von A0 und das Urbild von B 0 unter f . Die Abbildung f heißt surjektiv,
falls f [A] = B. Ist f injektiv und surjektiv, so heißt f bijektiv. f1 ist nicht
surjektiv, f2 schon. f3 : N → N, x 7→ x + 1 für x gerade, x 7→ x − 1 für x
ungerade, ist bijektiv.
Lemma. Eine Abbildung f : A → B ist genau dann injektiv, wenn f −1 ({y})
für alle y ∈ B höchstens ein Element enthält.
Literatur.
[Ded, §6.71], [Dei, 1.2 & 2.1]
4
1.2
Halbgruppen (19.10.)
Assoziative Verknüpfung. Eine Abbildung ∗ : M × M → M , (a, b) 7→ a ∗ b
auf einer Menge M heißt eine Verknüpfung auf M . Eine Verknüpfung ∗ auf M
heißt assoziativ, falls a ∗ (b ∗ c) = (a ∗ b) ∗ c für alle a, b, c ∈ M gilt.
Definition Halbgruppe. Eine Menge M mit einer assoziativen Verknüpfung
∗ : M × M → M heißt Halbgruppe. Man schreibt oft (M, ∗).
Verknüpfungen auf N. N mit m ∗ n = m + n oder m ∗ n = m · n ist eine
Halbgruppe. m ∗ n = m − n definiert keine Verknüpfung auf N. m ∗ n = mn ist
eine Verknüpfung auf N, aber nicht assoziativ.
Verknüpfungen auf Q.
ist nicht assoziativ.
Q mit a∗b = a·b ist eine Halbgruppe. a∗b = 21 (a+b)
Verknüpfungen auf Rn . Rn mit v ∗ w = v + w = (v1 + w1 , . . . , vn + wn ) ist
eine Halbgruppe. R2 mit v ∗ w = (v1 + w2 , v2 + w1 ) ist nicht assoziativ.
Komposition. Sind f : A → B und g : B → C Abbildungen, so heißt
g ◦ f : A → C, x 7→ g(f (x)) die Komposition von g nach f .
Lemma.
Die Komposition bijektiver Abbildungen ist bijektiv.
Beweis. Aus g(f (x)) = g(f (y)) folgt f (x) = f (y) und x = y für alle x, y, weil g
und f injektiv sind. Also ist g ◦ f injektiv. Außerdem gilt g[f [A]] = g[B] = C
wegen der Surjektivität von f und g. Damit ist g ◦ f auch surjektiv.
Verknüpfungen auf Abbildungen. M = {f : X → X} mit f ∗ g = f ◦ g ist
eine Halbgruppe. Ebenso ist M = {f : X → X | f bijektiv} mit f ∗g = f ◦g eine
Halbgruppe. Ihre Elemente heißen Permutationen von X. Für X = {1, . . . , n}
wird die Menge der Permutionen mit Sn bezeichnet.
Kommutative Verknüpfungen. Ein Verknüpfung ∗ auf M heißt kommutativ, wenn a ∗ b = b ∗ a für alle a, b ∈ M gilt.
Kommutative Beispiele. (N, +), (N, ·), (Q, ·), (Rn , +), (S1 , ◦), (S2 , ◦)
Literatur.
[F, 1.2], [FL, 1.2.2].
5
1.3
Gruppen (23.10.)
Definition. G mit einer Verknüpfung ∗ : G × G → G heißt Gruppe, falls gilt:
i) G ist eine Halbgruppe. ii) Es gibt e ∈ G (neutrales Element), so dass e ∗ a = a
für alle a ∈ G gilt. iii) Ist e ein neutrales Element, so gibt es für jedes a ∈ G ein
a0 ∈ G mit a0 ∗ a = e (inverses Element von a).
Links oder rechts? Sei (G, ∗) eine Gruppe, e ein neutrales Element, a ∈ G
und a0 zu a invers. Dann gilt a ∗ a0 = e und a ∗ e = a.
Beweis. Sei a00 zu a0 invers. Es gilt: aa0 = (ea)a0 = e(aa0 ) = (a00 a0 )(aa0 ) =
a00 ((a0 a)a0 ) = a00 (ea0 ) = a00 a0 = e und ae = a(a0 a) = (aa0 )a = ea = a.
Kürzungsregeln. Sei (G, ∗) eine Gruppe, und a, x, y ∈ G. Es gilt: i) Aus
a ∗ x = a ∗ y folgt x = y. ii) Aus x ∗ a = y ∗ a folgt x = y.
Beweis. Sei e ein neutrales Element und a0 zu a invers. zu i) x = ex = (a0 a)x =
a0 (ax) = a0 (ay) = (a0 a)y = ey = y. zu ii) x = xe = x(aa0 ) = (xa)a0 = (ya)a0 =
y(aa0 ) = ye = y.
Lemma. i) Das neutrale Element ist eindeutig bestimmt. ii) Das zu a inverse
Element ist eindeutig bestimmt (und wird mit a−1 bezeichnet).
Beweis. zu i) Sind e, ẽ neutrale Elemente, so gilt eẽ = e, eẽ = ẽ und somit e = ẽ.
zu ii) Sind a0 , ã0 zu a invers, so gilt ã0 = ã0 e = ã0 (aa0 ) = (ã0 a)a0 = ea0 = a0 .
Beispiele für Gruppen. (Z, +) mit e = 0; (Q \ {0}, ·) mit e = 1; (Rn , +) mit
e = (0, . . . , 0); Permutationen bzgl. ◦ mit id : X → X, x 7→ x als e.
Inverse. Sei G eine Gruppe, a, b ∈ G. Es gilt (a−1 )−1 = a und (ab)−1 =
b−1 a−1 , weil a−1 a = e und (b−1 a−1 )(ab) = b−1 ((a−1 a)b) = b−1 (eb) = b−1 b = e.
Gruppentafel für zweielementige Gruppen:
*
e
a
Literatur.
e
e
a
[Dy, I.1], [F, 1.2], [Dei, 3.4]
6
a
a
e
Extemporale, 26.10.2012
Name (anonymisiert):
Bitte bearbeiten Sie ohne Hilfsmittel in 15 Minuten die folgenden Aufgaben.
1. Formulieren Sie die Definition einer Gruppe (G, ∗).
Eine Menge G mit einer Verknüpfung ∗ : G × G → G heißt Gruppe, falls gilt:
i) (G, ∗) ist eine Halbgruppe. ii) Es gibt ein neutrales Element e ∈ G, so dass
e ∗ a = a für alle a ∈ G gilt. iii) Für jedes a ∈ G gibt es ein Inverses a0 ∈ G mit
a0 ∗ a = e.
2. Seien f : A → B, g : B → C injektiv. Zeigen Sie, dass g ◦ f injektiv ist.
Seien x, y ∈ A mit (g ◦ f )(x) = (g ◦ f )(y). Dies bedeutet g(f (x)) = g(f (y)). Weil
g injektiv ist, folgt f (x) = f (y). Weil f injektiv ist, folgt x = y. Also ist g ◦ f
injektiv.
3. Seien f : X → X, g : X → X Abbildungen. Beweisen oder widerlegen Sie:
f ◦ g = g ◦ f.
Sei f : R → R, x 7→ 2x und g : R → R, x 7→ x2 . Dann ist (f ◦ g)(x) = 2x2 und
(g ◦ f )(x) = 4x2 für alle x ∈ R. Insbesondere gilt (f ◦ g)(1) = 2 6= (g ◦ f )(1) = 4.
Also ist die Komposition von Abbildungen nicht kommutativ.
Bewertung: Maximal 2 Punkte pro Aufgabe, (5 & 6, 4, 3, 2, 1, 0) Punkte
entsprechen der Note (1, 2, 3, 4, 5, 6). Bei 41 Teilnehmern gab es 5mal Note 1,
6mal 2, 7mal 3, 10mal 4, 11mal 5, 2mal 6. Durchschnitt: 3,54
1.4
Untergruppen (26.10.)
Links- und Rechtstranslation. Ist (G, ∗) eine Gruppe und a ∈ G, so sind
la : G → G, x 7→ a ∗ x und ra : G → G, x 7→ x ∗ a bijektiv: injektiv wegen
Kürzungsregeln, surjektiv wegen x = ra (xa0 ) = la (a0 x) für alle x ∈ G.
Lemma. Ist (G, ∗) eine Halbgruppe und la , ra für alle a ∈ G bijektiv, so ist
(G, ∗) eine Gruppe.
Beweis. Für a, b ∈ G gibt es x, y ∈ G mit ra (x) = a, la (y) = b und x ∗ b =
x ∗ (a ∗ y) = (x ∗ a) ∗ y = a ∗ y = b. Das z ∈ G mit ra (z) = x ist invers zu a.
Gruppentafel für dreielementige Gruppen:
*
e
a
b
e
e
a
b
a
a
b
e
b
b
e
a
Untergruppe. Sei (G, ∗) eine Gruppe. U ⊆ G heißt eine Untergruppe von G,
falls U 6= ∅ sowie a ∗ b ∈ U und a−1 ∈ U für alle a, b ∈ U gilt.
Gruppe. Eine Untergruppe ist eine Gruppe.
Beweis. ∗ : G × G → G erfüllt ∗[U × U ] ⊆ U und ist auch auf U assoziativ.
Wegen U 6= ∅ gibt es a ∈ U und es gilt a−1 ∈ U und e = a ∗ a−1 ∈ U .
Untergruppen von Z. Ist U eine Untergruppe von (Z, +), so gibt es genau
ein m ∈ N mit U = mZ := {m · x | x ∈ Z}.
Beweis. U = {0} = 0 · Z. Andernfalls gibt es positive ganze Zahlen in U . Sei m
die kleinste von ihnen. Dann gilt mZ ⊆ U . Sei n ∈ U . Wir schreiben n = qm + r
mit q ∈ Z, 0 ≤ r < m. Dann ist r ∈ U und somit r = 0 und U ⊆ mZ.
Äquivalenzrelation. Sei M eine Menge. R ⊆ {(x, y) | x, y ∈ M } heißt
Äquivalenzrelation auf M falls für alle x, y, z ∈ M gilt: i) (x, x) ∈ R. ii) Aus
(x, y) ∈ R folgt (y, x) ∈ R. iii) Aus (x, y) ∈ R und (y, z) ∈ R folgt (x, z) ∈ R.
D.h. eine Äquivalenzrelation ist reflexiv, symmetrisch und transitiv.
Lemma. Sei U eine Untergruppe von G. Dann definieren x ∼U y, falls xy −1 ∈
U , und x ∼U y, falls x−1 y ∈ U , zwei Äquivalenzrelationen auf G.
Beweis. für ∼U : i) xx−1 = e ∈ U . ii) Aus xy −1 ∈ U folgt yx−1 = (xy −1 )−1 ∈ U .
iii) Aus xy −1 ∈ U und yz −1 ∈ U folgt xz −1 = (xy −1 )(yz −1 ) ∈ U .
Teilen mit Rest. Für U = mZ sind ∼U und ∼U gleich. Für m > 0 gilt
x ∼mZ y genau dann, wenn x = qx m + r, y = qy m + r mit qx , qy ∈ Z, 0 ≤ r < m.
Literatur.
[F, 1.2], [FL, 1.1.5, 1.2.5], [Dei, 1.3, 3.1 & 3.4]
8
1.5
Faktorgruppen (30.10.)
Nebenklassen.
Sei U eine Untergruppe von G. Für a ∈ G gilt
{g ∈ G | a ∼U g} = {g ∈ G | ∃u ∈ U : ag −1 = u} = {ua | u ∈ U } = U a,
{g ∈ G | a ∼U g} = {g ∈ G | ∃u ∈ U : a−1 g = u} = {au | u ∈ U } = aU.
Diese Äquivalenzklassen heißen die Rechts- und Linksnebenklassen von a.
S
Zerlegung. Es gilt G = a∈G aU , wobei die Vereinigung disjunkt ist. Gleiches
gilt für die Rechtsnebenklassen.
Beweis. Ist aU ∩bU 6= ∅, so gibt es g ∈ G mit a ∼U g, b ∼U g. Wegen Symmetrie
und Transitivität gilt a ∼U b und aU = bU . Also ist entweder
aU ∩ bU = ∅ oder
S
aU = bU . Für a ∈ G ist a = ae ∈ aU und somit G = a∈G aU .
Restklassen. Für G = Z, U = mZ, m > 0 und a ∈ Z ist aU = U a = a + mZ
und enthält alle ganzen Zahlen, die nach Division durch m den gleichen Rest
wie a haben. a + mZ heißt Restklasse von a modulo m. Es ist Z = (0 + mZ) ∪
· · · ∪ (m − 1 + mZ), und die Vereinigung ist disjunkt.
Normalteiler. Sei U eine Untergruppe von G. Gilt aU = U a für alle a ∈ G,
so ist ∼U gleich ∼U , und U heißt Normalteiler von G.
Lemma. Ist U eine Untergruppe von G, so sind äquivalent: i) U ist Normalteiler von G. ii) aU ∗ bU = (ab)U für alle a, b ∈ G. iii) aU a−1 = U für alle
a ∈ G.
Beweis. i)⇒ii): aU ∗ bU = {aubv | u, v ∈ U } = {abwv | v, w ∈ U } = (ab)U .
ii)⇒iii): aU = U ∗ aU = {uav | u, v ∈ U } ⊇ U a und a−1 U ⊇ U a−1 , woraus
aU a−1 ⊇ U und U ⊇ aU a−1 folgt. iii)⇒i): aU = a(a−1 U a) = U a.
Faktorgruppe.
Ist U ein Normalteiler von G, so definiert
G/U = {aU | a ∈ G},
aU ∗ bU = (ab)U
eine Gruppe, die sogenannte Faktorgruppe von G bezüglich U . Das neutrale
Element ist U , und das zu aU Inverse ist a−1 U .
Zyklische Gruppen. Die Faktorgruppe Z/mZ, m > 0, heißt die zyklische
Gruppe der Ordnung m. Sie ist abelsch und enthält m Elemente.
Literatur.
[F, 1.2], [Dei, 1.3 & 3.4], [KM, 3.2]
9
2
2.1
Ringe und Körper
Ringe (02.11.)
Definition. Eine Menge R mit zwei Verknüpfungen + : R × R, (a, b) 7→ a + b
und · : R × R, (a, b) 7→ a · b heißt Ring, falls gilt: i) (R, +) ist abelsche Gruppe.
ii) (R, ·) ist eine Halbgruppe. iii) Es gelten die Distributivgesetze a · (b + c) =
a · b + a · c, (a + b) · c = a · c + b · c für alle a, b, c ∈ R.
Beispiele. Z, 2Z, Q, R sind mit der üblichen Addition und Multiplikation
Ringe. Die Menge der Funktionen {f : R → R} sind mit (f +g)(x) = f (x)+g(x),
(f ·g)(x) = f (x)·g(x) ein Ring. Z/mZ = {[0], . . . , [m−1]} ist mit [a]+[b] = [a+b],
[a] · [b] = [a · b] ein Ring.
Multiplikationstafeln.
·
0
1
0
0
0
1
0
1
Z/0Z = Z, Z/Z = {0}. Für Z/mZ, m = 2, 3, 4 gilt:
·
0
1
2
0
0
0
0
1
0
1
2
2
0
2
1
·
0
1
2
3
0
0
0
0
0
1
0
1
2
3
2
0
2
0
2
3
0
3
2
1
Wegen 2 · 2 = 0 ist ((Z/4Z) \ {0}, ·) keine Gruppe.
Restklassenringe. Ein Ring R heißt nullteilerfrei, wenn für alle a, b ∈ R aus
a · b = 0 stets a = 0 oder b = 0 folgt. Z/mZ ist genau dann nullteilterfrei, wenn
m eine Primzahl ist.
Beweis. Ist m eine Primzahl und [k] · [l] = 0, so gilt k · l = m · r für ein r ∈ Z,
und k oder l hat m als Primfaktor, was [k] = 0 oder [l] = 0 bedeutet. Also ist
Z/mZ nullteilerfrei. Ist m keine Primzahl, so gibt es 1 < k, l < m mit m = k · l.
Es ist [k] 6= 0, [l] 6= 0, aber [m] = 0. Also ist Z/mZ nicht nullteilerfrei.
Nullteilerfreie Ringe. In einem nullteilerfreien Ring R ist R∗ := R \ {0}
bezüglich · ein Halbgruppe, aber nicht immer eine Gruppe: In Z fehlen multiplikative Inverse, in 2Z sogar das Einselement.
Literatur.
[N, §1], [F, 1.3], [FL, 1.3.1]
10
2.2
Komplexe Zahlen (06.11.)
Definition.
Ein Ring R heißt Körper, falls (R∗ , ·) ein abelsche Gruppe ist.
Beispiele. Q, R sind Körper. Endliche, kommutative, nullteilerfreie Ringe
sind Körper. Insbesondere ist Z/mZ ein Körper, wenn m eine Primzahl ist.
Beweis. Wir zeigen, dass ra : R∗ → R∗ , x 7→ a · x für alle a ∈ R∗ injektiv ist.
Aus ra (x) = ra (y) folgt a · (x − y) = 0 und x − y = 0 und x = y. Wegen R∗
endlich ist ra auch surjektiv (Schubfachprinzip).
Definition
+
:
C = {(x, y) | x, y ∈ R} mit den Verknüpfungen
C × C → C, ((x1 , y1 ), (x2 , y2 )) 7→ (x1 + x2 , y1 + y2 )
· : C × C → C, ((x1 , y1 ), (x2 , y2 )) 7→ (x1 x2 − y1 y2 , x1 y2 + y1 x2 )
ist ein kommutativer Körper mit Nullelement (0, 0) und Einselement (1, 0).
Beweis. Sei w = x2 + y 2 . Wir überprüfen nur, dass (x/w, −y/w) zu (x, y) invers
ist: (x/w, −y/w) · (x, y) = (x2 /w + y 2 /w, xy/w − yx/w) = (1, 0).
Polarkoordinaten.
Wir beschreiben z = (x, y) ∈ C durch den Betrag |z| =
p
x2 + y 2 und den Winkel α zwischen (x, y) und (1, 0) gegen den Uhrzeigersinn
gemessen: z = |z|eiϕ = |z|(cos ϕ + i sin ϕ). Die Multiplikation ist
z1 · z2
= |z1 | |z2 |(cos ϕ1 cos ϕ2 − sin ϕ1 sin ϕ2 + i(cos ϕ1 sin ϕ2 + sin ϕ1 cos ϕ2 ))
= |z1 | · |z2 | · eiϕ1 eiϕ2 = |z1 | · |z2 | · ei(ϕ1 +ϕ2 ) .
Insbesondere gilt |z1 · z2 | = |z1 | · |z2 | für alle z1 , z2 ∈ C.
Literatur.
[E, 1.3 & 8.133], [G, §30], [Dei, 2.3], [FL, 1.3.6]
11
2.3
Angeordnete Körper (09.11.)
Konventionen. Sei K ein Körper. Das additiv Neutrale wird mit 0, das multiplikativ Neutrale mit 1 bezeichnet. Für a ∈ K, b ∈ K ∗ ist −a das additiv
Inverse zu a und b−1 das multiplikativ Inverse zu b, sowie a/b := a · b−1 .
Rechenregeln. Für alle x, y, a, b ∈ K gilt: i) 0·x = x·0 = 0. ii) x(−y) = −(xy)
und (−x)(−y) = xy. Insbesondere (−1)x = −x. iii) a/b + x/y = (ay + bx)/(by)
für b, y 6= 0.
Beweis. zu i) 0 · x = (0 + 0) · x = 0 · x + 0 · x, also 0 · x = 0. zu ii) xy + x(−y) =
x(y − y) = x · 0 = 0 und (−x)(−y) = −((−x)y) = −(−(xy)) = xy. zu iii)
(by)(a/b + x/y) = b(y(a/b + x/y)) = b(ya/b + x) = ya + bx.
Charakteristik. Sei R ein Ring mit 1. Dann ist die Charakteristik char(R)
von R die kleinste natürliche Zahl n ∈ N∗ mit n · 1 := (1 + · · · + 1) = 0. Gilt
n · 1 6= 0 für alle n ∈ N∗ , so ist char(R) = 0.
Lemma.
Die Charakteristik eines nullteilerfreien Rings R ist 0 oder prim.
Beweis. Ist char(R) = m = kl mit 1 < k, l < m, so gilt 0 = m · 1 = (k · 1) · (l · 1)
und wegen Nullteilerfreiheit k · 1 = 0 oder l · 1 = 0. Widerspruch.
Lineare Ordnung. Sei M eine Menge. R ⊆ M × M heißt lineare Ordnung,
falls für alle x, y, z ∈ M gilt: i) (x, x) ∈ R. ii) Aus (x, y), (y, x) ∈ R folgt x = y.
iii) Aus (x, y), (y, z) ∈ R folgt (x, z) ∈ R. iv) (x, y) ∈ R oder (y, x) ∈ R. Eine
lineare Ordung ist also reflexiv, antisymmetrisch, transitiv und kann je zwei
Elemente aus M vergleichen. Man schreibt x ≤ y für (x, y) ∈ R.
Angeordneter Körper. Sei K ein Körper und ≤ eine lineare Ordnung auf K.
In einem angeordnetem Körper K gilt für alle x, y, z ∈ K: i) Aus x ≤ y folgt
x + z ≤ y + z. ii) Aus 0 ≤ x, y folgt 0 ≤ x · y.
Lemma. In einem angeordneten Körper K gilt 0 ≤ x2 für alle x ∈ K. Insbesondere ist 0 ≤ 1.
Beweis. Für 0 ≤ x gilt 0 ≤ x · x = x2 . Für x ≤ 0 gilt 0 ≤ −x und 0 ≤
(−x) · (−x) = x2 .
Beispiele.
Lemma.
Q und R sind angeordnet, C wegen i2 = −1 nicht.
Ein angeordneter Körper K hat Charakteristik Null.
Beweis. Ist char(K) > 0, so gilt 0 ≤ 1 ≤ . . . ≤ char(K) · 1 = 0, also 1 = 0.
Literatur.
[F, 1.3.3], [Dei, 2.3], [FL, 1.3.6]
12
2.4
Polynome (13.11.)
Definition. Sei K ein Körper, a0 , . . . , an ∈ K. Dann heißt f = a0 + a1 t +
· · · + an tn ein Polynom über K in der Unbestimmten t, und K[t] bezeichnet die
Menge solcher Polynome. Der Grad von f ist deg(f ) = max{n ∈ N | an 6= 0}.
Für das Nullpolynom setzt man deg(0) = −∞.
Ring der Polynome. Seien f = a0 + · · · + an tn , g = b0 + · · · + bm tm mit
m ≤ n. Wir definieren
f + g = c0 + · · · + cn tn ,
f · g = d0 + · · · + dn+m tn+m
P
mit ck = ak +bk für k ≤ m und ck = ak für k > m sowie dk = i+j=k ai bj . Dann
ist (K[t], +, ·) ein kommutativer, nullteilerfreier Ring, und es gilt deg(f + g) ≤
max(deg(f ), deg(g)) sowie deg(f · g) = deg(f ) + deg(g).
Beweis. Wir überprüfen, dass K[t] nullteilerfrei ist: Sei f · g = 0. Dann ist
deg(f ) + deg(g) = −∞, woraus deg(f ) = −∞ oder deg(g) = −∞ folgt. Also ist
f = 0 oder g = 0.
Polynomdivsion. Seien f, g ∈ K[t] und g 6= 0. Dann gibt es eindeutig bestimmte q, r ∈ K[t] mit f = q · g + r und deg(r) < deg(g).
Beweis. Zur Eindeutigkeit: Seien q, q̃, r, r̃ ∈ K[t] mit f = qg + r = q̃g + r̃ und
deg(r), deg(r̃) < deg(g). Dann ist (q − q̃)g = r̃ − r und deg(q − q̃) + deg(g) =
deg(r̃ − r) < deg(g). Also gilt deg(q − q̃) = −∞ und somit q = q̃, r = r̃. Zur
Existenz: Sei f = an tn +· · ·+a0 , g = bm tm +· · ·+b0 mit an , bm 6= 0. Falls n < m,
setze f = 0 · g + f . Falls n ≥ m, setze q1 = an /bm tn−m , f1 = f − q1 g. Dann
ist deg(f1 ) < deg(f ). Wir sind fertig, falls deg(f1 ) < m. Andernfalls wiederholt
man die Konstruktion mit f1 anstelle von f , etc. Nach k Schritten erfüllt fk =
fk−1 − qk g dann deg(fk ) < m und f = q1 g + f1 = . . . = (q1 + · · · + qk )g + fk .
Nullstellen. f = t2 + 1 ∈ R[t] hat keine Nullstelle in R. Ist K = {a0 , . . . , an }
ein endlicher Körper, so hat f = (t − a0 ) · · · (t − an ) + 1 ∈ K[t] keine Nullstelle
in K.
Anzahl von Nullstellen. Sei K ein Körper, f ∈ K[t], f 6= 0 und k die
Anzahl der Nullstellen von f in K. Dann gilt k ≤ deg(f ).
Beweis. mit Induktion über deg(f ) = n. Induktionsanfang n = 0: f = a0 6= 0
hat keine Nullstelle. Induktionsschritt von n nach n+1: Sei deg(f ) = n+1. Hat f
keine Nullstelle, so sind wir fertig. Hat f ein Nullstelle λ ∈ K, so gibt es eindeutig
bestimmtes q, r mit f = q(t − λ) + r, deg(r) < 1. Also ist r = b0 = f (λ) = 0 und
f = q(t − λ) und deg(q) = n. Nach Induktionsvoraussetzung hat q höchstens n
Nullstellen, und es gilt k ≤ n + 1.
Literatur.
[F, 1.3], [FL, 1.4]
13
3
Vektorräume
3.1
Der n-dimensionale reelle Raum (16.11.)
Definition. Rn = {(x1 , . . . , xn ) | x1 , . . . , xn ∈ R} ist die Menge der geordneten n-Tupel reeller Zahlen. Wir nennen die Elemente des Rn Vektoren und
definieren die Addition und die skalare Multiplikation folgendermaßen:
+
: Rn × Rn → Rn , (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ),
· : R × Rn → Rn , λ · (x1 , . . . , xn ) = (λx1 , . . . , λxn ).
Punkt oder Pfeil? Im R2 können wir einen Vektor als Punkt der Ebene
ansehen oder als Pfeil, der den Ursprung 0 = (0, 0) mit dem Punkt verbindet.
Manchmal zeichnet man einen vom Ursprung weg verschobenen Pfeil.
Geraden in R2 . Seien v, v 0 ∈ R2 , v 6= v 0 und g : R → R2 , λ 7→ v + λ(v 0 − v).
Dann heißt g[R] die durch v und v 0 laufende Gerade. Es gilt g(0) = v, g(1) = v 0 .
G ⊆ R2 ist genau dann eine Gerade, wenn es (a1 , a2 ) ∈ R2 \ {(0, 0)} und b ∈ R
mit G = {x ∈ R2 | a1 x1 + a2 x2 = b} gibt.
Beweis. x ∈ g[R] ⇔ x − v = λ(v 0 − v) für ein λ ∈ R ⇔ (x2 − v2 )/(x1 −
v1 ) = (v20 − v2 )/(v10 − v1 ) oder (x1 − v1 )/(x2 − v2 ) = (v10 − v1 )/(v20 − v2 ) ⇔
(x2 − v2 )(v10 − v1 ) = (x1 − v1 )(v20 − v2 ) ⇔ a1 x2 + a2 x2 = b mit a1 = v2 − v20 ,
a2 = v10 − v1 , b = v2 v10 − v1 v20 .
Der Schnitt zweier verschiedener Geraden im R2 besteht entweder aus einem
Punkt oder ist leer.
Beweis. Sei x ∈ G1 ∩ G2 = {x ∈ R2 | a11 x1 + a12 x2 = b1 , a21 x1 + a22 x2 = b2 }.
Ist (a11 , a21 ) = (0, 0), so ist b1 /a12 6= b2 /a22 . Also G1 ∩ G2 = ∅. Ist a11 6= 0, so
gilt a11 x1 + a12 x2 = b1 , (a22 − a12 a21 /a11 )x2 = b2 . Ist a22 − a12 a21 /a11 = 0,
so ist der Schnitt leer. Andernfalls gilt x2 = b2 /(a22 − a12 a21 /a11 ) und x1 =
(b1 − a12 x2 )/a11 . Analog für a11 = 0, a21 6= 0.
Lineares Gleichungssystem. Wir haben eben ein lineares Gleichungssystem
Ax = b mit einer reellen 2 × 2 Matrix A ∈ R2×2 gelöst:
a11 a12
x1
b
= 1 .
a21 a22
x2
b2
Literatur.
[W, §2–3], [F, 0.1–0.3]
14
3.2
Vektorräume (20.11.)
Definition. Sei K ein Körper. Eine Menge V zusammen mit einer Addition
und einer skalaren Multiplikation
+ : V × V → V, (v, w) 7→ v + w,
· : K × V → V, (λ, v) 7→ λ · v
heißt Vektorraum bezüglich K, falls für alle λ, µ ∈ K, v, w ∈ V gilt: i) (V, +) ist
eine abelsche Gruppe. ii) (λ + µ) · v = λ · v + µ · v und λ · (v + w) = λ · v + λ · w.
iii) λ · (µ · v) = (λµ) · v. iv) 1 · v = v.
Standardraum.
K n = {(x1 , . . . , xn ) | x1 , . . . , xn ∈ K} mit
(x1 , . . . , xn ) + (y1 , . . . , yn )
=
(x1 + y1 , . . . , xn + yn ),
λ · (x1 , . . . , xn )
=
(λx1 , . . . , λxn )
ist ein K-Vektorraum.
Matrizen. Die Menge K m×n der m × n Matrizen mit m Zeilen, n Spalten
und Einträgen aus K ist ein K-Vektorraum bezüglich (aij ) + (bij ) = (aij + bij ),
λ · (aij ) = (λaij ). Man kann K m×n mit K mn identifizieren.
Zahlen. C ist bezüglich der üblichen Addition auf C und der skalaren Multiplikation R × C → C, (λ, v) 7→ λv ein R-Vektorraum.
Polynome. K[t] ist bezüglich der üblichen Addition und der skalaren Multiplikation λ · (a0 + · · · + an tn ) = λa0 + · · · + (λan )tn ein K-Vektorraum.
Abbildungen. Sei M eine Menge. Die Abbildungen {f : M → K} sind
bezüglich (f + g)(x) = f (x) + g(x) und (λ · f )(x) = λf (x) ein K-Vektorraum.
f : {1, . . . , n} → K können wir mit dem Vektor“ (f (1), . . . , f (n)) ∈ K n iden”
tifizieren. f : N → K können wir mit der Zahlenfolge (fn )n∈N identifizieren.
Rechenregeln. In einem K-Vektorraum gilt für alle λ ∈ K, v ∈ V : i) 0·v = 0.
ii) λ · 0 = 0. iii) Aus λ · v = 0 folgt λ = 0 oder v = 0. iv) (−1) · v = −v.
Literatur.
[F, 1.4], [FL, 2.1.1], [B, 1.4]
15
3.3
Unterräume (23.11.)
Definition. Sei V ein K-Vektorraum. Eine Teilmenge U ⊆ V heißt Unterraum
von V , falls gilt: i) U 6= ∅. ii) Aus v, w ∈ U folgt v + w ∈ U . iii) Aus v ∈ U ,
λ ∈ K folgt λv ∈ U .
Satz. Ein Unterraum U ⊆ V ist mit der von V induzierten Addition und
skalaren Multiplikation ein Vektorraum.
Beweis. Für alle v, w ∈ U gilt v + w, −v ∈ U . Also ist (U, +) eine Untergruppe
von (V, +) und zudem eine abelsche Gruppe. Aus iii) folgt ·[K × U ] ⊆ U . Die
Distributivgesetze und die Assoziativität der skalaren Multiplikation vererbt V .
Ebenso gilt 1 · v = v für alle v ∈ U .
Beispiele. i) {0} ist immer ein Unterrraum. ii) {x ∈ R2 | a1 x1 + a2 x2 = b}
ist für b 6= 0 kein Unterraum von R2 . iii) Für A ∈ K n×n , x ∈ K n ist Ax ∈ K n ,
(Ax)i =
n
X
aij xj ,
i = 1, . . . , n.
j=1
{x ∈ K n | Ax = 0} ist ein Unterraum des K n .
Literatur.
[F, 1.4], [FL, 2.1.2 & 2.1.3], [B, 1.4.]
16
3.4
Linearkombinationen, lineare Unabhängigkeit (27.11.)
Linearkombination. Seien V ein K-Vektorraum und v1 , . . . , vn ∈ V . Ein
Vektor v ∈ V heißt Linearkombiation von v1 , . . . , vn , wenn es λ1 , . . . , λn ∈ K
mit v = λ1 v1 + · · · + λn vn gibt.
Aufgespannter Raum. Sei M ⊆ V . Die Menge aller v ∈ V , die eine Linearkombination von Vektoren in M sind, heißt von M aufgespannter Raum
und wird mit span(M ) bezeichnet: Für v ∈ span(M ) gibt es v1 , . . . , vn ∈ M ,
λ1 , . . . , λn ∈ K mit v = λ1 v1 + · · · + λn vn . Man setzt span(∅) = {0}. span(M )
ist der kleinste Unterraum von V , der M enthält.
Beweis. {0} ⊆ span(M ) ⊆ V . Wegen v + w, λv ∈ span(M ) für alle v, w ∈
span(M ), λ ∈ K ist span(M ) ein Unterraum. Ist U ⊇ M ein Unterraum von V ,
so gilt span(M ) ⊆ U .
Beispiele. i) Ist v ∈ R2 \ {0}, so ist span(v) = {λv | λ ∈ R} die durch v und
0 laufende Gerade. ii) Das Kronecker-Symbol δij erfüllt δij = 1 für i = j und
δij = 0 sonst. Der i-te Einheitsvektor
ei = (δ1i , . . . , δni ) ∈ K n
ist an der i-ten Stelle 1 und sonst 0. Es gilt span(e1 , . . . , en ) = K n . iii) span(tn |
n ∈ N) = K[t].
Definition. Eine Teilmenge M ⊆ V eines K-Vektorraums V heißt linear
unabhängig, falls für alle paarweise verschiedenen v1 , . . . , vn ∈ M und alle
λ1 , . . . , λn ∈ K gilt: Aus λ1 v1 + · · · + λn vn = 0 folgt λ1 = . . . = λn = 0.
Literatur.
[F, 1.4], [FL, 2.1.2 & 2.1.3], [B, 1.4.]
17
Extemporale, 27.11.2012
Name (letzte Anonymisierung und VTTMM):
Bitte bearbeiten Sie ohne Hilfsmittel in 15 Minuten die folgenden Aufgaben.
1. Sei K ein Körper, f ∈ K[t] und λ ∈ K mit f (λ) = 0. Zeigen Sie, dass es
genau ein q ∈ K[t] mit f = q(t − λ) gibt.
Es gibt eindeutig bestimmte q, r ∈ K[t] mit f = q(t − λ) + r und deg(r) <
deg(t − λ) (Polynomdivision). Wir zeigen, dass r das Nullpolynom ist. Wegen
deg(r) < deg(t − λ) = 1 gilt deg(r) = −∞ oder deg(r) = 0. Wegen 0 = f (λ) =
q(λ) · 0 + r(λ) gilt r(λ) = 0 und r = 0.
2. Sei K ein Körper. Formulieren Sie die Definition eines K-Vektorraums (V, +, ·).
V zusammen mit einer Addition + : V × V → V , (v, w) 7→ v + w und einer
skalaren Multiplikation · : K × V → V, (λ, v) 7→ λ · v heißt K-Vektorraum, falls
für alle λ, µ ∈ K, v, w ∈ V gilt: i) (V, +) ist abelsche Gruppe. ii) (λ + µ) · v =
λ · v + µ · v, λ · (v + w) = λ · v + λ · w. iii) λ · (µ · v) = (λµ) · v. iv) 1 · v = v.
3. Beweisen oder widerlegen Sie: U = (x, y) ∈ R2 | y = x2 ist ein Unterraum
von R2 .
U ist kein Unterrraum, da U nicht additiv abgeschlossen ist: (1, 1) ∈ U und
(2, 4) ∈ U , aber (1, 1) + (2, 4) = (3, 5) 6∈ U , weil 5 6= 32 .
Bewertung: Maximal 2 Punkte pro Aufgabe, (5 & 6, 4, 3, 2, 1, 0) Punkte
entsprechen der Note (1, 2, 3, 4, 5, 6). Bei 36 Teilnehmern gab es 1mal Note 1,
6mal 2, 3mal 3, 8mal 4, 9mal 5, 9mal 6. Durchschnitt: 4,25
Befragung zum Zeitaufwand, 30.11.2012
Name (letzte Anonymisierung und VTTMM):
Bitte geben Sie Ihre durchschnittliche wöchentliche Arbeitszeit an.
Analysis I
Lin. Algebra I
Nachbereiten der Vorlesung
1.6h
1.3h
Studium von Lehrbüchern
ergänzender Literatur & Internetquellen
1.3h
0.6h
Selbstständiges Bearbeiten
von Übungaufgaben
2.2h
2.3h
Gruppenarbeit an Übungsaufgaben
2.4h
2.4h
Vor- und Nachbereiten der Ergänzungen
0.3h
0.2h
Summe
7.8h
6.8h
In blau ist der Mittelwert eingetragen, den die Befragung von 27 StudentInnen
ergeben hat. Es empfiehlt sich mehr Zeit auf die selbstständige Bearbeitung von
Übungsaufgaben zu verwenden, insbesondere eine Reinschrift der Lösung.
3.5
Lineare Unabhängigkeit (30.11.)
Beispiele im R3 . i) v1 = (1, 2, 3), v2 = (4, 5, 6) sind linear unabhängig, denn
aus λ1 v1 + λ2 v2 = 0 folgt λ1 + 4λ2 = 0, 2λ1 + 5λ2 = 0 und λ1 = −4λ2 ,
3λ2 = 0, also 0 = λ2 = λ1 . ii) v1 , v2 und v3 = (7, 8, 9) sind linear abhängig:
λ1 v1 + λ2 v2 + λ3 v3 = 0 bedeutet

   

   
1 4 7
λ1
0
1 4
7
λ1
0
2 5 8 λ2  = 0 bzw. 0 −3 −6 λ2  = 0 .
3 6 9
λ3
0
0 0
0
λ3
0
Hiervon ist jedes (λ3 , −2λ3 , λ3 ) eine Lösung.
Beispiele im K n . i) {e1 , . . . , en } ⊆ K n ist linear unabhängig. ii) Sei A ∈
K n×n eine unipotente obere Dreiecksmatrix: aii = 1 für alle i und aij = 0
für i > j. Die Zeilenvektoren {v1 , . . . , vn } von A sind linear unabhängig, denn
λ1 v1 + · · · + λn vn = 0 bedeutet λn = 0, . . . , λ1 = 0 (Rückwärtssubstitution).
Polynome. Die Monome {tn | n ∈ N} ⊆ K[t] sind linear unabhängig, denn
λ0 + λ1 tk1 + · · · + λn tkn = 0 gilt nur für das Nullpolynom.
Funktionen. 1, cos(x), sin(x) ∈ Abb(R, R) sind linear unabhängig: Aus λ1 ·
1 + λ2 · cos +λ3 · sin = 0 folgt λ1 + λ2 = 0 (x = 0), λ1 + λ3 = 0 (x = π2 ),
λ1 − λ2 = 0 (x = π). Dieses lineare Gleichungssystem hat (λ1 , λ2 , λ3 ) = (0, 0, 0)
als einzige Lösung.
Satz. Für M ⊆ V sind äquivalent: i) M ist linear unabhängig. ii) 0 6∈ M und
für jedes v ∈ span(M ) \ {0} gibt es eindeutig bestimmte, paarweise verschiedene
v1 , . . . , vn ∈ M und eindeutig bestimmte λ1 , . . . , λn ∈ K ∗ mit v = λ1 v1 + · · · +
λ n vn .
Beweis. ii)⇒i): Ist λ1 v1 = 0, v1 ∈ M , so folgt λ1 = 0. Ist λ1 v1 + · · · + λn vn = 0
und ein λi 6= 0, so sei o.E. λ1 6= 0. Dann ist v1 = −λ2 /λ1 v2 − · · · − λn /λ1 vn ,
was der Eindeutigkeit widerspricht. i)⇒ii): Ist v = λ1 v1 + · · · + λn vn = µ1 w1 +
· · · + µm wm mit vi , wi ∈ M , λi , µi ∈ K ∗ , so folgt 0 = λ1 v1 + · · · + λn vn −
µ1 w1 − · · · − µm wm . Wegen der linearen Unabhängigkeit gilt m = n und (nach
Umnummerierung) vi = wi für alle i. Es folgt aus 0 = (λ1 − µ1 )v1 + · · · + (λn −
µn )vn auch λi = µi für alle i.
Literatur.
[F, 1.4], [FL, 2.1.4], [B, 1.5]
20
3.6
Basen (04.12.)
Lemma. M ist genau dann linear unabhängig, wenn v 6∈ span(M \ {v}) für
alle v ∈ M gilt.
Beweis. Es gibt ein v ∈ M mit v ∈ span(M \ {v}) genau dann, wenn es ein
v ∈ M , λ1 , . . . , λn ∈ K und v1 , . . . , vn ∈ M \ {v} mit λ1 v1 + · · · + λn vn − v = 0
gibt. Dies ist äquivalent zur linearen Abhängigkeit von M .
Definition. Eine Teilmenge M ⊆ V heißt Erzeugendensystem eines Vektorraums V , falls span(M ) = V . Ein linear unabhängiges Erzeugendensystem heißt
Basis.
Beispiele. i) ∅ von {0}. ii) {e1 , . . . , en } von K n . iii) {1, i} ist eine Basis des
R-Vektorraums C. iv) {tn | n ∈ N} von K[t].
Satz.
Sei V 6= {0} eine K-Vektorraum. Für B ⊆ V sind äquivalent:
i) B ist eine Basis von V .
ii) Für jedes v ∈ V \ {0} gibt es eindeutig bestimmte, paarweise verschiedene
v1 , . . . , vn ∈ B und eindeutige λ1 , . . . , λn ∈ K ∗ mit v = λ1 v1 + · · · + λn vn .
iii) span(B) = V und span(B \ {v}) 6= V für alle v ∈ B.
iv) B ist linear unabhängig und B ∪{v} ist für jedes v ∈ V \B linear abhängig.
Beweis. Bereits bewiesen ist i)⇔ii) und i)⇒iii). Außerdem ist i) äquivalent zu B
linear unabhängig und für jedes v ∈ V gibt es v1 , . . . , vn ∈ B und λ1 , . . . , λn ∈ K
mit v = λ1 v1 + · · · + λn vn . Dies ist äquivalent zu iv). Aus iii) folgt span(B) = V ,
und für alle v ∈ B gibt es w ∈ V mit w 6∈ span(B \ {v}) und so ein w läßt sich
nur mit v über B linear kombinieren. Dann gilt v 6∈ span(B \ {v}) und i).
Charakterisierungen. Eine Basis von V ist ein mimimales Erzeugendensystem von V sowie eine maximal linear unabhängige Teilmenge von V .
Literatur.
[Gr, §20], [F, 1.5], [FL, 2.2]
21
3.7
Dimension (07.12.)
Basisauswahlsatz. Ist V = span(M ) und M endlich, so kann man aus M
eine Basis von V auswählen, da M sich in endlich vielen Schritten zu einem
minimalen Erzeugendensystem verkürzen läßt. Dies beweist die Existenz einer
Basis für endliche erzeugte Vektorräume.
Austauschlemma. Sei V ein K-Vektorraum und B eine Basis von V . Sei
v ∈ V und v1 , . . . , vn ∈ B, λ1 , . . . , λn ∈ K ∗ mit v = λ1 v1 + · · · + λn vn . Dann ist
Bi = B \ {vi } ∪ {v} für alle i = 1, . . . , n eine Basis von V .
Beweis. Wir betrachten B1 . Für w ∈ V gibt es w1 , . . . , wm ∈ B, µ1 , . . . , µm ∈ K
mit w = µ1 w1 + · · · + µm wm . Ist ein wj = v1 , so gilt wj = 1/λ1 v − λ2 /λ1 v2 −
· · · − λn /λ1 vn und w ∈ span(B1 ), d.h. V = span(B1 ). Seien z1 , . . . , zl ∈ B1 ,
κ1 , · · · , κl ∈ K mit 0 = κ1 z1 + · · · + κl zl . Schlimmstenfalls ist ein zj = v, o.E.
z1 = v, und es gilt 0 = κ1 (λ1 v1 + λ2 v2 + · · · + λn vn ) + κ2 z2 + · · · + κl zl . Da B
linear unabhängig ist und λi ∈ K ∗ , folgt κi = 0 für alle i.
Austauschsatz. Sei V ein K-Vektorraum und B = {v1 , . . . , vn } eine Basis
von V . Ist {w1 , . . . , wm } ⊆ V linear unabhängig, so gilt m ≤ n, und es gibt n−m
Vektoren in B, so dass (nach Umnummerierung) {w1 , . . . , wm , vm+1 , . . . , vn }
eine Basis von V ist.
Beweis. Induktion nach m. Induktionsanfang m = 0: klar. Induktionsschritt
m−1 → m: Nach Induktionsannahme gilt m−1 ≤ n, {w1 , . . . , wm−1 , vm , . . . , vn }
ist eine Basis von V . Wäre m − 1 = n, so wäre {w1 , . . . , wm−1 } eine Basis von
V , was der linearen Unabhängigkeit von {w1 , . . . , wm } widerspricht. Also gilt
m − 1 6= n und m ≤ n. Außerdem ist wm = λ1 w1 + · · · + λm−1 wm−1 + λm vm +
· · · + λn vn und λi 6= 0 für mindestens ein i ≥ m. Tauschen wir das zugehörige
vi mit wm aus, so erhalten wir eine Basis von V .
Korollar. Hat ein Vektorraum V eine endliche Basis, so sind alle Basen von V
endlich und haben die gleiche Länge.
Definition. Besitzt ein Vektorraum V eine endliche Basis, so heißt die Länge
der Basis die Dimension dim V von V . Besitzt V keine endliche Basis, so definieren wir dim V = ∞. Wir vereinbaren ∞ + ∞ = ∞, ∞ + n = ∞ für n ∈ N.
Unterräume. Ist U Unterraum eines Vektorraums V , so gilt dim U ≤ dim V .
Aus dim U = dim V < ∞ folgt U = V .
Beispiele. i) dim{0} = 0. ii) dim K n = n. iii) Für (a1 , a2 ) 6= (0, 0) ist
{x ∈ Rn | a1 x1 + a2 x2 = 0} ein (n − 1)-dimensionaler Unterraum des Rn .
iv) dim K[t] = ∞. v) dimR C = 2, dimC C = 1.
Literatur.
[F, 1.5], [FL, 2.2], [B, 1.5]
22
3.8
Summen von Vektorräumen (11.12.)
Definition. Sei V ein Vektorraum, und U1 , . . . , Um Unterräume von V . Dann
ist
U1 + · · · + Um := {u1 + · · · + um | uj ∈ Uj , j = 1, . . . , m}
die Summe von U1 , . . . , Um . Es gilt U1 + · · · + Um = span(U1 ∪ · · · ∪ Um ) und
dim(U1 + · · · + Um ) ≤ dim(U1 ) + · · · + dim(Um ).
Dimensionsformel. Für Unterräume U1 , U2 ⊆ V eines Vektorraumes V gilt
dim(U1 + U2 ) + dim(U1 ∩ U2 ) = dim U1 + dim U2 .
Beweis. Ist dim U1 = ∞ oder dim U2 = ∞, so ist nichts zu beweisen. Andernfalls ergänzen wir eine Basis {u1 , . . . , um } von U1 ∩ U2 zu einer Basis B1 =
{u1 , . . . , um , v1 , . . . , vk } von U1 und zu einer Basis B2 = {u1 , . . . , um , w1 , . . . , wl }
von U2 . Es gilt U1 + U2 = span(B1 ∪ B2 ). Aus λ1 u1 + · · · + λm um + µ1 v1 + · · · +
µk vk +κ1 w1 +· · ·+κl wl = 0 folgt λ1 u1 +· · ·+λm um +µ1 v1 +· · ·+µk vk ∈ U1 ∩U2
und µ1 = . . . = µk = 0. Dann folgt auch λ1 = . . . = λm = κ1 = . . . = κl = 0.
Direkte Summe. Ein Vektorraum V heißt die direkte Summe von zwei Unterräumen U1 , U2 ⊆ V , wenn V = U1 + U2 und U1 ∩ U2 = {0}. Man schreibt
dann V = U1 ⊕ U2 .
Lemma. Gilt V = U1 + U2 mit U1 , U2 6= {0}, so sind äquivalent: i) V =
U1 ⊕ U2 . ii) Jedes v ∈ V ist eindeutig darstellbar als v = u1 + u2 mit u1 ∈ U1 ,
u2 ∈ U2 . iii) Je zwei Vektoren u1 ∈ U1∗ , u2 ∈ U2∗ sind linear unabhängig.
Beweis. i)⇒ii) Ist V 3 v = u1 + u2 = u01 + u02 mit u1 , u01 ∈ U1 , u2 , u02 ∈ U2 , so
gilt u1 − u01 , u2 − u02 ∈ U1 ∩ U2 und u1 = u01 , u2 = u02 . ii)⇒iii) Für u1 ∈ U1∗ ,
u2 ∈ U2∗ folgt aus λ1 u1 + λ2 u2 = 0 wegen eindeutiger Darstellung der Null
λ1 = λ2 = 0. iii)⇒i) Ist 0 6= v ∈ U1 ∩ U2 , so sind v und −v linear unabhängig.
Widerspruch.
Komplement. Ist V ein Vektorraum und U ⊆ V Unterraum, so gibt es einen
Unterraum U 0 ⊆ V mit V = U ⊕ U 0 . U 0 heißt das Komplement zu U in V .
Beweis. Ist dim V < ∞, so ergänzen wir eine Basis {u1 , . . . , um } von U zu
einer Basis {u1 , . . . , um , v1 , . . . , vk } von V und setzen U 0 = span{v1 , . . . , vk }.
Für dim V = ∞ geht man ähnlich vor.
Beispiel. Für V = R2 und U = {(0, y) | y ∈ R} ist jeder Unterraum Ua =
{(x, ax) | x ∈ R}, a ∈ R, ein Komplement zu U , R2 = U ⊕ Ua .
Literatur.
[F, 1.6], [B, 1.6]
23
4
4.1
Lineare Abbildungen
Homomorphismen (14.12.)
Definition. Seien (G, ∗) und (H, ∗0 ) Gruppen. Eine Abbildung ϕ : G → H
heißt Homomorphismus, falls ϕ(a ∗ b) = ϕ(a) ∗0 ϕ(b) für alle a, b ∈ G gilt. Ein
bijektiver Homomorphismus heißt Isomorphismus.
Lemma. Sei ϕ : G → H eine Homomorphismus, eG , eH die neutralen Elemente und a ∈ G. Es gilt: i) ϕ(eG ) = eH . ii) ϕ(a−1 ) = ϕ(a)−1 . iii) Ist ϕ ein
Isomorphismus, so auch die Umkehrabbildung ϕ−1 : H → G.
Beweis. i) eH ϕ(eG ) = ϕ(eG ) = ϕ(eG eG ) = ϕ(eG )ϕ(eG ) und damit eH = ϕ(eG ).
ii) ϕ(a−1 )ϕ(a) = ϕ(a−1 a) = ϕ(eG ) = eH . iii) ϕ−1 ist bijektiv. Seien a, b ∈ G,
c = ϕ(a), d = ϕ(b). Dann ist ϕ−1 (cd) = ϕ−1 (ϕ(a)ϕ(b)) = ϕ−1 (ϕ(ab)) = ab =
ϕ−1 (c)ϕ−1 (d).
Isomorphismen. Für m ∈ N∗ ist ϕ : (Z, +) → (mZ, +), x 7→ m · x ein
Isomorphismus. ϕ : (R, +) → (R∗+ , ·), x 7→ ex ist ebenfalls Isomorphismus.
Kern. Seien G, H Gruppen und ϕ : G → H eine Abbildung. Dann heißt
ker(ϕ) = {a ∈ G | ϕ(a) = eH } der Kern von ϕ. Ist ϕ ein Homomorphismus, so
ist ker(ϕ) ein Normalteiler von G und ϕ[G] eine Untergruppe von H.
Beweis. Sei U = ker(ϕ). Es gilt eG ∈ U , ϕ(ab) = ϕ(a)ϕ(b) = eH , ϕ(a−1 ) =
ϕ(a)−1 = eH für alle a, b ∈ U . Also ist U Untergruppe von G. Sind a, b ∈ G,
so bedeutet a ∼U b dass ab−1 ∈ U bzw. ϕ(ab−1 ) = eH bzw. ϕ(a) = ϕ(b) gilt,
und ∼U , ∼U fallen zusammen. Außerdem gilt eH ∈ ϕ[G], ϕ(a)ϕ(b) = ϕ(ab),
ϕ(a)−1 = ϕ(a−1 ) für alle a, b ∈ G. Also ist ϕ[G] Untergruppe von H.
Lemma. Ein Homomorphismus ϕ : G → H ist genau dann injektiv, wenn
ker(ϕ) = {eG } gilt.
Beweis. Ist ϕ injektiv, so gilt ker(ϕ) = {eG }. Gilt ker(ϕ) = {eG }, so folgt aus
ϕ(a) = ϕ(b) auch ϕ(ab−1 ) = eH und ab−1 = eG und a = b.
Homomorphiesatz. Ist ϕ : G → H ein Homomorphismus und U = ker(ϕ),
so definiert ϕ
e : G/U → ϕ[G], aU 7→ ϕ(a) einen Isomorphismus.
Beweis. Wegen ϕ(a) = ϕ(b) für a ∼U b ist ϕ
e wohldefiniert. Für a, b ∈ G ist
ϕ(abU
e
) = ϕ(ab) = ϕ(a)ϕ(b) = ϕ(aU
e
)ϕ(bU
e
). Also ist ϕ
e Homomorphismus.
Wegen ker(ϕ)
e = {aU | ϕ(aU
e
) = eH } = {aU | ϕ(a) = eH } = {U } ist ϕ
e injektiv.
Nach Definition ist ϕ
e auch surjektiv.
Literatur.
[F, 1.2], [KM, 4.4]
24
4.2
Lineare Abbildungen (18.12.)
Definition. Seien V, W Vektorräume über K. Eine Abbildung F : V → W
heißt linear oder Homomorphismus, falls F (u + v) = F (u) + F (v), F (λu) =
λF (u) für alle u, v ∈ V , λ ∈ K gilt. Ein bijektiver Homomorphismus heißt
Isomorphismus.
Eigenschaften. Sei F : V → W linear. Dann gilt: i) F (0) = 0. ii) Ist M ⊆ V
linear abhängig, so auch F [M ]. iii) Sind V 0 ⊆ V und W 0 ⊆ W Unterräume, so
auch F [V 0 ] und F −1 [W 0 ]. iv) Ist F ein Isomorphismus, so auch F −1 : W → V .
Beweis. i) F (0) = F (0 · 0) = 0 · F (0) = 0. ii) Gibt es m1 , . . . , mn ∈ M paarweise
verschieden und (λ1 , . . . , λn ) 6= 0 mit 0 = λ1 m1 + · · · + λn mn , so gilt auch 0 =
λ1 F (m1 )+· · ·+λn F (mn ). iii) 0 ∈ F [V 0 ], F (u)+F (v) = F (u+v), λF (v) = F (λv)
für alle u, v ∈ V 0 , λ ∈ K. Außerdem ist 0 ∈ F −1 [W 0 ] und u + v, λu ∈ F −1 [W 0 ]
für u, v ∈ F −1 [W 0 ], λ ∈ K. iv) Nachrechnen.
Matrizen. Sei K ein Körper. Eine m × n-Matrix A ∈ K m×n ist ein Rechteckschema mit m Zeilen und n Spalten, und für x ∈ K n ist das Matrix-VektorProdukt Ax ∈ K m definiert durch

  

a11 · · · a1n
x1
a11 x1 + · · · + a1n xn


..   ..  = 
..
Ax =  ...
,
.  .  
.
···
am1
das heißt (Ax)i =
x 7→ Ax ist linear.
Pn
j=1
amn
xn
am1 x1 + · · · + amn xn
aij xj für i = 1, . . . , m. Die Abbildung F : K n → K m ,
Raum der Homomorphismen. Hom(V, W ) := {F : V → W | F linear} ist
mit (F + G)(v) := F (v) + G(v) und (λF )(v) := λF (v) ein Vektorraum über K.
Literatur.
[F, 2.1], [FL, 2.3.1–2.3.3], [B, 2.1]
25
4.3
Bild und Kern (21.12.)
Definition. Ist F : V → W eine lineare Abbildung, so heißen F [V ] = {f (x) |
x ∈ V } das Bild und ker(F ) = {x ∈ V | F (x) = 0} der Kern von F . Das Bild
ist ein Unterraum von W , der Kern ein Unterraum von V .
Eigenschaften. Sei F : V → W linear. i) F : V → W ist genau dann injektiv,
wenn ker(F ) = {0} gilt. ii) Sind v1 , . . . , vn ∈ V derart, dass F (v1 ), . . . , F (vn )
paarweise verschieden sind und {F (v1 ), . . . , F (vn )} linear unabhängig ist, so ist
{v1 , . . . , vn } linear unabhängig. Insbesondere gilt dim F [V ] ≤ dim V .
Beweis. zu ii) Aus λ1 v1 + · · · + vn λn = 0 folgt λ1 F (v1 ) + · · · + λn F (vn ) = 0 und
λ1 = . . . = λn = 0.
Dimensionsformel. Ist F : V → W linear, so gilt dim V = dim ker(F ) +
dim F [V ]. Insbesondere fallen für lineare Abbildungen zwischen endlich-dimensionalen Vektorräumen Injektivität, Surjektivität und Bijektivität zusammen.
Beweis. Aus dim ker(F ) = ∞ oder dim F [V ] = ∞ folgt dim V = ∞. Betrachten
wir dim F [V ], dim ker(F ) < ∞. Seien {F (v1 ), . . . , F (vm )} und {vm+1 , . . . , vn }
eine Basis von F [V ] und ker(F ). Zeige, dass {v1 , . . . , vn } eine Basis von V ist.
Sei v ∈ V . Dann gilt F (v) = λ1 F (v1 ) + · · · + λm F (vm ) und ker(F ) 3 v −
λ1 v1 − · · · − λm vm = λm+1 vm+1 + · · · + λn vn . Also ist v ∈ span{v1 , . . . , vn }. Sei
λ1 v1 + · · · + λn vn = 0. Dann gilt λ1 F (v1 ) + · · · + λm F (vm ) = 0 und λ1 = . . . =
λm = 0. Dann ist λm+1 vm+1 + · · · + λn vn = 0 und λm+1 = . . . = λn = 0. Also
ist {v1 , . . . , vn } linear unabhängig.
Beispiel.
Für
2
2
F :R →R ,
x
−2x + 2y
−2
7→
=
y
−x + y
−1
2
1
x
y
ist F [R2 ] = span(2, 1) und ker(F ) = span(1, 1). Für w = (2λ, λ) ∈ F [R2 ] ist
F −1 [{w}] = (0, λ) + ker(F ).
Affiner Unterraum. X ⊆ V heißt affiner Unterraum eines Vektorraums V ,
falls es ein v ∈ V und einen Unterraum U ⊆ V mit X = v + U gibt.
Lemma. Ist F : V → W linear, w ∈ F [V ] und v ∈ F −1 [{w}], so gilt
F −1 [{w}] = v + ker(F ). Also ist die Lösungsmenge der linearen Gleichung
F (x) = w der affine Unterraum, der ker(F ) um eine spezielle Lösung verschiebt.
Beweis. Ist x ∈ F −1 [{w}], so gilt F (x) = w = F (v) und x − v ∈ ker(F ). Ist
x ∈ v + ker(F ), so gilt F (x) = F (v) + 0 = w und x ∈ F −1 [{w}].
Literatur.
[F, 2.2.1–2.2.5], [FL, 2.3.2–2.3.4], [B, 2.1]
26
4.4
Quotientenräume (08.01.)
Äquivalenz modulo eines Unterraums. Sei V ein Vektorraum und U ein
Unterraum von V . Dann ist x ∼ y :⇔ x − y ∈ U eine Äquivalenzrelation auf V .
Beweis. Seien x, y, z ∈ V . Es gilt x − x = 0 ∈ U . Aus x − y ∈ U folgt y − x =
−(x−y) ∈ U . Aus x−y ∈ U und y −z ∈ U folgt x−z = (x−y)−(y −z) ∈ U .
Quotientenraum. Für v ∈ V ist der affine Unterraum v + U die Äquivalenzklasse von v modulo U . Die Menge der Äquivalenzklassen {v + U | v ∈ V } =:
V /U wird durch (v + U ) + (w + U ) = (v + w) + U , v, w ∈ V und λ · (v + U ) =
λv + U , λ ∈ K, v ∈ V zum K-Vektorraum, und heißt der Quotientenraum von
V modulo U .
Beweis. Für v ∈ V ist {w ∈ V | w ∼ v} = {w ∈ V | w − v ∈ U } = v + U .
Für v, v 0 , w, w0 ∈ V mit v ∼ v 0 und w ∼ w0 folgt aus x ∼ (v 0 + w0 ) stets
x ∼ (v + w) und aus x ∼ λv stets x ∼ λv 0 . Also sind + und · wohldefiniert. U
ist der Nullvektor in V /U , −v + U das Inverse zu v + U für alle v ∈ V .
Lemma.
Es gilt dim V = dim U + dim V /U .
Beweis. ρ : V → V /U , v 7→ v + U ist linear, surjektiv mit ker(ρ) = U . Also ist
dim V = dim ker(ρ) + dim ρ[V ] = dim U + dim V /U .
Satz. Ist F : V → W linear und U ⊆ ker(F ). So gibt es genau eine lineare
Abbildung Fe : V /U → W mit F = Fe ◦ ρ. Insbesondere ist ker(Fe) = ker(F )/U .
Beweis. Es gilt Fe(v + U ) = F (v) für alle v ∈ V . Für v, v 0 ∈ V mit v ∼ v 0
gilt Fe(v 0 + U ) = F (v 0 ) = F (v 0 ) + F (v − v 0 ) = F (v) = Fe(v + U ). Also ist Fe
wohldefiniert. Die Linearität vererbt sich von F . Es gilt v + U ∈ ker(Fe) gdw.
v ∈ kerF gdw. v + U ∈ ker(F )/U .
Korollar. Ist F : V → W linear und U = ker(F ), so ist Fe : V /U → F [V ],
Fe(v + U ) = F (v) ein Isomorphismus.
Geraden im R2 . Ist V = R2 und U = {(x, ax) | x ∈ R}, so besteht V /U aus
Verschiebungen von U . Für v ∼ v 0 ist das Lot auf U gleich lang.
Literatur.
[F, 2.2.6–2.2.9]
27
5
5.1
Matrizen
Lineare Gleichungssysteme (11.01.)
Lineares Gleichungssystem. Eine Matrix A = (aij ) ∈ K m×n und ein
Spaltenvektor b ∈ K m definieren
Pn ein lineares Gleichungssystem Ax = b. Ein
Lösungsvektor x ∈ K n erfüllt j=1 aij xj = bi für alle i = 1, . . . , m.
Lösungsräume. Ist F : K n → K m , x 7→ Ax, so gilt Lös(A, b) := {x ∈ K n |
Ax = b} = F −1 [{b}] und Lös(A, 0) = ker(F ). Ist b ∈ F [K n ] und v ∈ K n eine
Lösung von Ax = b, so gilt Lös(A, b) = v + Lös(A, 0).
Affine Unterräume. Seien V ein Vektorraum und U, U 0 Unterräume von V ,
so dass v + U = v 0 + U 0 für v, v 0 ∈ V . Dann gilt U = U 0 und v − v 0 ∈ U . Man
definiert deshalb dim(v + U ) := dim U .
Beweis. Es gilt U = {x − y | x, y ∈ v + U } = {x − y | x, y ∈ v 0 + U 0 } = U 0 . Aus
v + U = v 0 + U folgt dann v − v 0 ∈ U .
Rang. Ist A ∈ K m×n und F : K n → K m , x 7→ Ax, so definieren kerA :=
kerF , ImA := F [K n ] und rangA := dim ImA den Kern, das Bild und den
Rang der Matrix A. Der Rang einer Matrix ist die Dimension des von den
Spaltenvektoren erzeugten Unterraums, und es gilt 1 ≤ rangA ≤ min(m, n).
Beweis. rangA = dim F [K n ] ≤ m und F [K n ] = span{F
1 ), . . . , F (en )}. F (ek ) =
P(e
n
Aek ist der k-te Spaltenvektor von A, weil (Aek )i = j=1 aij (ek )j = aik . Insbesondere gilt rangA ≤ n.
Satz. Sei A ∈ K m×n und b ∈ K m . Dann gilt: i) Lös(A, 0) ist ein Unterraum
von K n mit dim Lös(A, 0) = n − rangA. ii) Lös(A, b) ist entweder leer oder ein
affiner Unterraum von K n der Dimension n − rangA.
Erweiterte Matrix. Für A ∈ K m×n und b ∈ K n heißt die Matrix (A, b) ∈
K m×(n+1) , deren letzte Spalte b ist, die erweiterte Matrix. Es gilt: Lös(A, b) 6= ∅
genau dann, wenn rangA = rang(A, b).
Beweis. Es gilt ImA ⊆ Im(a, b). Also ist rangA = rang(A, b) äquivalent zu
ImA = Im(A, b). Dies ist äquivalent zu b ∈ ImA, was Lös(A, b) 6= ∅ bedeutet.
Korollar. Sei A ∈ K m×n und b ∈ K m . Es gilt: Ax = b besitzt genau dann
eine eindeutige Lösung x ∈ K n , wenn rangA = rang(A, b) = n.
Beweis. Wir zeigen, dass die Lösung genau dann eindeutig ist, wenn rangA = n.
Dies gilt wegen dim Lös(A, b) = dim Lös(A, 0) = n − rangA.
Literatur.
[Fr], [F, 2.3], [FL, 2.3.5]
28
5.2
Lineare Abbildungen und Matrizen (15.01.)
Satz. Seien V und W Vektorräume über K, B ⊆ V eine Basis von V und
F : V → W linear. Ist G : V → W linear mit G(v) = F (v) für alle v ∈ B, so
gilt G = F .
Beweis. Für jedes v ∈ V gibt es v1 , . . . , vn ∈ B, λ1 , . . . , λn ∈ K mit v =
λ1 v1 + · · · + λn vn . Also ist G(v) = λ1 G(v1 ) + · · · + λn G(vn ) = F (v).
Geordnete Basen. Sei dim V = n < ∞. Ist die Reihenfolge der Vektoren
einer Basis B von V wichtig, so notieren wir B = (v1 , . . . , vn ) als Tupel.
Korollar. Ist (v1 , . . . , vn ) eine Basis von V und w1 , . . . , wn ∈ W , so gibt es
genau ein lineares F : V → W mit F (vj ) = wj für alle j = 1, . . . , n. Insbesondere gibt es einen Isomorphismus von Hom(V, W ) nach W n , und es gilt
dim Hom(V, W ) = dim W n .
Matrizen. Zu jedem linearen F : K n → K m gibt es genau ein A ∈ K m×n
mit F (x) = Ax für alle x ∈ K n .
Beweis. F (ej ) ist der j-te Spaltenvektor von A.
Darstellende Matrizen. Sei (v1 , . . . , vn ) eine Basis von V und (w1 , . . . , wm )
eine Basis von W . Dann gibt es zu jedem linearen F : V → W genau ein
A ∈ K m×n mit F (vj ) = a1j w1 + · · · + amj wm für alle j = 1, . . . , n. Die so
definierte Abbildung Hom(V, W ) → K m×n , F 7→ A ist ein Isomorphimus.
Beweis. Für jedes j = 1, . . . , n gibt es eindeutige a1j , . . . , amj ∈ K mit F (vj ) =
a1j w1 + · · · + amj wm . Bijektivität wegen dim Hom(V, W ) = mn = dim K m×n .
Korollar. Seien dim V, dim W < ∞, und F : V → W linear mit dim F [V ] = r.
Dann gibt es Basen von V und W , so dass die F darstellende Matrix A =
(Idr , 0; 0, 0) ist.
Beweis. Ist (F (v1 ), . . . , F (vr )) = (w1 , . . . , wr ) eine Basis von F [V ], so ergänzen
wir beliebig zu einer Basis (w1 , . . . , wm ) von W und mit vr+1 , . . . , vn ∈ kerF
zu einer Basis (v1 , . . . , vn ) von V . Dann ist F (vj ) = wj für j = 1, . . . , r und
F (vj ) = 0 für j = r + 1, . . . , n.
Literatur.
[F, 2.4], [B, 2.1]
29
5.3
Multiplikation von Matrizen (18.01.)
Lemma.
Sind G : U → V , F : V → W linear, so ist F ◦ G : U → W linear.
Beweis. Für u, u0 ∈ U und λ ∈ K ist (F ◦ G)(u + u0 ) = F (G(u) + G(u0 )) =
(F ◦ G)(u) + (F ◦ G)(u0 ) und (F ◦ G)(λu) = F (λG(u)) = λ(F ◦ G)(u).
Herleitung. Seien A ∈ K m×n und B ∈ K n×r sowie F : K n → K m , x 7→ Ax
und G : K r → K n , x 7→ Bx. Dann ist F ◦ G : K r → K m linear und es gibt
genau ein C ∈ K m×r mit
(F ◦ G)(x) = Cx
für alle x ∈ K r . Für die j-te Spalte von C =: AB gilt cj = (F ◦ G)(ej ) = Abj .
Also ist
n
n
X
X
cij = (cj )i =
aik (bj )k =
aik bkj .
k=1
Literatur.
k=1
[F, 2.5], [FL, 2.4.3–5]
30
5.4
Invertierbare Matrizen (22.01.)
Matrizenring. K n×n ist ein nicht-nullteilerfreier, nicht-kommutativer Ring:
0 1
1 0
0 0
1 0
0 1
0 1
=
6=
=
.
0 0
0 0
0 0
0 0
0 0
0 0
Beweis. Die Assoziativität der Komposition von Abbildungen vererbt sich auf
die Matrizenmultiplikation.
Rang.
Für A ∈ K m×n , B ∈ K n×r gilt
rangA + rangB − n ≤ rang(AB) ≤ min{rangA, rangB}.
Beweis. Mit F : ImB → K m , x 7→ Ax gilt rang(AB) = dim F [ImB] =
dim(ImB) − dim kerF = rangB − dim kerF und rang(AB) ≤ rangB. Wegen
Im(AB) ⊆ ImA gilt rang(AB) ≤ rangA. Außerdem folgt aus kerF ⊆ kerA auch
rang(AB) ≥ rangB − dim kerA = rangB + rangA − n.
General linear group. Eine Matrix A ∈ K n×n heißt invertierbar, wenn es
A0 ∈ K n×n mit A0 · A = Id gibt. A0 ist eindeutig bestimmt, heißt die zu A
inverse Matrix und wird mit A−1 bezeichnet.
GL(n, K) = {A ∈ K n×n | A invertierbar}
ist bezüglich der Matrizenmultiplikation eine Gruppe, die nur für n = 1 abelsch
ist. Für A ∈ GL(n, K) gilt AA−1 = Id = A−1 A, kerA = {0} und rangA = n.
Korollar. Für A ∈ GL(n, K) und B ∈ K n×r gilt rang(AB) = rangB. Für
A ∈ K m×n und B ∈ GL(n, K) gilt Im(AB) = ImA und rang(AB) = rangA.
Transponierte Matrix. Für A ∈ K m×n definiert AT ∈ K n×m mit (AT )ij =
Aji die zu A transponierte Matrix. Es gilt
(A + B)T = AT + B T ,
(AC)T = C T AT ,
(λA)T = λAT ,
(AT )T = A
für A, B ∈ K m×n , C ∈ K n×r und λ ∈ K.
Transponiert und invertiert.
(AT )−1 = (A−1 )T =: A−T .
Literatur.
Für A ∈ GL(n, K) gilt AT ∈ GL(n, K) mit
[F, 2.5], [FL, 2.4.3–5]
31
Extemporale, 25.01.2013
Name (anonymisiert als VTTMM):
Bitte bearbeiten Sie ohne Hilfsmittel in 15 Minuten die folgenden Aufgaben.
1. Sei A ∈ K m×n und B ∈ GL(n, K). Zeigen Sie rang(AB −1 ) = rang(A).
Wegen B −1 ∈ GL(n, K) ist B −1 : K n → K n , x 7→ B −1 bijektiv, und es gilt
Im(AB −1 ) = Im(A) und damit rang(AB −1 ) = dim Im(AB −1 ) = dim Im(A) =
rang(A).
2. Seien V und W Vektorräume über einem Körper K, A = (v1 , . . . , vn ) eine
Basis von V , B = (w1 , . . . , wm ) eine Basis von W und F : V → W eine lineare Abbildung. Formulieren Sie die Definition der darstellenden Matrix von F
bezüglich A und B.
Die darstellende Matrix von F bezüglich A und B ist die durch
F (vj ) =
m
X
aij wi ,
j = 1, . . . , n,
i=1
definierte Matrix A = (aij ) ∈ K m×n .
3. Beweisen oder widerlegen Sie:


1 2 3
3
0 1 2 0
0 0 1
0
2
2
0
 
1
3
1 = 0
3
0
6
2
1

12
7 .
3
Die Gleichung ist nicht richtig, da das Produkt zweier oberer Dreiecksmatrizen
eine obere Dreiecksmatrix ist, und die Matrix auf der rechten Seite der Gleichung
in der dritten Zeile, zweiten Spalte einen Nichtnull-Eintrag hat.
Bewertung: Maximal 2 Punkte pro Aufgabe, (5 & 6, 4, 3, 2, 1, 0) Punkte entsprechen der Note (1, 2, 3, 4, 5, 6). Bei 32 Teilnehmern gab es 2mal Note 1,
5mal 2, 8mal 3, 16mal 4, 1mal 5, 0mal 6. Durchschnitt: 3,28
5.5
Koordinatentransformationen (25.01.)
Koordinatensystem. Sei V ein Vektorraum über K und B = (v1 , . . . , vn )
ein Basis von V . Dann gibt es genau einen Isomorphismus ΦB : K n → V mit
ΦB (ej ) = vj für alle j = 1, . . . , n. Man nennt ΦB das durch B bestimmte
Koordinatensystem von V und x = Φ−1
B (v) die Koordinaten von v ∈ V .
Transformationsmatrix. Seien A = (v1 , . . . , vn ) und B = (w1 , . . . , wn ) BaA
n
sen von V . Dann definiert Φ−1
→ K n,
B ◦ ΦA einen Isomorphismus TB : K
A
den wir mit der Transformationsmatrix TB ∈ GL(n, K) identifizieren. Ist V 3
v = x1 v1 + · · · + xn vn = y1 w1 + · · · + yn wn , so gilt y = TBA x. Außerdem ist
(TBA )−1 = TAB .
Darstellende Matrizen I. Sei dim V = n, dim W = m, A eine Basis von V
und B eine Basis von W sowie F : V → W linear. Dann gilt für die F darstelm×n
lende Matrix D = Φ−1
. Insbesondere ist TBA die darstellende
B ◦ F ◦ ΦA ∈ K
Matrix von Id : V → V .
Beweis. Seien A = (v1 , . . . , vn ) und B = (w1 , . . . , wm ). Wir bezeichnen mit ej
die kanonischen Basisvektoren des K n und K m . Es gilt ΦB (Dej ) = ΦB (dj ) =
ΦB (d1j e1 + · · · + dmj em ) = d1j w1 + · · · + dmj wm = F (vj ) = F (ΦA (ej )).
Darstellende Matrizen II. Seien U, V, W endlich-dimensionale Vektorräume
mit Basen A, B, C und G : U → V , F : V → W linear. Für die darstellenden
Matrizen gilt DF ◦G = DF · DG .
−1
−1
Beweis. DF ◦G = Φ−1
C ◦F ◦G◦ΦA = (ΦC ◦F ◦ΦB )·(ΦB ◦G◦ΦA ) = DF ·DG .
Transformationsformel. Seien V, W endlich-dimensional, A, A0 Basen von
V und B, B 0 Basen von W sowie F : V → W linear. Dann gilt für die darstellenden Matrizen D0 = TBB0 · D · (TAA0 )−1 .
−1
−1
−1
Beweis. D0 = Φ−1
B 0 ◦ F ◦ ΦA0 = (ΦB 0 ◦ ΦB ) · (ΦB ◦ F ◦ ΦA ) · (ΦA ◦ ΦA0 ) =
TBB0 · D · (TAA0 )−1 .
Spalten- und Zeilenrang. Sei A ∈ K m×n und a1 , . . . , am ∈ K n die Zeilen
von A. Es gilt rangA = dim span{a1 , . . . , am }.
Beweis. Wir zeigen rangAT = rangA =: r. Es gibt Basen von K n und K m , so
dass A : K n → K m , x 7→ Ax durch B = (Idr , 0; 0, 0) dargestellt wird. Und es
gibt invertierbare Matrizen S, T mit B = SAT −1 . Es gilt AT = T T B T S −T und
rangAT = rang(T T B T S −T ) = rangB T = r.
Literatur.
[F, 2.6], [FL, 2.5], [B, 3.1–3.2]
33
5.6
Gaußsche Elimination I (29.01.)
Zeilenstufenform. Sei A ∈ K m×n und a1 , . . . , am ∈ K n die Zeilen von A.
Die Matrix A ist in Zeilenstufenform, falls gilt:
1. Es gibt 0 ≤ r ≤ min(m, n), so dass a1 , . . . , ar 6= 0 und ar+1 , . . . , am = 0.
2. Für ji := min{j | aij 6= 0} gilt j1 < · · · < jr .
In diesem Fall sind a1 , . . . , ar linear unabhängig, und rangA = r.
Elementare Zeilenumformungen. Sei Pij ∈ K m×m mit (Pij )kl = 1 falls k =
l 6∈ {i, j} oder (k, l) ∈ {(i, j), (j, i)}, (Pij )kl = 0 sonst. Dann vertauscht x 7→ Pij x
die i-te und j-te Komponente. Sei λ ∈ K und Qji (λ) ∈ K m×m mit (Qji (λ))kl = 1
falls k = l, (Qji (λ))ij = λ, (Qji (λ))kl = 0 sonst. Dann addiert x 7→ Qji (λ)x das
λ-fache der j-ten zur i-ten Komponente. Insbesondere Pij , Qji (λ) ∈ GL(m, K).
Pm
j
j
j
Beweis. (Pij x)i =
l=1 (Pi )il xl = xj , (Pi x)j = xi und (Pi x)k = xk sonst.
P
m
(Qji (λ)x)i = l=1 (Qji (λ))il xl = xi + λxj und (Qji (λ)x)k = xk sonst.
Satz. Für jedes A ∈ K m×n gibt es endlich viele elementare Zeilenumformungen S1 , . . . , Sk ∈ GL(m, K), so dass Sk · · · S1 A Zeilenstufenform hat.
Beweis. Seien a1 , . . . , an die Spalten von A.
21
Fall 1: Ist a11 6= 0, so ist die erste Spalte von B = Q1m (− aam1
) · · · Q12 (− aa11
)A
11
nur in der ersten Zeile nicht Null, und wir arbeiten mit A1 = (b2 , . . . , bn )
weiter.
Fall 2: Ist a1 = 0, so setzen wir A1 = (a2 , . . . , an ).
Fall 3: Ist a1 6= 0, aber a11 = 0, so gibt es i mit (Pi1 A)11 6= 0. Wir bearbeiten
Pi1 A wie in Fall 1.
In allen Fällen wird die Zahl der Spalten um Eins reduziert. Nach endlich vielen
Schritten ist die Matrix in Zeilenstufenform.
Literatur.
[F, 0.4 & 2.7], [FL, 2.5], [B, 3.2]
34
5.7
Gaußsche Elimination II (01.02.)
Lösbarkeit. Seien A ∈ K m×n und b ∈ K m . Sei S ∈ GL(m, K) so gewählt,
dass SA Zeilenstufenform hat. Es gilt Lös(A, b) = Lös(SA, Sb). Insbesondere
gilt Lös(A, b) 6= ∅ genau dann, wenn (Sb)j = 0 für alle j > rangA.
Beweis. Die Lösbarkeit ist äquivalent zu zu rang(SA) = rang(SA, Sb). Dies ist
äquivalent zu (Sb)j = 0 für j > rangA.
Spaltenvertauschung. Für die Spalten p1 , . . . , pn von Pij ∈ K n×n gilt pi =
ej , pj = ei und pk = ek sonst. Also sind für A ∈ K m×n in APij = (Ap1 , . . . , Apn )
die i-te und j-te Spalte vertauscht, und es gibt S ∈ GL(m, K) und P ∈
GL(n, K), so dass SAP Zeilenstufenform mit j1 = 1, . . . , jr = r hat.
Lösungsraum. Lös(SAP, Sb) lässt sich durch Rückwärtssubstitution parametrisieren: Seien xr+1 , . . . , xn fest aber beliebig, Ã = SAP , b̃ = Sb. Dann sind
die Komponenten x1 , . . . , xr von x ∈ Lös(SAP, Sb) durch
xk = (b̃k − ãk,k+1 xk+1 − · · · − ãk,n xn )/ãkk
für k = r, . . . , 1 bestimmt. Und es gilt P −1 x ∈ Lös(A, b).
Permutationsmatrizen. P ∈ GL(n, K) heißt Permutationsmatrix, falls es
eine Permutation π ∈ Sn gibt, so dass pi = eπ(i) für i = 1, . . . , n gilt, wobei
p1 , . . . , pn die Zeilen von P sind. Es gilt Pσ Pπ = Pπ◦σ , so dass die Permutationsmatrizen die Gruppenstruktur von Sn erben.
Beweis. Pσ Pπ x = Pσ (xπ(1) , . . . , xπ(n) )T = (xπ(σ(1)) , . . . , xπ(σ(n)) )T .
Literatur.
[F, 0.4 & 2.7], [FL, 2.5], [B, 3.2]
35
Herunterladen