Lineare Algebra 1

Werbung
Skript zu der Vorlesung
Lineare Algebra 1
Prof. Dr. Mark Groves
WS2016/17
1. Mai 2017
Inhaltsverzeichnis
1 Mengen, Funktionen und Relationen
1.1 Mengenlehre . . . . . . . . . . . .
1.2 Funktionen . . . . . . . . . . . . .
1.3 Geordnete Paare und Relationen
1.4 Wohlordnung und Induktion . .
1.5 Abzählbarkeit . . . . . . . . . . .
.
.
.
.
.
3
3
9
18
29
33
2 Algebraische Strukturen
2.1 Verknüpfungen, Gruppen und Körper . . . . . . . . . . . . . . . . .
2.2 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
39
50
3 Vektorräume
3.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Elementare Vektorraumtheorie . . . . . . . . . . . . . . . . . . . . .
3.3 Basisergänzung und Unterräume . . . . . . . . . . . . . . . . . . . .
67
67
73
84
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Lineare Abbildungen und Matrizen
4.1 Lineare Abbildungen . . . . . . . . . . . . .
4.2 Matrixdarstellungen linearer Abbildungen
4.3 Matrixalgebra . . . . . . . . . . . . . . . . .
4.4 Der Daulraum . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
95
. 95
. 100
. 105
. 111
5 Matrixrechnung und lineare Gleichungssysteme
5.1 Über die Spalten und Zeilen einer Matrix . .
5.2 Die Inverse einer Matrix . . . . . . . . . . . .
5.3 Lineare Gleichungssysteme . . . . . . . . . .
5.4 Determinanten . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
114
114
123
128
135
6 Eigenwerte und Eigenvektoren
146
7 Skalarprodukträume
7.1 Skalarprodukte und Normen . . . . .
7.2 Elementare Skalarproduktraumtheorie
7.3 Die adjungierte Abbildung . . . . . . .
7.4 Normale Abbildungen . . . . . . . . .
160
160
166
176
184
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 Mengen, Funktionen und Relationen
1 Mengen, Funktionen und Relationen
1.1 Mengenlehre
Definition (Cantor, 1895)
“Unter einer Menge verstehen wir jede Zusammenfassung von bestimmten wohl
unterschiedenen Objekten unserer Anschauung oder unseres Denkens zu einem
Ganzen.”
Die Objekte, die zu einer Menge zusammengefasst sind, heißen Elemente dieser
Menge. Eine Menge enthält ihre Elemente.
Wir können eine Menge festlegen, indem wir ihre Elemente explizit zwischen
geschweiften Klammern angeben.
Beispiele
1. Die Menge aller Vokale im englischen Alphabet ist {a,e,i,o,u}.
2. Die Menge aller ungeraden positiven ganzen Zahlen, die kleiner als 10 sind,
ist {1,3,5,7,9}.
Wir können eine Menge auch festlegen, indem wir die charakteristische Eigenschaft ihrer Elemente angeben.
Beispiel
Die Menge
{ x : x ist eine gerade, positive ganze Zahl, die kleiner als 10 ist}
ist
{2,4,6,8}.
Wir benutzen besondere Symbole für gewisse Mengen:
3
1.1 Mengenlehre
N = {1,2,3, . . . }
(die Menge der natürlichen Zahlen)
N0 = {0,1,2,3, . . .}
(die Menge der nichtnegativen
ganzen Zahlen)
Z = {. . . , −2, − 1,0,1,2, . . .}
nm
o
Q=
: m ∈ Z, n ∈ N
n
R ist die Menge aller reellen Zahlen.
(die Menge der ganzen Zahlen)
(die Menge der rationalen Zahlen)
C ist die Menge aller komplexen Zahlen.
∅ = {} ist die leere Menge.
Bemerkung
Eine Menge ist eine nicht geordnete Sammlung von Objekten, so dass
{2,4,6,8} = {4,8,6,2}.
Wir schreiben
x∈A
für die Tatsache, dass x Element von A ist, und
x∈
/A
für die Tatsache, dass x kein Element von A ist.
Definition
Eine Menge A heißt Teilmenge einer Menge B, wenn jedes Element von A auch
Element von B ist. In diesem Fall schreiben wir “A ⊆ B”.
Beispiele
1. {1,3,5} ⊆ {1,3,5,7}
2. ∅ ⊆ N ⊆ N0 ⊆ Z ⊆ Q ⊆ R ⊆ C
3. {1,3,5} 6⊆ {1,2,3,4}
4
1.1 Mengenlehre
Definitionen
1. Zwei Mengen sind gleich, wenn A ⊆ B und B ⊆ A. In diesem Fall schreiben
wir “A = B”.
2. Eine Menge A heißt echte Teilmenge von B, falls A ⊆ B und A 6= ∅, A 6= B.
Wir können Mengen kombinieren, um weitere Mengen zu bilden.
Definitionen
A und B seien Mengen.
1. Die Vereinigungsmenge oder Vereinigung von A und B ist die Menge
A ∪ B = { x : x ∈ A oder x ∈ B}.
↑
“A vereinigt mit B”
2. Die Schnittmenge oder der Durchschnitt von A und B ist die Menge
A ∩ B = { x : x ∈ A und x ∈ B}.
↑
“A durchschnitten B”
3. Die Differenz von A und B ist die Menge
A \ B = { x : x ∈ A und x ∈
/ B }.
↑
“A ohne B”
Bemerkungen
1. In der Mathematik benutzen wir das Wort “oder” immer im nicht ausschließenden Sinne. “x ∈ A oder x ∈ B” bedeutet also “x ∈ A” oder “x ∈ B”
oder beides.
2. Falls A ∩ B = ∅ (d.h. A und B haben keine gemeinsamen Elemente), sagen
wir: A und B sind disjunkt.
5
1.1 Mengenlehre
Beispiel
S1 = {( x,y) : ( x − 1)2 + (y − 1)2 < 1}, S2 = {( x,y) : |y| < 1}
seien Teilmengen der Ebene
P = {( x,y) : x,y ∈ R }.
Zeichnen Sie die Mengen S1 ,S2 ,S1 ∩ S2 und S1 ∪ S2 .
Lösung
y
S1
y
S1 ∩ S2
1
1
1
x
y
S2
y
S1 ∪ S2
1
x
1
1
x
-1
1
x
-1
Zeichenerklärung
— “Rand” gehört zur Menge
- - “Rand” gehört nicht zur Menge
• “Eckpunkt” gehört zur Menge
◦ “Eckpunkt” gehört nicht zur Menge
6
1.1 Mengenlehre
Im letzten Beispiel betrachteten wir S1 und S2 als Teilmengen einer Universalmenge P.
Definition
A sei Teilmenge einer Universalmenge U. Die Menge
A := U \ A
↑
definitionsgemäß gleich
heißt Komplement von A in U.
Gesetze der Mengenoperationen
X, Y und Z seien Teilmengen der Universalmenge U.
X∪∅=X
X∩U = X
Identitätsgesetze
X∪X=U
X∩X=∅
Dominationsgesetze
(X ∪ Y ) ∪ Z = X ∪ (Y ∪ Z)
(X ∩ Y ) ∩ Z = X ∩ (Y ∩ Z)
X∪Y =Y∪X
X∩Y =Y∩X
Assoziativgesetze
Kommutativgesetze
X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z)
X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z)
Distributivgesetze
Wir betrachten diese Grundgesetze der Mengenoperationen als Axiome (gegebene, nicht beweisbare Gesetze) und leiten weitere Ergebnisse von ihnen her.
7
1.1 Mengenlehre
Lemma
A und B seien Teilmengen der Universalmenge U. Es gelten:
A∪A= A
A∩A= A
Idempotenzgesetz
A = A (Involutionsgesetz)
A∪B= A∩B
de Morgansche Gesetze
A∩B= A∪B
Beweis
Es gilt:
A ∪ A = ( A ∪ A) ∩ U
(Identitätsgesetz)
= ( A ∪ A) ∩ ( A ∪ A) (Dominationsgesetz)
= A ∪ ( A ∩ A)
(Distributivgesetz)
=A
(Identitätsgesetz)
=A∪∅
(Dominationsgesetz)
Die anderen Aussagen werden in ähnlicher Weise bewiesen.
Bemerkung
Unsere Definition von einer Menge als “Sammlung von Objekten” ist etwas naiv
und kann zu Problemen führen.
(i) Als Elemente können Mengen andere Mengen haben.
Beispiel
A sei eine Menge. Die Menge aller Teilmengen von A heißt die Potenzmenge
von A und wird mit P( A) bezeichnet.
Für A = {1,2} ist z. B.
P( A) = {∅, {1},{2},{1,2}}.
8
1.2 Funktionen
(ii) Eine Menge kann sich selbst als Element haben. L sei die Liste aller Dinge in
Prof. Groves’ Uni-Tasche. Diese Liste L stellt eine Menge durch Aufzählung
dar:
L = {Lehrbuch, Stift, Vorlesungsnotizen, Hammer}.
(Der Hammer ist zum Kaputtschlagen von Handys, die während der Vorlesung klingeln.) Oft legt Prof. Groves auch die Liste in seine Tasche. Wir
müssen also L in
L = {Lehrbuch, Stift, Vorlesungsnotizen, Hammer, L}
abändern. Damit enthält die Menge L sich selbst.
(iii) Die Russelsche Antimonie
M sei die Menge aller Mengen, die sich selbst nicht enthalten. Frage: Enthält
M sich selbst, d. h. ist M ∈ M?
– Falls M ∈ M, gilt definitionsgemäß M 6∈ M.
– Falls M 6∈ M, gilt definitionsgemäß M ∈ M.
Damit führt die Existenz von M zu einem logischen Widerspruch.
Um solche Probleme zu vermeiden, brauchen wir eine subtilere Definition des
Begriffs “Menge”. Es handelt sich hier um die axiomatische Mengenlehre, die in
dieser Vorlesung nicht behandelt wird.
1.2 Funktionen
Definition
A und B seien Mengen. Eine Funktion oder Abbildung f : A → B (“ f von A
nach B”) ist eine Vorschrift, die jedem Element a ∈ A genau ein Element f (a) ∈ B
zuordnet.
9
1.2 Funktionen
A
B
a1
a2
f(a1)
f
f(a2)
f(a3)
a3
Die Menge A ist die
Urmenge von f
Die Menge B ist die
Zielmenge von f
Beispiele
1. Wir sind daran gewöhnt, Funktionen durch explizite Formeln zu definieren,
z. B.
f : R → R,
f ( x ) = sin x.
2. Wir brauchen jedoch nur die maßgebende Zuordnung anzugeben, z. B.
f : {1,3,5} → N,
f (1 ) = 3
f (3) = 4,
f (5) = 7.
Definitionen
f : A → B sei eine Funktion.
Das Element f (a) ∈ B heißt Bild oder (Funktions)wert von a ∈ A unter f .
Die Menge aller Funktionswerte von f , d. h.
R( f ) := { f (a) : a ∈ A},
heißt Bildmenge oder Wertebereich von f ; sie ist Teilmenge von B.
A
B
a1
a2
a3
f(a1)
f
f(a2)
f(a3)
R(f)
10
1.2 Funktionen
Beispiele
1. f : R → R, f ( x ) = sin x.
Es gilt:
R( f ) = {sin x : x ∈ R }
= [−1,1].
2. f : {1,3,5} → N,
f (1 ) = 3
f (3) = 4,
f (5) = 7.
Es gilt:
R( f ) = { f (1), f (3), f (5)}
= {3, 4, 7}.
Definition
f : A → B sei eine Funktion und C sei Teilmenge von A. Die Menge aller Funktionswerte von f , die aus Elementen von C stammen, d. h.
f [C ] := { f ( a) : a ∈ C }
heißt das Bild von C unter der Funktion f .
A
B
C
a1
a2
f(a1)
f
f[C]
f(a2)
11
1.2 Funktionen
Beispiele
1. f : R → R, f ( x ) = sin x.
Es gilt:
f ([0,π ]) = {sin x : x ∈ [0,π ]}
= [0,1].
2. f : {1,3,5} → N,
f (1 ) = 3
f (3) = 4,
f (5) = 7.
Es gilt:
f ({1,3}) = { f (1), f (3)}
= {3, 4}.
Definition
f : A → B sei eine Funktion und D sei Teilmenge von B. Die Menge aller Elemente
von A, deren Bilder unter f in D liegen, d. h.
f −1 [ D ] : = { a ∈ A : f ( a) ∈ D }
heißt das Urbild von D unter der Funktion f .
A
B
a1
a2
f(a1)
f
f -1[D]
D
f(a2)
Beispiele
1. f : R → R, f ( x ) = sin x.
Es gilt:
f −1 ([0,1]) = {[
x : sin x ∈ [0,1]}
=
[2nπ,(2n + 1)π ]
n ∈Z
12
1.2 Funktionen
2. f : {1,3,5} → N,
f (1 ) = 3
f (3) = 4,
f (5) = 7.
Es gilt:
f −1 ({77}) = ∅
Definitionen
Eine Funktion f : A → B heißt
(i) injektiv, falls
a1 6 = a2 ⇒ f ( a1 ) 6 = f ( a2 );
“a1 6= a2 impliziert f (a1 ) 6= f (a2 )”
(ii) surjektiv, falls
R( f ) = B;
(iii) bijektiv, falls sie injektiv und surjektiv ist.
Beispiele
1.
A
B
f
Diese Funktion ist weder injektiv noch surjektiv.
2.
A
B
f
Diese Funktion ist injektiv, aber nicht surjektiv.
13
1.2 Funktionen
3.
A
B
f
Diese Funktion ist injektiv und surjektiv, also bijektiv.
4. f 1 : R → R, f 1 ( x ) = sin x
Zielmenge (R)
Manche Elemente der Zielmenge werden mehr als
einmal erfasst. f 1 ist also
nicht injektiv.
Urmenge (R)
Nicht alle Elemente der Zielmenge werden
erfasst. f 1 ist also nicht surjektiv.
5. f 2 : R → [−1,1], f 2 ( x ) = sin x
Zielmenge ([−1,1])
. . . aber nicht injektiv.
Urmenge (R)
Jetzt werden alle Elemente der Zielmenge
erfasst. f 2 ist also surjektiv . . .
14
1.2 Funktionen
6. f 3 : [− π2 , π2 ] → [−1,1], f 3 ( x ) = sin x
Zielmenge ([−1,1])
Urmenge ([− π2 , π2 ])
Alle Elemente der Zielmenge werden genau einmal erfasst. f 3 ist also surjektiv und injektiv, also
bijektiv.
Beispiele 4–6 verdeutlichen, dass die Wahl der Mengen A und B ein wesentlicher
Teil der Definition einer Funktion f : A → B ist.
Bemerkung
Betrachten Sie eine bijektive Funktion f : A → B. Weil f injektiv ist, existiert zu
jedem Element b in der Bildmenge von f genau ein Element a in der Urmenge
von f , das auf b abgebildet wird. Weil f surjektiv ist, ist die Bildmenge von f
gleich B. Somit haben wir eine neue Funktion definiert:
Definition
f : A → B sei eine bijektive Funktion. Die Funktion f −1 : B → A,
f −1 (b) := a,
wobei a das eindeutige Element aus A mit
der Eigenschaft b = f (a) ist,
heißt Umkehrfunktion von f .
f
A
B
f -1
15
1.2 Funktionen
Bemerkung
f −1 : B → A ist ebenfalls bijektiv, und es gilt
f −1 ( f (a)) = a,
f ( f −1 (b)) = b,
a ∈ A,
b ∈ B.
Beispiel
Die Umkehrfunktion der bijektiven Funktion
f : R → R,
f ( x ) = 2x − 3
ist
f −1 : R → R,
f −1 (y ) =
weil
y = 2x − 3 ⇔ x =
y 3
+ ,
2 2
y 3
+ .
2 2
x=f -1(y)
y=f(x)
3/2
3/2
x
-3
y
-3
Geometrisch gesehen tauschen wir die Rollen der horizontalen und vertikalen
Achsen. Die Graphen von f und f −1 sind also durch eine Spiegelung an der Geraden y = x miteinander verwandt.
16
1.2 Funktionen
Definition
g : A → B und f : B → C seien Funktionen.
Die Funktion
f ◦ g : A → C,
↑
“ f nach g”
( f ◦ g)(a) = f ( g(a))
heißt Komposition von f und g.
A
C
B
g
f
f◦g
Proposition
Es seien g : A → B und f : B → C Funktionen.
1. Ist f ◦ g : A → C injektiv, so ist g : A → B injektiv.
2. Ist f ◦ g : A → C surjektiv, so ist f : B → C surjektiv.
Beweis
1. Wir wissen:
Aus ( f ◦ g)(a1 ) = ( f ◦ g)(a2 ) folgt a1 = a2 .
Wir müssen zeigen:
Aus g(a1 ) = g(a2 ) folgt a1 = a2 .
17
1.3 Geordnete Paare und Relationen
Es sei also g(a1 ) = g(a2 ). Dann ist f ( g(a1 )) = f ( g(a2 )), d.h. ( f ◦ g)(a1 ) =
( f ◦ g)(a2 ). Folglich gilt a1 = a2 .
2. Wir wissen:
Zu jedem c ∈ C existiert a ∈ A mit ( f ◦ g)(a) = c.
Wir müssen zeigen:
Zu jedem c ∈ C existiert b ∈ B mit f (b) = c.
Es sei also c ∈ C. Dann gibt es a ∈ A mit ( f ◦ g)(a) = c, d.h. f ( g(a)) = c.
Folglich hat b = g(a) die Eigenschaft f (b) = c.
1.3 Geordnete Paare und Relationen
Definition
A und B seien beliebige Mengen.
Ein Paar (a,b) mit a ∈ A und b ∈ B heißt geordnetes Paar mit a als erster
Komponente und b als zweiter Komponente.
Die Menge aller solchen geordneten Paare
A × B := {(a,b) : a ∈ A, b ∈ B}
↑
“A kreuz B”
heißt Produktmenge oder kartesisches Produkt von A und B.
Beispiel
Die Lage eines Punktes P der Ebene läßt sich durch ein geordnetes Paar reeller
Zahlen beschreiben:
18
1.3 Geordnete Paare und Relationen
P
y
P( x,y)
ր տ
horizontale
vertikale
Koordinate Koordinate
x
Damit ist die Ebene die Menge aller geordneten Paare reeller Zahlen, d.h. die
Menge R × R. Statt R × R schreibt man meist R2 .
Bemerkung
Diese Konstruktion läßt sich verallgemeinern.
A1 , . . . ,An seien n beliebige Mengen. Die Menge
A1 × A2 × . . . × An = {(a1 , . . . ,an ) : a1 ∈ A1 , . . . ,an ∈ An }
aller geordneten n-Tupel (a1 , . . . ,an ) mit ai ∈ Ai , i = 1, . . . ,n heißt Produktmenge
oder kartesisches Produkt von A1 , . . . , An .
Definition
Es sei f : A → B eine Abbildung. Der Graph von f ist die Teilmenge
G f := {(a, f (a)) : a ∈ A}
von A × B.
19
1.3 Geordnete Paare und Relationen
Beispiele
1. f : R → R, f ( x ) = sin x.
G f = {( x, sin x ) : x ∈ R } können wir als Teilmenge von R2 gut visualisieren:
f(x)
Dies ist der Graph von f .
x
2. f : {1,3,5} → N,
f (1 ) = 3
f (3) = 4,
f (5) = 7.
Der Graph von f ist die Teilmenge {(1,3),(3,4),(5,7)} von
{1,3,5} × N = {(1,1),(1,2),(1,3), . . . ,(3,1),(3,2),(3,3), . . . ,(5,1),(5,2),(5,3), . . . }.
Bemerkung
Wir definierten eine Funktion f : A → B als Vorschrift, die jedem Element a ∈ A
genau ein Element f (a) ∈ B zuordnet. Der Graph von f ist lediglich die Menge
dieser Zuordnungen:
(a,b) ∈ G f
bedeutet
b ist das Element von B, das a zugordnet wird,
d.h. b = f (a)
f wird also vollständig von G f wiedergegeben, und somit können wir f durch
seinen Graphen definieren.
20
1.3 Geordnete Paare und Relationen
Definitionen
A und B seien Mengen.
1. Eine Relation R zwischen A und B ist eine Teilmenge der Produktmenge
A × B.
Oft schreiben wir aRb statt (a,b) ∈ R und sagen: ‘a steht in Relation zu b’.
2. Die Menge A wird als Quellmenge oder Vorbereich der Relation bezeichnet. Die Menge B ist die Zielmenge oder der Nachbereich der Relation.
Beispiel
Es seien M und F die Mengen aller Männer bzw. aller Frauen. Die Teilmenge
{(m, f ) ∈ R : m ist der Ehemann von f }
von M × F ist eine Relation zwischen M und F.
Es gilt z.B.
(Prince Charles, Camilla Parker-Bowles) ∈ R,
(Donald Trump, Hillary Clinton) 6∈ R.
Definitionen
Eine Relation R zwischen zweier Mengen A und B heißt
1. linkstotal, falls es zu jedem a ∈ A ein b ∈ B mit aRb gibt,
2. rechtstotal, falls es zu jedem b ∈ B ein a ∈ A mit aRb gibt,
3. linkseindeutig, falls aus a1 Rb und a2 Rb die Gleichheit a1 = a2 folgt,
4. rechtseindeutig, falls aus aRb1 und aRb2 die Gleichheit b1 = b2 folgt,
21
1.3 Geordnete Paare und Relationen
Beispiele
Es seien A = { a1 ,a2 ,a3 }, B = {b1 ,b2 ,b3 ,b4 }.
1.
A
B
b1
a1
a2
b4
a3
b3
b2
Die Relation R = {(a1 ,b1 ),(a2 ,b3 ),(a3 ,b4 )} ist linkstotal und links- und rechtseindeutig, aber nicht rechtstotal.
2.
A
B
a1
a2
a3
b1
b4
b3
b2
Die Relation R = {(a1 ,b1 ),(a1 ,b2 ),(a3 ,b2 )} ist weder linkstotal, rechtstotal,
linkseindeutig noch rechtseindeutig.
Bemerkungen
Es seien A und B Mengen.
Eine Funktion f : A → B ist eine linkstotale, rechtseindeutige Relation zwischen A
und B. f ist genau dann injektiv, wenn die Relation linkseindeutig ist, und genau
dann surjektiv, wenn die Relation rechtstotal ist.
Definitionen
Eine Relation zwischen einer Menge A und sich selbst heißt homogen. Wir sprechen in diesem Fall von ‘einer Relation auf einer Menge M’. Homogene Relationen werden häufig mit dem Symbol ∼ bezeichnet und heißen
22
1.3 Geordnete Paare und Relationen
1. reflexiv, falls a ∼ a für alle a ∈ A,
2. konnex, falls für alle a,b ∈ A mit a 6= b entweder a ∼ b oder b ∼ a gilt,
3. symmetrisch, falls a ∼ b ⇒ b ∼ a,
4. asymmetrisch, falls a ∼ b ⇒ b 6∼ a,
5. antisymmetrisch, falls a ∼ b und b ∼ a ⇒ a = b,
6. transitiv, falls a ∼ b und b ∼ c ⇒ a ∼ c.
Beispiele
Die Tabelle zeigt einige homogene Relationen auf N.
x ∼ y, falls
reflexiv?
symmetrisch?
transitiv?
x≤y
ja (x ≤ x)
nein (3 ≤ 4, 4 6≤ 3)
ja (x ≤ y, y ≤ z ⇒ x ≤ z)
x |y
ja (x | x)
nein (3|6, 66 |3)
ja (x |y, y|z ⇒ x |z)
x+y=7
nein (2x 6= 7
für alle x ∈ N)
ja
nein (3 + 4 = 7 und 4 + 3 = 7,
3 + 3 = 6)
x ∼ y, falls
konnex?
asymmetrisch?
antisymmetrisch?
x≤y
ja
nein (reflexiv)
ja (x ≤ y, y ≤ x ⇒ x = y)
x |y
nein (36 |5, 56 |3)
ja
ja (x |y, y| x ⇒ x |y)
x+y=7
nein (3 + 2 6= 7,
2 + 3 6= 7)
nein (symmetrisch)
nein (3 + 4 = 7, 4 + 3 = 7)
Definition
Eine Relation ∼ auf einer Menge M heißt Äquivalenzrelation, falls sie reflexiv,
symmetrisch und transitiv ist.
23
1.3 Geordnete Paare und Relationen
Beispiel
Es sei M die Menge aller Bücher in der Bibliothek. Die Relation
a∼b
⇔
a und b haben dieselbe ISBN
ist eine Äquivalenzrelation auf M:
Definition
Es sei n ∈ N. Zwei Zahlen a, b ∈ Z heißen kongruent modulo n, falls n|(a − b).
In diesem Fall schreiben wir
a ≡ b (mod n).
Proposition
Es sei n ∈ N. Die Formel
a∼b
⇔
a ≡ b (mod n)
definiert eine Äquivalenzrelation auf Z.
Beweis
∼ ist reflexiv: a ∼ a für alle a ∈ Z, denn a − a = 0 und n|0.
24
1.3 Geordnete Paare und Relationen
∼ ist symmetrisch: Es gelte a ∼ b, so dass n|(a − b). Folglich gilt auch
n|(b − a), d.h. b ∼ a.
∼ ist transitiv: Es gelten a ∼ b und b ∼ c, so dass n|(a − b) und n|(b − c).
Folglich gilt es ganze Zahlen q1 und q2 derart, dass a − b = q1 n und b − c =
q2 n. Es ist also a − c = (a − b) + (b − c) = (q1 + q2 )n und n|(a − c), d.h. a ∼ c.
Definition
Es seien ∼ eine Äquivalenzrelation auf einer Menge M und m ∈ M.
Die Teilmenge
[m] := { x ∈ M : x ∼ m}
heißt die Äquivalenzklasse von m in M.
Lemma
Es sei ∼ eine Äquivalenzrelation auf eine Menge M. Dann bilden die Äquivalenzklassen von ∼ eine Partition von M, d.h.
1. für alle x, y ∈ M gilt entweder [ x ] ∩ [y] = ∅ oder [ x ] = [y],
2.
S
[ x ] = M.
x∈ M
Beweis
1. Es sei [ x ] ∩ [y] 6= ∅. Wähle z ∈ [ x ] ∩ [y].
Es gilt nun
a ∈ [ x] ⇒ a ∼ x
⇒a∼z
⇒a∼y
⇒ a ∈ [ y ],
(denn a ∼ x und x ∼ z)
(denn a ∼ z und z ∼ y)
so dass [ x ] ⊆ [y]. Dasgleiche Argument ergibt [y] ⊆ [ x ], so dass [ x ] = [y] ist.
25
1.3 Geordnete Paare und Relationen
2. Wähle m ∈ M. Aus m ∼ m folgt m ∈ [m] und daher
m ∈ [m] ⊆
so dass M ⊆
S
[
[ x ]. Definitionsgemäß gilt
x∈ M
[ x ],
x∈ M
S
x∈ M
[ x ] ⊆ M.
Bemerkung
Insbesondere folgt [ x ] = [y] aus x ∼ y.
Beispiele
1. Es sei M die Menge aller Bücher in der Bibliothek. Die Äquivalenzklassen
der Äquivalenzrelation
a∼b
⇔
a und b haben dieselbe ISBN
bilden eine Partition von M:
2. Es seien n ∈ N und ∼ die Äquivalenzrelation
a∼b
⇔
a ≡ b (mod n)
auf Z.
Um die Äquivalenzklassen zu bestimmen, brauchen wir das folgende Ergebnis, das später bewiesen wird:
26
1.3 Geordnete Paare und Relationen
Zu jedem a ∈ Z gibt es eindeutige Zahlen qa ∈ Z (den Quotienten) und
r a ∈ {0, . . . ,n − 1} (den Rest) derart, dass
a = qa n + ra .
Aus
a − x = (q a − q x )n + r a − r x
folgt nun
a∼x
so dass
⇔
ra = rx ,
[ x ] = { a ∈ Z : r a = r x }.
Es gibt also n verschiedene Äquivalenzklassen, nämlich
[0] = {0, n, 2n, . . . } ∪ {−n, − 2n, . . . },
[1] = {1, n + 1, 2n + 1, . . .} ∪ {−n + 1, − 2n + 1, . . .},
[2] = {2,n + 2,2n + 2, . . .} ∪ {−n + 2, − 2n + 2, . . .},
..
.
[n − 1] = {n − 1,2n − 1,4n − 1, . . .} ∪ {−1, − 1 − n, . . . },
und diese bilden eine Partition von Z:
Z=
n[
−1
[i ],
i =0
[i ] ∩ [ j] = ∅ für i 6= j.
Lemma
Es sei { Xi }i ∈ I eine Partition einer Menge X, d.h.
[
Xi = X,
i∈ I
Xi ∩ X j = ∅ für i 6= j.
Dann definiert die Formel
a∼b
⇔
a, b ∈ Xi ⋆ für irgendein i ⋆ ∈ I
eine Äquivalenzrelation auf X, deren Äquivalenzklassen die Mengen Xi , i ∈ I
sind.
Ist ferner ≈ eine weitere Äquivalenzrelation auf X, deren Äquivalenzklassen genau die Mengen Xi , i ∈ I sind, so stimmt ≈ mit ∼ überein.
27
1.3 Geordnete Paare und Relationen
Definition
Eine Relation auf einer Menge M heißt partielle Ordnung, falls sie reflexiv,
antisymmetrisch und transitiv ist. Sie ist eine Totalordnung, falls sie auch konnex
ist.
Bemerkung
Für eine Ordnung schreiben wir oft a ≺ b, falls a b aber a 6= b.
Beispiele
1. Die Relation
ab
⇔
a|b
ist eine partielle Ordnung aber keine Totalordnung auf N.
2. Die Relation
ab
⇔
ist eine Totalordnung auf R.
a≤b
3. Die Relation , wobei
(a1 , . . . ,an ) ≺ (b1 , . . . ,bn ), falls entweder a1 < b1
oder a1 = b1 und a2 < b2
..
.
oder a1 = b1 , . . . , an−1 = bn−1 und an < bn ,
definiert eine Totalordnung auf N n .
Im Falle n = 4 gilt z.B.
(1,2,3,5) ≺ (1,2,4,3), denn 3 < 4,
(1,7,9,11) ≺ (1,7,9,14), denn 11 < 14.
4. Auf der Menge aller Ketten von natürlichen Zahlen wird eine Totalordnung
durch die Regel
a1 a2 . . . am ≺ b1 b2 . . . bn , falls entweder (a1 , . . . ,at ) ≺ (b1 , . . . ,bt )
order (a1 , . . . , at ) = (b1 , . . . , bt ) und m < n
28
1.4
Wohlordnung und Induktion
definiert, wobei t = min(m,n).
Schreiben wir a, . . . , z statt 1, . . . , 26, so erhalten wir die lexikographische
Ordnung: Es gilt z.B.
zumuten ≺ Zumutung
faulen ≺ faulenzen
1.4 Wohlordnung und Induktion
Definition
Es seien (X, ) eine geordnete Menge und Y eine Teilmenge von X.
1. Ein Element M ∈ X heißt obere Schranke für Y, falls y M für alle y ∈ Y.
Liegt M in Y, so heißt sie größtes Element von Y.
2. Ein Element M ∈ Y heißt maximales Element von Y, falls
y ∈ Y mit y M
⇒
y = M.
Es gelten die entsprechenden Definitionen für untere Schranken, kleinste Elemente und minimale Elemente.
Bemerkungen
1. Falls Y eine größtes (kleinstes) Element besitzt, so ist es eindeutig.
Es seien nämlich M1 , M2 größte (kleinste) Elemente von Y. Die Relationen
y M1 , y M2
(y M1 , y M2 )
für alle y ∈ Y gelten insbesondere für y = M1 und y = M2 , so dass M1 M2
und M2 M1 , und folglich M1 = M2 .
2. Ein größtes (kleinstes) Element für Y ist auch ein maximales (minimales)
Element von Y. Ein maximales (minimales) Element von Y ist dagegen nicht
notwendigerweise ein größtes (kleinstes) Element von Y. Die Begriffe stimmen aber miteinander überein, falls eine Totalordnung ist.
29
1.4
Wohlordnung und Induktion
Beispiele
1. Betrachte die geordnete Menge (N, ), wobei
nm
⇔
n|m.
Die Teilmenge {1,2,3,4,6} von N hat
die oberen Schranken 12, 24, 36, . . . .
ein kleinstes Element (1),
kein größtes Element,
die maximale Elemente 4 und 6,
2. Betrachte die total geordnete Menge (R, ≤). Die Teilmenge (0,1] von R hat
die untere Schranke m für alle m ≤ 0,
kein kleinstes Element, denn aus der Existenz eines kleinsten Elements
m ∈ (0,1] folgt der Widerspruch m2 ∈ (0,1] aber m2 < m,
das größte Element 1.
Dieselbe Schlüsse gelten für (0,1) ∩ Q als Teilmenge von (Q, ≤).
Definition
Eine total geordnete Menge (X, ) heißt wohlgeordnet, falls jede nichtleere Teilmenge von X ein kleinstes Element hat.
Beispiele
1. (R, ≤) und (Q, ≤) sind nicht wohlgeordnet (die Teilmenge (0,1) bzw. (0,1) ∩
Q hat kein kleinstes Element).
2. (N, ≤) ist wohlgeordnet. Dies ist das Wohlordnungsaxiom der natürlichen
Zahlen.
30
1.4
Wohlordnung und Induktion
3. (Z, ≤) ist nicht wohlgeordnet (die Teilmenge {. . . , −3, − 2, − 1} hat kein
kleinstes Element). Versehen mit der Totalordnung
0 ≺ 1 ≺ −1 ≺ 2 ≺ −2 ≺ −3 ≺ · · ·
ist sie jedoch wohlgeordnet.
Das dritte Beispiel verdeutlicht, dass die Wahl der Ordnung wichtig ist.
Satz (Wohlordnungssatz)
Zu jeder nichtleeren Menge gibt es eine Totalordnung, bezüglich dessen sie wohlgeordnet ist.
Dieser Satz wird aus dem folgenden Auswahlaxiom der Mengenlehre hergeleitet:
Es sei { Mi }i ∈ I eine Menge nichtleerer Mengen. Dann gibt es eine Menge M,
die aus jeder der Mengen Mi , i ∈ I genau ein Element und sonst keine weiteren Elemente enthält.
Es gibt eine weitere Folgerung aus dem Auswahlaxiom, die für Ordnungen relevant ist.
Satz (Lemma von Zorn)
Es sei X eine nichtleere, geordnete Menge mit der Eigenschaft, dass jede total
geordnete Teilmenge von X eine obere Schranke besitzt. Dann hat X (mindestens)
ein maximales Element.
Bemerkung
Der Wohlordnungssatz, das Auswahlaxiom und das Lemma von Zorn sind logisch äquivalent: Aus je einem lassen sich die anderen beiden folgern.
31
1.4
Wohlordnung und Induktion
Satz (transfinite Induktion)
Es sei ( I, ) eine wohlgeordnete Menge und P(i ), i ∈ I eine Aussageform mit der
folgende Eigenschaft:
Ist P( j) für alle j ≺ k wahr, so ist P(k) wahr.
Dann ist P(i ) wahr für jedes i ∈ I.
Beweis
Es sei P(i ) falsch für irgendein i ∈ I. Da ( I, ) wohlgeordnet ist, gibt ein kleinstes
solches Element i ⋆ .
Nun ist P( j) ist wahr für alle j ≺ i ⋆ . Folglich ist P(i ⋆ ) wahr, und dies ist ein
Widerspruch.
Bemerkung
Im Sonderfall, dass ( I, ) gleich (N, ≤) ist, handelt es sich um das Prinzip der
starken Induktion.
Beispiel
Die durch das Rekursionsschema
f 1 = 1,
f 2 = 1,
f n = f n−1 + f n−2 , n = 3,4, . . .
definierte Folge { f n } heißt Fibonacci-Folge. Zeigen Sie, dass
n−3
3
fn ≥
, n = 1,2, . . . .
2
Lösung
Es sei P(n) die Aussageform
n−3
3
fn ≥
2
für n ∈ N. Wir zeigen, dass P(1), P(2), . . . , P(k − 1) ⇒ P(k) für alle k ∈ N.
32
1.5 Abzählbarkeit
Die Aussagen P(1) und P(1) ⇒ P(2) werden gesondert verifiziert. Dies ist der
Induktionsanfang. Es gilt
1−3
2−3
3
4
2
3
1 = f1 ≥
= ,
= .
1 = f2 ≥
2
9
2
3
(Da P(1) wahr ist, ist P(1) ⇒ P(2) äquivalent zu P(2).)
Nun sei k ≥ 3. Im Induktionsschluss beweisen wir, dass die Induktionsvoraussetzung
j−3
3
P( j) : f j ≥
,
j = 1, . . . , k − 1
(1 )
2
die Induktionsbehauptung
k−3
3
P(k) : f k ≥
2
impliziert.
Es gilt nun
f k = f k−1 + f k−2
k−4 k−5
3
3
+
≥
2
2
k−5 3
3
=
+1
(wegen (1))
2
2
k−5 5
3
=
2
2
k−5 3
9
≥
(denn 25 > 94 )
2
4
k−3
3
.
=
2
1.5 Abzählbarkeit
Definition
Eine nichtleere Menge M heißt endlich, falls es eine natürliche Zahl n und eine
bijektive Funktion f : N n → M gibt, wobei
N n = { m ∈ N : m ≤ n}
ist. In diesem Fall hat M n Elemente.
33
1.5 Abzählbarkeit
Bemerkung
Eine endliche Menge M kann nicht gleichzeitig n1 und n2 Elemente mit n1 6= n2
haben. In diesem Fall gäbe es Bijektionen f 1 : N n1 → M und f 2 : N n2 → M, so dass
g := f 1−1 ◦ f 2 : N n2 → N n1 und g−1 : N n1 → N n2 Bijektionen wären. Die Existenz
solcher Funktionen schließt aber das folgende Lemma aus.
Lemma (Schubfachprinzip)
Es seien m und n natürliche Zahlen mit m < n. Dann gibt es keine Injektion N n →
Nm .
Beweis
Es sei
S = {n ∈ N: Es existieren eine natürliche Zahl
m < n und eine Injektion f : N n → N m }.
Falls S 6= ∅ ist, hat S dem Wohlordnungsaxiom zufolge ein kleinstes Element k.
Es existieren also eine natürliche Zahl ℓ < k und eine Injektion g : N k → N ℓ .
Es ist ℓ 6= 1, denn keine Funktion N k → N1 = {1} ist eine Injektion für k > 1.
Damit ist ℓ > 1, so dass ℓ = q + 1 und daher k = p + 1 für igendwelche natürlichen
Zahlen p, q sind.
Bemerke:
N k = N p ∪ { p + 1},
N ℓ = N q ∪ { q + 1}.
Falls q + 1 nicht in g[N p ] ist, ist die durch die Formel
h ( x ) = g ( x ),
definierte Funktion h : N p → N q injektiv.
x ∈ Np
Falls q + 1 in g[N p ] ist, existiert x1 ∈ N p mit g( x1 ) = q + 1. Folglich ist
g( p + 1) 6= q + 1. Damit ist die durch die Formel
g ( x ),
x 6 = x1 ,
h( x ) =
g ( p + 1 ), x = x 1
definierte Funktion h : N p → N q injektiv.
In beiden Fällen haben wir eine Injektion h : N p → N q mit q < p und p < k konstruiert. Dies widerspricht aber der Definition von k.
34
1.5 Abzählbarkeit
Bemerkung
Das Schubfachprinzip wird oft folgendermaßen formuliert:
Falls man n Objekte in m < n Schubfächer einteilen möchte, gibt es
mindestens ein Schubfach, in dem mehr als ein Objekt landet.
Mit anderen Worten existiert keine Injektion f : M → S, wobei M die Menge der
Objekte und S die Menge der Schubfächer ist. Definitionsgemäß existieren Bijektionen f 1 : N n → M und f 2 : N m → S. Die Existenz einer Injektion f : M → S
impliziert, dass f 2−1 ◦ f ◦ f 1 : N n → N m injektiv ist. Dies widerspricht dem obigen
Lemma.
Definitionen
1. Die leere Menge betrachten wir als endlich mit 0 Elementen.
2. Eine nichtleere Menge M ist unendlich, falls sie nicht endlich ist.
Lemma
Eine nichtleere Menge M ist unendlich, falls es eine Injektion f : N → M gibt.
Beweis
Nehmen wir an, M ist endlich. Dann gibt es eine natürliche Zahl n und eine Bijektion f n : N n → M. Es sei i : N n+1 → N die Inklusion
i ( x ) = x,
x = 1, . . . ,n + 1.
Damit ist h := f n−1 ◦ f ◦ i : N n+1 → N n eine Injektion. Dies widerspricht aber dem
Schubfachprinzip.
.
35
1.5 Abzählbarkeit
Definitionen
1. Eine nichtleere Menge M heißt abzählbar unendlich, falls es eine bijektive
Funktion f : N → M gibt.
2. Eine endliche oder abzählbar unendliche Menge heißt abzählbar.
3. Eine nicht abzählbare Menge heißt überabzählbar.
Beispiele
1. Die Menge Z ist abzählbar unendlich. So zählt man ihre Elemente ab:
Zielmenge (Z )
Urmenge (N )
0 1 −1 2 −2 3 −3 · · ·
↑ ↑ ↑ ↑ ↑ ↑ ↑
1 2 3 4 5 6 7 ···
2. Die Produktmenge
N × N = {(n1 ,n2 ) : n1 ,n2 ∈ N }
ist abzählbar unendlich. So zählt man ihre Elemente ab:
1
(1, 1)
3
2
(1, 2)
5
(2, 1)
(2, 2)
6
9
(3, 1)
4
(1, 3)
7
(1, 4)
···
8
(2, 3)
(2, 4)
(3, 2)
(3, 3)
(3, 4)
(4, 2)
(4, 3)
(4, 4)
10
···
(4, 1)
Zeichenerklärung: durchgezogene Pfeile: N → Z
gestrichelte Pfeile: Abzählungsrichtung
36
1.5 Abzählbarkeit
3. Die Menge aller positiven rationalen Zahlen ist abzählbar unendlich. So zählt
man ihre Elemente ab:
1
1
1
2
1
2
1
3
1
4
1
5
2
3
2
4
2
5
3
2
3
3
3
4
3
5
4
2
4
3
4
4
4
5
5
2
5
3
5
4
5
5
2
2
5
3
1
···
7
3
2
1
10
6
4
8
9
4
1
11
5
1
..
.
Zeichenerklärung: durchgezogene Pfeile: N → Q
gestrichelte Pfeile: Abzählungsrichtung
4. Die Menge R ist nicht abzählbar. Sie ist unendlich, da die Inklusion N → R
offensichtlich injektiv ist. Dass sie nicht abzählbar unendlich ist, beweisen wir
durch Widerspruch.
Nehmen wir an, R ist abzählbar unendlich. Es existiert also eine bijektive Funktion f : N → R. Wir bezeichnen f (n) mit Nn ,d1n d2n d3n . . ., wobei Nn eine ganze Zahl
ist und d1n ,d2n ,d3n , . . . ∈ {0,1, . . . ,9} sind:
Urmenge (N )
1
2
3
..
.
Zielmenge (R )
→
N1 ,d11 d21 d31 . . .
→
N3 ,d13 d23 d33 . . .
..
.
→
N2 , d12 d22 d32 . . .
(Hier benutzen wir die Dezimalschreibweise für reelle Zahlen, die Nichteindeutigkeiten wie 0,999 . . . = 1,000 . . . enthält.)
37
1.5 Abzählbarkeit
j
D j sei eine ganze Zahl zwischen 1 und 8 mit D j 6= d j . Betrachte nun die reelle Zahl
0,D1 D2 D3 . . .
Diese Zahl ist nicht gleich f (1), da D1 6= d11 ist.
Sie ist ebenfalls nicht gleich f (2), da D2 6= d22 ist.
j
Sie ist tatsächlich nicht gleich f ( j) für jedes j ∈ N, da D j 6= d j ist.
Sie ist also nicht Element der Bildmenge von f : Dies widerspricht der Annahme,
dass f surjektiv ist.
38
2 Algebraische Strukturen
2 Algebraische Strukturen
2.1 Verknüpfungen, Gruppen und Körper
Definition
Es sei X eine nichtleere Menge. Eine (binäre) Verknüpfung · auf X ist eine Abbildung X × X → X.
In der Regel verwenden wir die Notation x1 · x2 an Stelle von ·( x1 ,x2 ).
Beispiele
1. Addition und Multiplikation sind Verknüpfungen auf der Menge N: Für
alle n1 , n2 ∈ N sind n1 + n2 und n1 .n2 ebenfalls Elemente in N. Sie sind
auch Verknüpfungen auf den Mengen Z, Q und R.
2. Es sei M eine nichtleere Menge und X die Menge aller Funktionen M → M.
Komposition ist eine Verknüfung auf X: Für alle Funktionen f , g : M → M
ist f ◦ g ebenfalls eine Funktion M → M.
Definitionen
Es sei X eine nichtleere Menge. Eine Verknüpfung · auf X heißt
(i) assoziativ, falls (a · b) · c = a · (b · c) für alle a,b,c ∈ X,
(ii) kommutativ, falls a · b = b · a für alle a, b ∈ X.
Beispiele
1. Addition und Multiplikation sind assoziative, kommutative Verknüpfungen auf N, Z, Q und R.
2. Es sei X die Menge aller Funktion R → R.
39
2.1 Verknüpfungen, Gruppen und Körper
Es seien f , g, h ∈ M. Wegen der Definition ( F1 ◦ F2 )(y) = F1 ( F2 (y)) gilt
(( f ◦ g) ◦ h)( x ) = ( f ◦ g)(h( x )) = f ( g(h( x ))
und
so dass
( f ◦ ( g ◦ h))( x ) = f (( g ◦ h)( x )) = f ( g(h( x )),
(( f ◦ g) ◦ h)( x ) = ( f ◦ ( g ◦ h))( x )
für alle x ∈ X. Folglich gilt (( f ◦ g) ◦ h = f ◦ ( g ◦ h), d.h. ◦ ist assoziativ.
Es sei f ( x ) = sin x und g( x ) = 2x. Dann ist f ( g( π2 )) = sin(π ) = 0 aber
g( f ( π2 )) = 2 sin( π2 ) = 2. Folglich ist f ◦ g 6= g ◦ f , d.h. ◦ ist nicht kommutativ.
Definition
Eine Gruppe ist eine mit einer Verknüpfung · versehene nichtleere Menge X, die
die folgenden Eigenschaften hat.
• Die Verknüpfung · ist assoziativ.
• Es existiert ein Element i ∈ X derart,
dass x · i = i · x = x für alle x ∈ X.
• Zu jedem x ∈ X existiert ein Element
x −1 ∈ X derart, dass x · x −1 = x −1 · x = i.
(Assoziativgesetz)
(Existenz eines
neutralen Elements)
(Existenz von Inversen)
Ist die Verknüpfung · auch kommutativ, so handelt es sich um eine Abelsche
Gruppe.
In der Regel verwenden wir die Schreibweise (X,·) für eine Gruppe.
Beispiele
1. (Z,+) ist eine Abelsche Gruppe, wobei
das neutrale Element 0 ist, denn 0 + x = x + 0 = x für alle x ∈ N,
das inverse Element zu x die Zahl − x ist, denn x + (− x ) = (− x ) + x = 0
für alle x ∈ N.
(Q,+) und (R,+) sind ebenfalls Abelsche Gruppen.
40
2.1 Verknüpfungen, Gruppen und Körper
2. (Q \ {0}, .) ist eine Abelsche Gruppe, wobei
das neutrale Element 1 ist, denn 1.x = x.1 = x für alle x ∈ Q \ {0},
das inverse Element zu x die Zahl
x ∈ Q \ {0}.
1
x
ist, denn x. 1x = x1 .x = 1 für alle
(R \ {0},.) ist ebenfalls eine Abelsche Gruppe.
3. Es sei X eine nichtleere Menge. Die Menge aller Bijektionen X → X bildet
eine Gruppe bezüglich Komposition von Funktionen:
Das neutrale Element ist die Identitätsfunktion I : X → X mit I ( x ) = x
für alle x ∈ X, denn f ◦ I = I ◦ f = f für jede Bijektion f : X → X.
Das Inverse zu f : X → X ist die Umkehrfunktion f −1 : X → X, denn
f ◦ f −1 = f −1 ◦ f = I für jede Bijektion f : X → X.
Ist X eine endliche Menge, so nennen wir diese Gruppe die symmetrische
Gruppe S(X ) von X und bezeichnen ihre Elemente als Permutationen. Für
eine Permutation σ der Menge { x1 ,x2 , . . . ,xn } verwendet man oft die Notation
x1
x2 · · · x n
,
σ ( x1 ) σ ( x2 ) · · · σ ( x n )
so dass z.B.
1 2 3
1 3 2
die Permutation 1 7→ 1, 2 7→ 3, 3 7→ 2 der Menge {1,2,3} bezeichnet. Diese
Permutation können wir auch in der Zykeldarstellung als (1)(23) oder einfach (23) schreiben. Die Notation S({1, . . . ,n}) kurzen wir oft auf Sn ab, so
dass z.B.
S3 = {i,(123),(321),(23),(13),(12)}.
4. Eine Symmetrie einer ebenen geometrischen Figur ist eine winkel- und abstandstreue Bijektion der Ebene auf sich selbst, die diese Figur ebenfalls auf
sich selbst abbildet.
Die Abbildung zeigt die sechs Symmetrien eines gleichseitigen Dreiecks:
Die Identität I, Rotationen R±2π/3 durch ± 2π
3 und Reflektionen T1 , T2 , T3
an den Winkelhalbierenden.
41
2.1 Verknüpfungen, Gruppen und Körper
1
2
I
R2π/3
1
2
T1
3
3
2
2
R−2π/3
3
1
T2
1
3
2
2
3
1
T3 2
3
1
1
3
Die Menge der Symmetrien oder Symmetriemenge des gleichseitigen Dreiecks ist eine Gruppe bezüglich Kompositionen von Funktionen:
Das neutrale Element ist I.
−1
1
−1
−1
Es gilt I −1 = I, R2π/3
= R−2π/3 , R−
−2π/3 = R2π/3 , T1 = T1 , T2 = T2 und
T3−1 = T3 .
Die Gruppe ist jedoch nicht Abelsch, denn T1 R2π/3 = T2 aber R2π/3 T1 = T3 .
Wir können die Symmetrien auch als Permutationen der Menge {1,2,3,}
darstellen:
R2π/3 = (123),
R−2π/3 = (321),
T1 = (23),
T2 = (13),
T3 = (12).
Somit können wir die Symmetriegroupe eines gleichseitigen Dreiecks mit
der symmetrischen Gruppe S3 identifizieren.
42
2.1 Verknüpfungen, Gruppen und Körper
5. Es seien m, n ∈ N. Eine (m × n) (reelle) Matrix ist ein mn-Tupel
A = (aij ) i=1,...,m, reeller Zahlen. Man schreibt
j =1,...,n


a11 a12 · · · a1n 
 a21 a22 · · · a2n  



A = (aij ) =  ..
..  m Zeilen,
..
 .
. 
.


am1 am2 · · · amn 
|
{z
}
n Spalten

d.h. man ordnet das mn-Tupel (aij ) i=1,...,m, in Form eines rechteckigen Schej =1,...,n
mas mit m Zeilen und n Spalten. Der Koeffizient aij steht in der i-ten Zeile
und der j-ten Spalte.
Die Menge R m×n der (m × n) reellen Matrizen ist eine Abelsche Gruppe
bezüglich punktweise Addition der Koeffizienten:
(aij ) + (bij ) := (aij + bij ),
denn
das neutrale Element ist die Nullmatrix (0), deren Koeffizienten alle
Null sind,
das inverse Element zu (aij ) ist die Matrix (− aij ).
Proposition
Es sei (X,·) eine Gruppe.
1. Das neutrale Element i ist eindeutig.
2. Es sei x ∈ X. Das inverse Element zu x ist eindeutig.
Beweis
1. Es seien i1 und i2 neutrale Elemente, so dass insbesondere
x = x · i1 ,
y = i2 · y
für alle x, y ∈ X. Insbesondere gilt dies für x = i2 und y = i1 , sodass
Folglich ist i2 = i1 .
i2 = i2 · i1 ,
i1 = i2 · i1 .
43
2.1 Verknüpfungen, Gruppen und Körper
2. Es seien y und z zwei inverse Elemente zu x, sodass
y · x = x · y = i,
z · x = x · z = i.
Nun gilt
y = i · y = (z · x ) · y = z · ( x · y) = z · i = z.
Von besonderer Bedeutung sind Abbildungen zwischen Gruppen, die mit der
Gruppenstruktur verträglich sind.
Definition
Es seien (G,· G ) und ( H, · H ) Gruppen. Eine Funktion f : G → H mit der Eigenschaft
f ( x · G y) = f ( x ) · H f (y)
für alle x,y ∈ G
heißt (Gruppen-)homomorphismus. Ist f zusätzlich eine Bijektion, so heißt sie
(Gruppen-)isomorphismus.
Proposition
Es seien (G,· G ) und ( H, · H ) Gruppen und f : G → H ein Gruppenhomomorphismums. Dann gilt
(i) f (i G ) = i H , wobei i G und i H die neutrale Elemente von G und H sind,
(ii) f ( x −1 ) = f ( x )−1 für alle x ∈ G.
Beweis
Nun schreiben wir · G und · H als ·. Aus dem Kontext wir klar, welcher gemeint
ist.
(i) Es gilt
d.h.
f (i G · i G ) = f (i G ) · f (i G ),
| {z }
= iG
f (i G ) = f (i G ) · f (i G ).
44
2.1 Verknüpfungen, Gruppen und Körper
Da das einzeige Element a einer (beliebigen) Gruppe mit der Eigenschaft
a · a = a das neutrale Element ist, gilt nun
f (i G ) = i H .
(ii) Es gilt
und
i H = f (i G ) = f ( x − 1 · x ) = f ( x − 1 ) · f ( x )
i H = f (i G ) = f ( x · x − 1 ) = f ( x ) · f ( x − 1 ).
Die Gleichheit f ( x )−1 = f ( x −1 ) folgt nun aus der Eindeutigkeit von Inversen.
Beispiele
1. Die Exponentialfunktion exp : (R,·) → (R \ {0},.) ist wegen der Formel
exp( x + y) = exp( x ). exp(y),
x,y ∈ R
ein Gruppenhomomorphismus.
2. In einem früheren Beispiel haben wir die Symmetriegruppe SD des Dreiecks
mit der symmetrischen Gruppe S3 identifiziert. Diese Identifizierung lässt
sich formal durch die Abbildung S : SD → S3 mit
S( I ) = (),
S( R2π/3 ) = (123),
S(T1 ) = (23),
S( R−2π/3 ) = (321),
S(T2 ) = (13),
S(T3 ) = (12)
angeben. Somit ist S : SD → S3 ein Gruppenisomorphismus.
3. Es sei (G,·) eine Gruppe. Ein Automorphismus ist ein Isomorphismus
G → G. Die Menge Aut(G ) aller Automorphismen auf G bildet eine Gruppe
bezüglich Komposition.
Definition
Es seien (G,· G ) und ( H, · H ) Gruppen und f : G → H ein Gruppenhomomorphismums. Der Kern von f ist die Teilmenge
ker f := f −1 (i H ) = { x ∈ G : f ( x ) = i H }
von G.
45
2.1 Verknüpfungen, Gruppen und Körper
Bemerkung
Definitionsgemäß liegt i G in ker f .
Proposition
Es seien (G,· G ) und ( H, · H ) Gruppen und f : G → H ein Gruppenhomomorphismums. Dann ist f genau dann injektiv, wenn ker f = {i G } ist.
Beweis
Es sei f injektiv. Wähle x ∈ ker f , Aus f ( x ) = f (i G ) = i H folgt x = i G . Folglich
ist ker f = {i G }.
Nun sei ker f = {i G }. Wähle x1 , x2 ∈ G mit f ( x1 ) = f ( x2 ). Aus
f ( x1−1 · x2 ) = f ( x1−1 ) · f ( x2 ) = f ( x1 )−1 · f ( x2 ) = f ( x1 )−1 · f ( x1 ) = i H
folgt x1−1 · x2 ∈ ker f . Folglich gilt x1−1 · x2 = i G und daher x2 = x1 . Somit ist f
injektiv.
Definition
Eine Untergruppe (Y,·) einer Gruppe (X, ·) besteht aus einer Teilmenge Y von X,
die bezüglich der Verknüpfung · wieder eine Gruppe ist.
Proposition
Es seien (X,·) eine Gruppe und Y eine nichtleere Teilmenge von X. Es gelte
1. i ∈ Y,
2. Y ist abgeschlossen bezüglich ·, d.h. x1 , x2 ∈ Y ⇒ x1 · x2 ∈ Y,
3. Y ist abgeschlossen bezüglich der Inversen, d.h. x ∈ Y ⇒ x −1 ∈ Y.
Dann ist (Y,·) eine Untergruppe von (X,·).
46
2.1 Verknüpfungen, Gruppen und Körper
Proposition
Es seien (G,· G ) und ( H, · H ) Gruppen und f : G → H ein Gruppenhomomorphismums.
1. Die Bildmenge von f ist eine Untergruppe von H.
2. Der Kern von f ist eine Untergruppe von G.
Beweis
1. Offenbar ist i H = f (i G ) ∈ R( f ), und für jedes f ( x ) ∈ R( f ) ist
f ( x )−1 = f ( x −1 ) ∈ R( f ). Schießlich seien f ( x1 ), f ( x2 ) ∈ R( f ). Dann ist
f ( x1 ) · f ( x2 ) = f ( x1 · x2 ) ∈ R( f ).
1
2. i G ∈ ker f . Aus x ∈ ker f folgt x −1 ∈ ker f , denn f ( x −1 ) = f ( x )−1 = i −
H = iH.
Schließlich seien x1 , x2 ∈ ker f . Dann gilt f ( x1 · x2 ) = f ( x1 ) · f ( x2 ) = i H · i H =
i H , so dass x1 · x2 ∈ ker f .
Wir werden Gruppentheorie in dieser Vorlesung nicht weiter vertiefen.
Definition
Ein Körper ist eine mit zwei Verknüpfungen + (‘Addition’) und . (’Multiplikation’) versehene nichtleere Menge X, die die folgenden Eigenschaften haben.
∀ x,y,z ∈ X (Assoziativgesetz
der Addition)
(A2) x + y = y + x ∀ x,y ∈ X
(Kommutativgesetz der
Addition)
(A3) Es existiert ein Element
(Existenz eines neutralen
0 ∈ X mit der Eigenschaft
Elements der Addition)
x + 0 = 0 + x = x ∀x ∈ X
(A4) Zu jedem x ∈ X existiert
(Existenz additiver
ein Element − x ∈ X derart, dass
inverser Elemente)
x + (− x ) = − x + x = 0
(A1)
x + (y + z) = ( x + y) + z
47
2.1 Verknüpfungen, Gruppen und Körper
(A5)
x.(y.z) = ( x.y).z
(A6)
x.y = y.x
∀ x,y,z ∈ X
∀ x,y ∈ X
(A7) Es existiert ein Element
1 ∈ X \ {0} mit der Eigenschaft
1.x = x.1 = x ∀ x ∈ X
(A8) Zu jedem x ∈ X \{0} existiert
ein Element x −1 ∈ X derart, dass
x.x −1 = x −1 .x = 1
(A9) x.(y + z) = x.y + x.z ∀ x,y,z ∈ X
(Assoziativgesetz der
Multiplikation)
(Kommutativgesetz der
Multiplikation)
(Existenz eines neutralen
Elements der Multiplikation)
(Existenz multiplikativer
inverser Elemente)
(Distributivgesetz)
In der Regel verwenden wir die Schreibweise (X, + ,.) für einen Körper.
Bemerkungen
1. (A1)-(A4) besagen, dass (X,+) eine Abelsche Gruppe ist. (A5)-(A8) besagen
dagegen, dass (X \ {0},.) eine Abelsche Gruppe ist.
2. Insgesamt besagen diese Eigenschaften, dass die ‘üblichen’ Regeln der Arithmetik innerhalb eines Körpers gelten.
Beispiel
Die Menge der reellen Zahlen bildet einen Körper bezüglich Addition und Multiplikation. In der Regel schreiben wir a.b, a.b−1 und a + (−b) als ab, a/b bzw.
a − b.
Definition
Ein Unterkörper oder Teilkörper (Y, + ,.) eines Körpers (X, + ,.) besteht aus einer
Teilmenge Y von X, die bezüglich der Verknüpfungen + und . wieder ein Körper
ist.
48
2.1 Verknüpfungen, Gruppen und Körper
Proposition
Es seien (X, + ,.) ein Körper und Y eine nichtleere Teilmenge von X. Es gelte
1. 0,1 ∈ Y,
2. Y ist abgeschlossen bezüglich + und ., d.h. x1 , x2 ∈ Y ⇒ x1 + x2 , x1 .x2 ∈ Y,
3. Y ist abgeschlossen bezüglich der Inversen, d.h. x ∈ Y ⇒ − x, x −1 ∈ Y.
Dann ist (Y, + ,.) ein Teilkörper von (X, + ,.).
Beispiel
Die Menge
Q=
nm
: m ∈ Z, n ∈ Z \ {0}
o
n
der rationalen Zahlen bildet einen Teilkörper von (R, + ,.):
Für jedes n ∈ Z \{0} ist
0=
0
,
n
1=
n
,
n
so dass 0, 1 Elemente in Q sind.
Q is abgeschlossen bezüglich der Addition und Multiplikation der reellen
Zahlen, denn mit a, c ∈ Z und b, d ∈ Z \ {0} ist
a
c
a.d + b.c
+ =
∈ Q,
b d
b.d
a c
a.c
. =
∈ Q.
b d
b.d
Für m ∈ Z, n ∈ Z \ {0} ist
−
und für m, n ∈ Z \{0} ist
m
n
=
m −1
(−m)
∈Q
n
n
∈ Q.
n
m
Q ist also abgeschlossen bezüglich der Inversen.
=
49
2.2 Komplexe Zahlen
2.2 Komplexe Zahlen
Definitionen
Eine komplexe Zahl ist ein geordnetes Paar (a,b), wobei a und b reelle Zahlen
sind.
Die Menge aller komplexen Zahlen bezeichnen wir mit C.
Lemma
Mit den durch die Formeln
(a,b) + (c,d) := (a + c,b + d),
(a,b).(c,d) := (ac − bd, ad + bc)
(Addition)
(Multiplikation )
definierten Verknüpfungen bildet die Menge C einen Körper. Dabei sind die neutrale Elemente der Addition und Multiplikation (0,0) bzw. (1,0) und
b
a
−1
,− 2
.
−(a,b) = (− a, − b),
(a,b) =
a2 + b2
a + b2
Lemma
1. Die Teilmenge X = {(a,0) : a ∈ R } von C bildet einen Teilörper von (C, + ,.)
2. Die Abbildung ψ : (a,0) 7→ a ist ein Körperisomorphismus X → R, d.h. eine
Bijektion X → R mit
ψ ( x 1 + x 2 ) = ψ ( x 1 ) + ψ ( x 2 ),
ψ( x1 .x2 ) = ψ( x1 )ψ( x2 )
für alle x1 , x2 ∈ X.
Beweis
1. Wir müssen zeigen:
50
2.2 Komplexe Zahlen
(i) Die additive Identität sowie die multiplikative Identität gehören zu X.
Dies ist trivial: (0,0), (1,0) ∈ X.
(ii) X ist abgeschlossen bezüglich + und .. Dies folgt aus
(a,0) + (b,0) = (a + b,0),
(a,0).(b,0) = (ab,0)
(1)
(2)
(iii) X is abgeschlossen bezüglich der Inversen. Dies folgt aus
−(a,0) = (− a,0),
(a,0)−1 = (a−1 ,0),
a 6= 0.
2. Dies folgt aus (1) und (2).
(3)
(4)
Bemerkung
Die obige Notation für komplexe Zahlen ist etwas umständlich und wird üblicherweise vereinfacht wie folgt.
Wir identifizieren die Teilmenge X von C mit R und schreiben (a,0) als a.
Wir definieren i = (0,1) und bemerken, dass
i.i = (0,1).(0,1)
= (−1,0)
= −1.
Damit gilt
(a,b) = (a,0) + (0,b)
= (a,0) + (0,1).(b,0)
= a + ib.
Wir schreiben also (a,b) als a + ib and arbeiten mit den üblichen Rechenregeln
und dem Zusatz i2 = −1.
51
2.2 Komplexe Zahlen
Beispiel
Es seien z1 = ( x1 ,y1 ), z2 = ( x2 ,y2 ). Dann gilt
z1 z2 = ( x1 ,y1 ).( x2 ,y2 )
= ( x1 x2 − y1 y2 ,x1 y2 + x2 y1 ).
Schreibe nun z1 = x1 + iy1 , z2 = x2 + iy2 . Dann gilt
z1 z2 = ( x1 + iy1 )( x2 + iy2 )
= x 1 x 2 + x 1 y 2 i + x 2 y 1 i + y 1 y 2 i2
= x1 x2 − y1 y + ( x1 y2 + x2 y1 )i.
Definitionen
Betrachte die komplexe Zahl z = x + iy.
1. x ist der Realteil von z. Wir schreiben x = Re z.
2. y ist der Imaginärteil von z. Wir schreiben x = Im z.
3. x − iy ist die zu z konjugiert komplexe Zahl. Wir schreiben x − iy = z̄.
4.
p
x2 + y2 ist der Betrag von z. Wir schreiben
p
x 2 + y2 = | z |.
z heißt reell, falls Im z = 0 ist, und imaginär, falls Re z = 0 ist.
Proposition
Für jede komplexe Zahl z gilt
1. z + z̄ = 2Re z,
2. z − z̄ = 2i Im z,
3. zz̄ = |z|2 .
52
2.2 Komplexe Zahlen
Proposition
Für alle komplexen Zahlen z1 , z2 gelten die Regeln
1. z1 + z2 = z̄1 + z̄2 ,
2. z1 z2 = z̄1 z̄2 ,
3.
1
1
= , falls z1 6= 0,
z̄1
z1
4. z̄1 = z1 ,
5. |z̄1 | = |z1 |.
Geometrische Darstellungen komplexer Zahlen
Da eine komplexe Zahl ein geordnetes Paar ( x,y) reeller Zahlen ist, können wir
sie als Punkt in der Koordinatenebene (komplexer Ebene oder Gaußscher Zahlenebene) darstellen:
Im
z = x + iy
y
Im z
Re z
−y
x
Re
z̄ wird von z durch eine
Spiegelung an der reellen
Achse hergeleitet.
z̄ = x − iy
Es ist auch hilfreich, Polarkoordinaten einzuführen:
53
2.2 Komplexe Zahlen
Im
Hier gilt
z = x + iy
y
x = r cos θ,
y = r sin θ,
q
r = x 2 + y2 ,
y
tan θ = .
x
r
θ
Re
x
Bemerke insbesondere, das
r = | z |.
Der Winkel θ heißt Argument der komplexen Zahl z = x + iy. Er ist nicht eindeutig: Er ist nur bis auf ganzzahlige Vielfache von 2π bestimmt. Diese Mehrdeutigkeit wird behoben, indem man sich auf Werte von θ im Intervall (−π,π ]
einschränkt. In diesem Fall ist θ das Haupt- oder Prinzipalargument von z und
wird mit arg z bezeichnet:
Im
Im
z
z
|z|
arg z
|z|
arg z
Re
Re
Im
Im
Re
arg z
Re
|z|
arg z
|z|
z
z
54
2.2 Komplexe Zahlen
Beispiel
Beschreiben Sie die folgenden Mengen geometrisch.
(i) {z ∈ C : |z − (1 + i)| = 3}
(ii) {z ∈ C : 1 < |z| ≤ 3}
(iii) {z ∈ C : |z − i| < |z + i|}
(iv) {z ∈ C : −π/4 < arg z ≤ π/4}
Lösung
(i) {z ∈ C : |z − (1 + i)| = 3} ist die Menge der komplexen Zahlen, deren Distanz
zur komplexen Zahl 1 + i gleich 3 ist. Sie ist daher ein Kreis mit Mittelpunkt
1 + i und Radius 3:
Im
1
1+ i
3
1
Re
(ii) {z ∈ C : 1 < |z| ≤ 3} ist die Menge der komplexen Zahlen, deren Distanz zum
Nullpunkt größer als 1 und kleiner als oder gleich 3 ist. Es handelt sich daher
um einen Annulus mit Mittelpunkt 0 und Radien 1 und 3:
55
2.2 Komplexe Zahlen
Im
1
3
Re
(iii) {z ∈ C : |z − i| < |z + i|} ist die Menge der komplexen Zahlen, die näher an i
als an −i liegen. Sie ist also die obere Halbebene:
Im
1
Re
−1
(iv) {z ∈ C : −π/4 < arg z ≤ π/4} ist die Menge der komplexen Zahlen, deren
Winkel zur reellen Achse zwischen −π/4 und π/4 liegt. Es handelt sich daher um einen Sektor:
56
2.2 Komplexe Zahlen
Im
π
4
π
4
Re
Lemma
Betrachte die komplexen Zahlen
z1 = x1 + iy1 = r1 cos θ1 + ir1 sin θ1 ,
z2 = x2 + iy2 = r2 cos θ2 + ir2 sin θ2 .
Es gelten die Regeln
z1 z2 = r1 r2 cos(θ1 + θ2 ) + ir1 r2 sin(θ1 + θ2 )
(i)
und
z1n = r1n cos nθ1 + ir1n sin nθ1 ,
n = 1,2,3, . . . .
(Satz von de Moivre)
(ii)
Beweis
(i) Es gilt
z1 z2 = (r1 cos θ1 + ir1 sin θ1 )(r2 cos θ2 + ir2 sin θ2 )
= r1 r2 cos θ1 cos θ2 + i2 r1 r2 sin θ1 sin θ2 + ir1 r2 cos θ1 sin θ2 + ir1 r2 sin θ1 cos θ2
= r1 r2 (cos θ1 cos θ2 − sin θ1 sin θ2 ) + ir1 r2 (cos θ1 sin θ2 + sin θ1 cos θ2 )
= r1 r2 cos(θ1 + θ2 ) + ir1 r2 sin(θ1 + θ2 ).
57
2.2 Komplexe Zahlen
(ii) Dieses Ergebnis folgt induktiv aus (i).
Bemerkung
Wir können (i) geometrisch interpretieren: Die Distanz des Punktes z1 z2 zum
Nullpunkt in der komplexen Ebene ist das Produkt der Distanzen der beiden
Punkten z1 und z2 zum Nullpunkt und der Winkel des Punktes z1 z2 zur reellen
Achse ist die Summe der Winkel der beiden Punkten z1 und z2 zur reellen Achse:
Im
z1 z 2
z2
r1 r2
r2
θ1+θ2 r1
θ1
z1
θ2
Re
Funktionen einer komplexen Veränderlichen
Wir beginnen mit den Definitionen der Exponential-, trigonometrischen und hyperbolischen Funktionen.
58
2.2 Komplexe Zahlen
Definitionen
Für z ∈ C definieren wir
ez := ex (cos y + i sin y),
1
sin z := (eiz − e−iz ),
2i
1
cos z := (eiz + e−iz) ,
2
1
sinh z := (ez − e−z ),
2
1 z
cosh z := (e + e−z ).
2
wobei x = Re z, y = Im z,
Weitere spezielle Funktionen wie tan(·), cot(·), usw. werden durch diese Grundfunktionen auf der üblichen Art und Weise definiert.
Proposition
Es gelten
cosh z = cos(iz),
sinh z = −i sin(iz),
eiθ = cos θ + i sin θ,
z ∈ C,
z ∈ C,
θ ∈ R,
(Eulers Formel)
und die Grundidentitäten für die Beziehungen zwischen den Exponential-, trigonometrischen und hyperbolischen Funktionen sind weiterhin gültig.
Bemerkung
Wir können die komplexe Zahl z in Polarkoordinaten als z = r cos θ + ir sin θ
schreiben und durch Eulers Formel als z = reiθ umschreiben.
59
2.2 Komplexe Zahlen
Bemerkungen (Nullstellen)
1. Die Berechnung
|ez | = |ex (cos y + i sin y)|
= |ex || cos y + i sin y|
= ex
für z = x + iy mit x,y ∈ R zeigt, dass
|ez | = eRe z .
Insbesondere hat die Exponentialfunktion keine Nullstellen in der komplexen Ebene.
2. Es gilt
sin z = 0
⇔
cos z = 0
⇔
z = 0, ±π, ±2π, . . . ,
π 3π 5π
z = ± ,± ,± ,...
2
2
2
(siehe unten).
3. Aus den Formeln in der letzten Proposition folgt
sinh z = 0
⇔
cosh z = 0
⇔
z = 0, ±πi, ±2πi, . . . ,
πi 3πi 5πi
z = ± ,±
,±
,....
2
2
2
Beispiel
Finden Sie die Nullstellen der Funktion cos(·) : C → C.
60
2.2 Komplexe Zahlen
Lösung
Es gilt
cos z = 0
1
⇔ (eiz + e−iz ) = 0
2
⇔ eiz = −e−iz
⇔ e2iz = −1.
Schreibe nun z = x + iy und bemerke, dass −1 = 1eiπ :
Im
| − 1| = 1
π
arg(−1) = π
−1
Re
1
Daher gilt
⇔
⇔
⇔
⇔
e2iz = −1
e2i (x+iy) = −1
e−2y e2ix = 1eiπ
2x = π + 2nπ, n = 0, ± 1, ± 2, . . .
e−2y = 1,
π
y = 0,
x = + nπ, n = 0, ± 1, ± 2, . . . .
2
Es ist also
cos z = 0
⇔
π 3π 5π
z = ± ,± ,± ,....
2
2
2
Definition
Es sei n ∈ N0 . Ein komplexes Polynom n-ten Grades ist ein Ausdruck der Form
a n z n + a n − 1 z n − 1 + . . . + a1 z + a0 ,
wobei a0 , . . . , an konstante komplexe Zahlen sind und an 6= 0 ist.
61
2.2 Komplexe Zahlen
Satz (Fundamentalsatz der Algebra)
Es sei n ∈ N. Jedes komplexe Polynom n-ten Grades hat eine komplexe Nullstelle.
Korollar
Es sei n ∈ N. Jedes Polynom
z n + a n − 1 z n − 1 + . . . + a1 z + a0
n-ten Grades hat n komplexe Nullstellen z1 ,. . . ,zn (die nicht notwendigerweise
verschieden sind), und lässt sich daher als
zn + an−1 zn−1 + . . . + a1 z + a0 = (z − z1 )(z − z2 ) . . . (z − zn )
zerlegen, wobei wir ohne Beschränkung der Allgemeinheit an = 1 gesetzt haben.
Bemerkung
Falls die Koeffizienten a0 , . . . , an reell sind, kommen alle Nullstellen in konjugiert
komplexen Paaren vor (im Sonderfall können sie reell sein). Es sei nämlich z⋆ eine
Nullstelle. Dann gilt
a n ( z ⋆ ) n + a n − 1 ( z ⋆ ) n − 1 + . . . + a1 ( z ⋆ ) + a0 = 0
⇒ a n ( z ⋆ ) n + a n − 1 ( z ⋆ ) n − 1 + . . . + a1 ( z ⋆ ) + a0 = 0
⇒ ān (z̄⋆ )n + ān−1 (z̄⋆ )n−1 + . . . + ā1 z̄⋆ + ā0 = 0
⇒ an (z̄⋆ )n + an−1 (z̄⋆ )n−1 + . . . + a1 z̄⋆ + a0 = 0,
(da a0 , . . . , an reell sind)
so dass z̄⋆ ebenfalls eine Nullstelle ist.
Definition
Eine n-te Wurzel einer komplexen Zahl a ist eine Lösung der Gleichung
zn = a.
62
2.2 Komplexe Zahlen
Beispiel
Finden Sie alle fünften Einheitswurzeln und interpretieren Sie das Ergebnis geometrisch.
Lösung
Wir müssen alle Lösungen der Gleichung
z5 = 1
finden. Schreibe nun z = reiθ und bemerke, dass 1 = 1ei0 :
Im
|1| = 1
arg(1) = 0
1
Re
1
Daher gilt
z5 = 1
⇔ r5 e5iθ = 1ei0
⇔ r5 = 1,
5θ = 0 + 2nπ, n = 0, ± 1, ± 2, . . .
2nπ
, n = 0, ± 1, ± 2, . . . .
⇔ r = 1,
θ=
5
| {z }
Die fünf Werte dieses Ausdrucks in
4π
2π
4π
(−π,π ] sind 0, 2π
5 , 5 ,− 5 ,− 5
Die fünften Einheitswurzel sind also
ei0 ,
|{z}
=1
e
2πi
5
,
e
4πi
5
,
e−
2πi
5
,
e−
4πi
5
.
63
2.2 Komplexe Zahlen
Im
e
e
2πi
5
4πi
5
Die Wurzeln sind fünf gleichmäßig
verteilte Punkte auf einem Kreis mit
Mittelpunkt 0 und Radius 1.
2π
5
1
Re
Sie bilden die Eckpunkte eines
regelmäßigen Fünfecks.
e−
4πi
5
e−
2πi
5
Das folgende Lemma wird durch die Methode im obigen Beispiel bewiesen.
Lemma
Es sei n eine natürliche Zahl und a eine von Null verschiedene komplexe Zahl.
Dann hat a genau n verschiedene n-te Wurzeln.
Falls n ≥ 3 ist, so sind sie n gleichmäßig verteilte Punkte auf einem Kreis mit
Mittelpunkt 0 und Radius | a|1/n . Sie bilden somit ein regelmäßiges n-Eck.
Proposition
Es seien a, b, c konstante komplexe Zahlen mit a 6= 0. Das quadratische Polynom
az2 + bz + c
besitzt
genau die eine Nullstelle −b/(2a), falls b2 − 4ac = 0,
genau die zwei Nullstellen −b/(2a) + z1 , −b/(2a) + z2 wobei z1 , z2 die beiden Wurzeln aus (b2 − 4ac)/(4a2 ) sind, falls b2 − 4ac 6= 0.
64
2.2 Komplexe Zahlen
Beweis
Quadratische Ergänzung ergibt
b
az + bz + c = a z +
2a
2
2
−
b2
−c .
4a
Bemerkung
Da z2 = −z1 ist, missbrauchen wir oft die Notation und fassen die obige Proposition als
r
b
b2 − 4ac
z=− ±
2a
4a2
p
zusammen, wobei (b2 − 4ac)/4a2 entweder für z1 oder für z2 steht.
Beispiel
Finden Sie alle komplexen Nullstellen des Polynoms
z3 − 3z2 + 4z − 2.
Lösung
1 ist offenbar eine Nullstelle, so dass (z − 1) Faktor des Polynoms ist. Aus der
Rechnung
z2 − 2z + 2
z − 1 z3 − 3z2 + 4z − 2
z3 − z2
−2z2 + 4z − 2
−2z2 + 2z
2z − 2
2z − 2
0
65
2.2 Komplexe Zahlen
folgt
z3 − 3z2 + 4z − 2 = (z − 1)(z2 − 2z + 2).
Die Nullstellen des Polynoms
z2 − 2z + 2
finden wir mit Hilfe der Formel aus der letzten Proposition. Sie sind
r
√
2
4 − 4.1.2
±
= 1 ± −1 = 1 ± i.
2
4
Damit ist
z3 − 3z2 + 4z − 2 = (z − 1)(z − 1 − i)(z − 1 + i).
66
3 Vektorräume
3 Vektorräume
3.1 Einführung
Definition
Es sei (V,+ ) eine Abelsche Gruppe mit neutralem Element 0, so dass
(V1)
(u + v) + w = u + (v + w) ∀u, v, w ∈ V,
(V2)
v+w=w+v
∀v, w ∈ V,
(V3)
v+ 0 = 0+ v = v
∀v ∈ V,
(V4) Zu jedem v ∈ V existiert ein eindeutiges
Element − v ∈ V derart, dass
− v) = 0.
− v + v = v + (−
Nun sei (K, + ,·) ein Körper mit neutralen Elementen 0 und 1. Wir nennen V
einen Vektorraum über K, falls es eine Abbildung
mit den Eigenschaften
(S1)
(S2)
K × V → V,
(α, v) 7→ αv
(⋆)
(α + β)v = αv + βv ∀α, β ∈ K, v ∈ V
(α · β)v = α( βv)
∀v ∈ V
∀α, β ∈ K, v ∈ V
(S3)
1v = v
(S4)
α(v + w) = αv + αw
∀α ∈ K, v, w ∈ V.
Die Elemente von V und K heißen Vektoren bzw. Skalare, die Verknüpfung +
heißt Vektoraddition, und die Abbildung (⋆) heißt Skalarmultiplikation.
Ist K = R oder C, so bezeichnen wir V als reellen bzw. komplexen Vektorraum.
Proposition
Es sei V ein Vektorraum über einem Körper K. Dann gilt
0v = 0
und
für alle v ∈ V.
(−1)v = − v
67
3.1 Einführung
Beweis
Es gilt
0v = (0 + 0)v (Definition des additiven neutralen Elements in K)
= 0v + 0v (S1)
und folglich ist 0v = 0, denn das einzige Element x in der Gruppe (V,+ ) mit
x + x = x ist x = 0.
Ferner gilt
v + (−1)v = 1v + (−1)v (S3)
= (1 − 1 ) v
(S1)
= 0v
(Definition des additiven neutralen Elements in K)
= 0,
so dass
− v = (−1)v
(wegen der Eindeutigkeit der inversen Elemente in der Gruppe (V,+ )).
Bemerkung
In der Regel schreibt man + sowie − als + bzw. −, denn aus dem Kontext wird
klar, welche Verknüpfung gemeint ist. In den meisten Beispielen schreibt man die
Vektoren auch nicht fett.
Beispiele
1. Die Menge
R n = {x = ( x1 , . . . ,xn ) : x1 , . . . , xn ∈ R }
ist ein reeller Vektorraum mit punktweiser Vektoraddition
x + y : = ( x1 + y1 , . . . , x n + y n )
und Skalarmultiplikation
αx := (αx1 , . . . , αxn ).
In den Fällen n = 2 oder n = 3 lassen sich solche Vektoren als Pfeile in der
Ebene bzw. Raum veranschaulichen. Der Vektor x = ( x1 ,x2 ,x3 ) stellt dabei
eine Verschiebung um Distanz xi in Richtung i dar.
68
3.1 Einführung
x
x
0
0
y
x+y
Der Vektor x + y stellt eine
Verschiebung um Distanz
xi + yi in Richtung i dar.
y
3
x
2
x
0
0
0
− 32 x
Der Vektor αx stellt eine
Verschiebung um Distanz
αxi in Richtung i dar.
2. Es sei K ein Körper. Die Menge K n ist ein Vektorraum über K mit punktweiser Vektoraddition und Skalarmultiplikation.
3. Die Menge {0} (mit trivialer Vektoraddition und Skalarmultiplikation) ist
ein Vektorraum über jeden Körper.
4. Die Menge R m×n der (m × n) reellen Matrizen ist ein reeller Vektorraum
mit punktweiser Vektoraddition
(aij ) + (bij ) := (aij + bij ),
d.h.

 

a11 a12 · · · a1n
b11 b12 · · · b1n
 a a22 · · · a2n   b b22 · · · b2n 
 21
  21

 ..
..
..  +  ..
..
.. 
 .


.
.
.
.
. 
am1 am2 · · · amn
bm1 bm2 · · · bmn


a11 + b11 a12 + b12 · · · a1n + b1n
 a21 + b21 a22 + b22 · · · a2n + b2n 


:= 

..
..
..


.
.
.
am1 + bm1 am2 + bm2 · · · amn + bmn
und Skalarmultiplikation
α(aij ) = (αaij ),
69
3.1 Einführung
d.h.




a11 a12 · · · a1n
αa11 αa12 · · · αa1n
 a a22 · · · a2n 
 αa αa22 · · · αa2n 
 21

 21

α  ..
:
=
 ..
..
.. 
..
..  .
 .
 .
.
. 
.
. 
am1 am2 · · · amn
αam1 αam2 · · · αamn
5. Die Menge K m×n der (m × n) Matrizen mit Einträgen aus einem Körper K
ist ein Vektorraum über K mit punktweiser Vektoraddition und Skalarmultiplikation.
6. Die Menge aller Funktionen f : R → R ( f : C → C) ist ein reeller (komplexer)
Vektorraum mit punktweiser Vektoraddition
( f + g)( x ) := f ( x ) + g( x ),
x ∈ R (C )
und Skalarmultiplikation
(α f )( x ) := α f ( x ),
x ∈ R (C ).
Definition
Es sei V ein Vektorraum über einem Körper K. Eine Teilmenge W von V heißt
Unterraum von V, falls W ein Vektorraum über demselben Körper K ist.
Bemerkung
W 6= ∅ ist ein Unterraum von V genau dann, wenn
(i) W abgeschlossen bezüglich Skalarmultiplikation ist, d.h. αw ∈ W für alle w ∈
W und α ∈ K.
(ii) W abgeschlossen bezüglich Vektoraddition ist, d.h. w1 + w2 ∈ W für alle w1 ,
w2 ∈ W,
((i) impliziert 0 ∈ W und −w ∈ W für alle w ∈ W, so dass aus (i), (ii) folgt, dass
(W,+) eine Abelsche Gruppe ist.)
70
3.1 Einführung
Beispiele
1. Es seien K ein Körper, n eine natürliche Zahl und λ1 , . . . , λn feste Zahlen in
K, die nicht alle verschwinden. Die Hyperebene
E = {k = (k1 , . . . ,kn ) : λ1 k1 + · · · + λn k1 = 0},
die offentsichlich 0 enthält, ist ein Unterraum von K n :
Es seien k = (k1 , . . . ,kn ) ∈ E, so dass λ1 k1 + · · · + λn kn = 0, und α ∈ K.
Dann erfüllt αk = (αk1 , . . . , αkn ) die Gleichung
λ1 (αk1 ) + · · · + λn (αkn ) = 0,
so dass αk ∈ E.
Es seien k = (k1 , . . . ,kn ), ℓ = (ℓ1 , . . . ,ℓn ) ∈ E, so dass λ1 k1 + · · · + λn k1 = 0
und λ1 ℓ1 + · · · + λn ℓn = 0. Dann erfüllt k + ℓ = (k1 + ℓ1 , . . . , kn + ℓn ) die
Gleichung
λ1 (k1 + ℓ1 ) + · · · + λn (kn + ℓn ) = 0,
so dass k + ℓ ∈ E.
Nun sei K = R.
y
Im Falle n = 2 ist
E
x
E = {( x,y) ∈ R2 : λ1 x + λ2 y = 0}
eine Gerade durch den Nullpunkt.
z
Im Falle n = 3 ist
E
y
E = {( x,y,z) ∈ R3 : λ1 x + λ2 y + λ3 z = 0}
eine Ebene durch den Nullpunkt.
x
71
3.1 Einführung
2. Es sei F (R ) der reelle Vektorraum aller Funktionen R → R. Die Menge
P(R ) = {αn x n + αn−1 x n−1 + · · · + α1 x + α0 : n ∈ N0 , α0 , . . . ,αn ∈ R }
aller reellen Polynome ist ein Unterraum vom F (R ).
3. Es sei n ∈ N0 . Die Menge
Pn (R ) = {αn x n + αn−1 x n−1 + · · · + α1 x + α0 : α0 , . . . ,αn ∈ R }
aller reellen Polynome mit Grad kleiner gleich n ist ein Unterraum von
P(R ).
Proposition
Es seien V ein Vektorraum über einem Körper K und {Wi }i ∈ I eine Familie von
T
Unterräumen von V. Dann ist W := Wi ein Unterraum von V.
i∈ I
Beweis
Da 0 ∈ Wi für alle i ∈ I ist, ist 0 ∈
T
i∈ I
Wi = W.
Es seien w ∈ W und α ∈ K. Aus w ∈
T
i∈ I
Wi folgt w ∈ Wi für alle i ∈ I. Da Wi ein
Unterraum von V ist, gilt αw ∈ Wi für alle i ∈ I und daher w ∈
Es seien w1 , w2 ∈ W. Aus w1 , w2 ∈
ein Unterraum von V ist, gilt
T
Wi = W.
i∈ I
T
T
i∈ I
Wi = W.
Wi folgt w1 , w2 ∈ Wi für alle i ∈ I. Da Wi
i∈ I
w1 + w2
∈ Wi für alle i ∈ I und daher w1 + w2 ∈
Bemerkung
Im Allgemeinen ist die Vereinigungsmenge zweier Unterräume eines Vektorraums
selbst kein Unterraum.
72
3.2 Elementare Vektorraumtheorie
y
E2
Die Mengen E1 = {( x,0) : x ∈ R }
und E2 = {(0,y) : y ∈ R } sind Unterräume von R2 .
(1,1)
E1 x
Es gilt (1,0) ∈ E1 , (0,1) ∈ E2 aber
(1,1) = (1,0) + (0,1) 6∈ E1 ∪ E2 .
Bemerkung
In der linearen Algebra ist es üblich, die n-Tupel (k1 , . . . , kn ) der Vektorräume K n
eher als Spaltenvektoren
 
k1
 .. 
.
kn
zu schreiben, und wir werden nun in diese Praxis übergehen.
3.2 Elementare Vektorraumtheorie
Definition
Es seien V ein Vektorrraum über einem Körper K und v1 , v2 , . . . , vn Vektoren aus
V. Eine lineare Kombination von v1 , v2 , . . . , vn ist ein Vektor der Form
k 1 v1 + k 2 v2 + . . . k n v n ,
wobei k1 , k2 , . . . , kn Skalare sind.
Beispiele
R2
1
1
und
eine lineare Kombination der Vektoren
ist der Vektor
0
1
1. In
0
in R2 , denn
1
0
1
1
.
+1
=1
1
0
1
73
3.2 Elementare Vektorraumtheorie
2. In P(R ) ist das Polynom x4 + x2 + 2 eine lineare Kombination der Polynome x4 + 21 x2 , x2 + 1 und 1, denn
x4 + x2 + 2 = 1( x4 + 21 x2 ) + 12 ( x2 + 1) + 21 (1).
Definition
Es seien V ein Vektorrraum über einem Körper K und v1 , v2 , . . . , vn Vektoren aus
V. Das Erzeugnis dieser Vektoren ist die Menge
h v1 , . . . , v n i = { k 1 v1 + k 2 v2 + · · · k n v n : k 1 , k 2 , . . . , k n ∈ K }
aller möglichen liearen Kombinationen von v1 , v2 , . . . , vn .
Beispiel
1. In P(R ) ist
h1, x, x2 i = {α0 + α1 x + α2 x2 : α0 , α1 , α2 ∈ R } = P2 (R ).
2. Es seien v1 , v2 6= 0 zwei nichtparallelen Vektoren in R3 (d.h. es gibt kein
λ ∈ R derart, dass v2 = λv1 ). Dann ist
h v1 , v2 i = { x ∈ R 3 = α 1 v2 + α 2 v2 : α 1 , α 2 ∈ R }
eine Ebene durch den Nullpunkt:
v2
v1
0
Bemerkung
In der Regel definieren wir h∅i = {0}.
74
3.2 Elementare Vektorraumtheorie
Proposition
Es seien V ein Vektorrraum über einem Körper K und v1 , v2 , . . . , vn Vektoren aus
V. Das Ergeuznis von v1 , . . . , vn ist ein Unterraum von V.
Beweis
Offensichtlich ist 0 ∈ hv1 , . . . , vn i.
Es seien α ∈ K und v ∈ hv1 , . . . , vn i, so dass es k1 , . . . , kn ∈ K mit
v = k 1 v1 + · · · + k n v n
gibt. Dann ist aber
αv = αk1 v1 + · · · + αkn vn ∈ hv1 , . . . , vn i.
Es seien v, w ∈ hv1 , . . . , vn i, so dass es k1 , . . . , kn , ℓ1 , . . . , ℓn ∈ K mit
v = k 1 v1 + · · · + k n v n ,
w = ℓ1 v 1 + · · · + ℓ n v n
gibt. Dann ist aber
v + w = ( k 1 + ℓ1 ) v 1 + · · · + ( k n + ℓ n ) v n ∈ h v 1 , . . . , v n i.
Definition
Ein Vektorraum V heißt endlichdimensional, falls es eine endliche Teilmenge S
von V gibt, so dass hSi = V. Ansonsten ist er unendlichdimensional.
Beispiele
1. Der Vektorraum R2 ist endlichdimensional, denn
α1
2
: α1 , α2 ∈ R
R =
α2
1
0
+ α2
: α1 , α2 ∈ R
= α1
0
1
0
1
.
,
=
1
0
75
3.2 Elementare Vektorraumtheorie
2. Der Vektorraum P(R ) ist unendlichdimensional. Es sei nämlich S eine nichtleere endliche Teilmenge von P(R ). Setze m = max{deg p : p ∈ S}. Dann ist
x m+1 6∈ hSi, so dass P(R ) 6= hSi.
3. Der Vektorraum {0} (über einen beliebigen Körper) ist endlichdimensional,
denn {0} = h∅i.
Definition
Es seien V ein Vektorrraum über einem Körper K. Die Vektoren v1 , v2 , . . . , vn aus
V heißt linear unabhängig, falls
α1 v1 + · · · + α n v n = 0
⇒
α1 = 0, . . . , αn = 0.
Ansonsten ist sie linear abhängig.
Bemerkung
Betrachten wir
α1 v1 + · · · + α n v n = 0
als Gleichung für α1 , . . . , αn , so ist α1 = 0, . . . , αn = 0 immer eine Lösung. Dass v1 ,
. . . , vn linear unabhängig sind, ist die Aussage, dass dies die einzige Lösung ist.
Beispiele
     
1
0
0
3





0
1
1. In R sind die Vektoren
,
, 1 linear unabhängig, denn aus
0
0
0
 
 
   
0
1
0
0







α1 0 + α2 1 + α3 1 = 0
0
0
0
0
{z
}
|
 
α1

= α2 
α3
folgt α1 = 0, α2 = 0, α3 = 0.
76
3.2 Elementare Vektorraumtheorie
   
1
1
2. In R3 sind die Vektoren 1, −1, ebenfalls linear unabhängig, denn
0
0
aus
 
   
1
1
0
α 1  1  + α 2  − 1  =  0
0
0
0
|
 {z
 }
α1 + α2
=  α1 − α2 
0
folgt α1 + α2 = 0, α1 − α2 = 0 und daher α1 = 0, α2 = 0.
3. In F (R ) sind die Funktionen sin(·) und cos(·) linear unabhängig, denn aus
α1 sin x + α2 cos x = 0,
für alle x ∈ R
folgt mit x = π2 , dass α1 = 0 und mit x = 0, dass α2 = 0.
4. In
R2
0
1
1
in R2 linear abhängig, denn
,
,
sind die Vektoren
1
0
1
0
0
1
1
.
=
−1
−1
1
0
1
0
1
5. In P(R ) sind die Polynome x4 + x2 + 2, x4 + 12 x2 , x2 + 1, 1 linear abhängig,
denn
1( x4 + x2 + 2) − 1( x4 + 12 x2 ) − 21 ( x2 + 1) − 12 (1) = 0.
6. In einem beliebigen Vektorraum ist {0} immer eine linear abhängige Menge, denn
α0 = 0
für alle Skalare α, insbesondere für α = 1.
Bemerkung
In der Regel betrachten wir ∅ als linear unabhängig.
Proposition
Es sei V ein Vektorraum. Die Vektoren v1 , . . . , vn sind genau dann linear unabhängig, wenn sich kein Vektor vi als lineare Kombination der Vektoren v1 , . . . ,
vi −1 schreiben lässt.
77
3.2 Elementare Vektorraumtheorie
Beweis
Ist vi darstellbar als lineare Kombination der Vektoren v1 , . . . , vi −1 , so gibt es
Skalare k1 , . . . , ki −1 derart, dass
vi = k 1 v1 + · · · + k i −1 vi −1 .
Folglich ist
k1 v1 + · · · + ki −1 vi −1 − vi + 0vi +1 + · · · + 0vn = 0,
so dass v1 , . . . vn linear abhängig sind.
Nun sei v1 , . . . vn linear abhängig. Dann gibt es Skalare k1 , . . . , kn , die nicht
alle veschwinden, so dass
k1 v1 + · · · + kn vn = 0.
Nun sei i = max{ j : k j 6= 0} (so dass k j+1 , . . . , kn = 0). Dann gilt
vi = −
k
k1
v1 − · · · − i −1 vi −1 ,
ki
ki
so dass sich vi als lineare Kombination der Vektoren v1 , . . . , vi −1 schreiben
lässt.
Bemerkung
Ebenfalls sind {v1 , . . . ,vn } genau dann linear unabhängig, wenn sich kein Vektor
vi als lineare Kombination der anderen Vektoren v1 , . . . , vi −1 , vi +1 , . . . , vn schreiben lässt.
Proposition
Es seien V ein Vektorraum, v1 , . . . , vn linear unabhängige Vektoren und
v ∈ hv1 , . . . , vn i. Dann sind die Koeffizienten α1 , . . . , αn in der Formel
v = α1 v1 + · · · + α n v n
eindeutig bestimmt.
78
3.2 Elementare Vektorraumtheorie
Beweis
Es seien k1 , . . . , kn und ℓ1 , . . . ℓn Skalare mit
Folglich gilt
v = k 1 v1 + · · · k n v n ,
v = ℓ1 v 1 + · · · + ℓ n v n .
(k1 − ℓ1 )v1 + · · · + (kn − ℓn )vn = 0,
so dass k1 − ℓ1 = 0, . . . , kn − ℓn = 0, d.h. k1 = ℓ1 , . . . , kn = ℓn .
Nun beschränken wir uns auf endlichdimensionale Vektorräume.
Definition
Es sei V ein endlichdimensionaler Vektorraum. Die Menge {v1 , . . . , vn } heißt Basis
für V, falls v1 , . . . , vn linear unabhängig sind und hv1 , . . . , vn i = V ist.
Beispiele
1. Es sei K ein Körper. Die Menge {e1 , . . . en } mit
 
0
 .. 
.
 
 0
 
ej = 1 ← j-te Komponente
 
 0
.
 .. 
0
ist die kanonische Basis für K n .
2. Die Menge {1, x, . . . , x n } ist die kanonische Basis für Pn (R ).
3. Es sei K ein Körper. Die Menge { Eij : i = 1, . . . ,m, j = 1, . . . ,n} mit


0 0 ... 0
0 1 . . . 0 ← i-te Zeile


Eij =  .. ..
.. 
. .
.
0 0 ... 0
↑
j-te Spalte
ist die kanonische Basis für K m×n .
79
3.2 Elementare Vektorraumtheorie
Bemerkung
Es sei {v1 , . . . , vn } eine Basis für einen endlichdimensionalen Vektorraum V. Dann
hat jeder Vektor v ∈ V eine eindeutige Darstellung
v = α1 v1 + · · · + α n v n
als lineare Kombination von v1 , . . . , vn .
Nun zeigen wir, dass jeder endlichdimensionale Vektorraum eine Basis hat.
Lemma
1. Eine nichtleere endliche Teilmenge {v1 , . . . ,vn } eines endlichdimensionalen
Vektorraums V ist genau dann eine Basis, wenn sie eine maximale linear
unbhängige Menge ist (d.h. keine echte Obermenge von {v1 , . . . ,vn } ist linear unabhängig).
2. Eine nichtleere endliche Teilmenge {v1 , . . . ,vn } eines endlichdimensionalen
Vektorraums V ist genau dann eine Basis, wenn sie eine minimale erzeugende Menge für V ist (d.h. keine echte Teilmenge von {v1 , . . . ,vn } erzeugt
V).
Satz
Es sei V ein endlichdimensionaler Vektorraum. Dann hat V eine Basis.
Beweis
Es sei E0 eine endliche erzeugende Menge für V. Ist E0 minimal, so ist sie eine
Basis für V. Ansonsten gibt es v0 ∈ E0 derart, dass E1 := E0 \ {v0 } eine erzeugende
Menge für V ist.
Nun fahren wir iterativ fort. Ist E j eine erzeugende Menge für V, so ist E j eine Basis für V. Ansonsten gibt es v j ∈ E j derart, dass E j+1 := E j \ {v j } eine erzeugende
Menge für V ist.
Da E0 endlich ist, liefert dieses Verfahren nach endlich vielen Schritten eine minimale erzeugende Menge für V.
80
3.2 Elementare Vektorraumtheorie
Bemerkung
Die Basis eines nichttrivialen endlichdimensionalen Vektorraums V ist nicht eindeutig: Es sei {v1 , . . . , vn } eine Basis für V. Dann ist {v1 − v2 ,v2 − v3 , . . . ,vn−1 −
vn ,2vn } ebenfalls eine Basis für V (vergleiche Übungsblatt 5, Aufgabe 2).
Nun zeigen wir, dass alle Basen eines endlichdimensionalen Vektorraumes zumindest gleich viele Elemente haben.
Lemma (Steinitzscher Austauschsatz)
Es seien V ein endlichdimensionaler Vektorraum, S = {v1 , . . . ,vn } eine erzeugende Menge für V und T = {w1 , . . . ,wm } linear unabhängig. Dann ist m ≤ n.
Beweis
Da hSi = V ist, lässt sich w1 als lineare Kombination von v1 , . . . , vn schreiben.
Die Menge
{w1 ,v1 , . . . , vn }
ist also linear abhängig. Folglich gibt es einen Vektor in der Folge w1 , v1 , . . . ,
vn , die sich als lineare Kombination der vorigen schreiben lässt. Dieses Element ist v j1 für irgendein j1 . Die Menge
S1 = {w1 ,v1 , . . . ,v j1 −1 ,v j1 +1 , . . . ,vn }
ist auch eine erzeugende Menge. Wir haben v j1 durch w1 ausgetauscht.
Da hS1 i = V ist, lässt sich w2 als lineare Kombination von w1 , v1 , . . . , v j1 −1 ,
v j1 +1 , . . . , vn schreiben. Die Menge
{w1 ,w2 ,v1 , . . . ,v j1 −1 ,v j1 +1 , . . . ,vn }
ist also linear abhängig. Folglich gibt es einen Vektor in der Folge w1 , w2 , v1 ,
. . . , v j1 −1 , v j1 +1 , . . . , vn , die sich als lineare Kombination der vorigen schreiben
lässt. Dieses Element ist v j2 für irgendein j2 . Die Menge
S1 = {w1 ,w2 ,v1 , . . . ,v j1 −1 ,v j1 +1 , . . . ,v j2 −1 ,v j2 +1 , . . . ,vn }
ist auch eine erzeugende Menge. Wir haben v j2 durch w2 ausgetauscht.
Nun fahren wir iterative fort. Wir können v j1 , . . . , v jm durch w1 , . . . , wm austauschen. Insbesondere gilt n ≥ m.
81
3.2 Elementare Vektorraumtheorie
Satz
Alle Basen eines endlichdimensionalen Vektorraumes haben gleich viele Elemente.
Definition
Die Dimension eines nichttrivialen endlichdimensionalen Vektorraums V ist die
Anzahl der Elemente in einer Basis und wird als dim V geschrieben.
Bemerkung
Da ∅ eine Basis für den trivialen Vektorraum {0} ist, ist dim{0} = 0.
Beispiele
1. dim K n = n für einen beliebigen Körper K.
2. dim Pn (R ) = n + 1.
3. dim K m×n = mn für einen beliebigen Körper K.
Korollar
Es sei V ein endlichdimensionaler Vektorraum mit dim V = n.
1. Jede linear unabhängige endliche Teilmenge von V hat höchstens n Elemente. Hat sie genau n Elemente, so ist sie eine Basis für V.
2. Jede erzeugende endliche Teilmenge von V hat mindestens n Elemente. Hat
sie genau n Elemente, so ist sie eine Basis für V.
Verallgemeineren wir unsere Grundbegriffe, so können wir beweisen, dass auch
jeder unendlichdimensionale Vektorraum eine Basis hat.
82
3.2 Elementare Vektorraumtheorie
Definitionen
Es sei V einen Vektorraum über einem Körper K.
1. Das Erzeugnis einer nTeilmenge S von V ist die Menge
hV i := {k1 v1 + · · · + kn vn : n ∈ N, v1 , . . . , vn ∈ V }
aller linearen Kombinationen von Elementen aus S.
2. Die Teilmenge T von V heißt linear unabhängig, falls
k 1 v1 + · · · + k n v n = 0
⇒
α1 = 0, . . . , αn = 0
für alle endlichen Teilmengen {v1 , . . . ,vn } von T.
3. Eine Teilmenge B von V heißt Basis für V, falls sie linear unabhängig ist
und h Bi = V.
Beispiel
{ x n : n ∈ N0 } ist eine Basis für P(R ).
Bemerkungen
Es sei V einen Vektorraum über einem Körper K.
1. Eine nichtleere Teilmenge T von V ist genau dann eine Basis, wenn sie eine
maximale lineare unabhängige Menge ist.
2. Eine nichtleere Teilmenge S von V ist genau dann eine Basis, wenn sie eine
minimale erzeugende Menge für V ist.
3. Es sei B eine Basis für V. Jeder Vektor in V hat eine endeutige Darstellung
als lineare Kombination von Vektoren aus V.
Satz
Jeder Vektorraum V hat eine Basis.
83
3.3 Basisergänzung und Unterräume
Beweis
Ohne Beschränkung der Allgemeinheit können wir annehmen, dass V 6= {0} ist.
Es sei P die Menge aller linear unabhängigen Teilmengen von V. Die Relation
AB
⇔
A⊆B
definiert eine partielle Ordnung auf P . Beachte, dass P nicht leer ist, denn jede
einelementige Menge {v}, v ∈ V \ {0} in P liegt.
Nun sei T eine total geordnete Teilmenge von P . Dann ist
gig:
Es seien v1 , . . . , vk ∈
S
X ∈T
S
X linear unabhän-
X ∈T
X. Dann gibt es X1 , . . . , Xk ∈ T mit v1 ∈ X1 , . . . ,
vk ∈ Xk . Es sei Xℓ der größte der Mengen X1 , . . . , Xk . Dann liegen v1 , . . . , vk
alle in Xℓ und sind daher linear unabhängig.
S
X ∈T
X ist also eine obere Schranke für T .
Dem Lemma von Zorn zufolge hat P ein maximales Element. Dies ist aber eine
Basis für V.
3.3 Basisergänzung und Unterräume
Lemma
Es sei V ein endlichdimensionaler Vektorraum. Jeder Unterraum W von V ist
endlichdimensional und dim W ≤ dim V.
Ferner gilt dim W = dim V genau dann, wenn W = V.
Beweis
Es sei n = dim V.
Es seien v1 , . . . , vm linear unabhängige Vektoren von W und daher von V. Es
gilt also m ≤ n. Folglich gibt es einen größten Wert m⋆ von m, für den man m
84
3.3 Basisergänzung und Unterräume
linear unabhängige Vektoren in W finden kann. Diese m⋆ Vektoren bilden also
eine maximale linear unabhängige Teilmenge von W und somit eine Basis für W.
Es ist also dim W = m⋆ ≤ n.
Ist m⋆ = n, so ist {v1 , . . . ,vm⋆ } eine Basis für V. Somit ist V = hv1 , . . . ,vm⋆ i =
W.
Aus W = V folgt trivialerweise m⋆ = n.
Beispiel
Die echten Unterräume von R3 haben Dimension 1 oder 2.
Die Unterräume von Dimension 1 sind als hvi für einen nichttrivialen Vektor
v gegeben. Sie sind Gerade durch den Nullpunkt.
v
0
Die Unterräume von Dimension 2 sind als hv1 , v2 i für zwei linear unabhängige Vektoren v1 , v2 gegeben. Sie sind Ebene durch den Nullpunkt.
v2
v1
0
85
3.3 Basisergänzung und Unterräume
Lemma (Basisergänzungssatz)
Es seien V ein endlichdimensionaler Vektorraum mit dim V = n, W ein Unterraum von V und {v1 , . . . ,vm } eine Basis für W. Dann gibt es Vektoren vm+1 , . . . ,
vn ∈ V \ W, so dass {v1 , . . . , vn } eine Basis für V ist.
Beweis
T := {v1 , . . . ,vm } ist eine linear unabhängige Teilmenge von V. Falls m < n ist,
ist sie keine Basis für V und daher nicht maximal. Folglich gibt es vm+1 ∈ V,
so dass T1 := {v1 , . . . ,vm+1 } linear unabhängig ist. Wir bemerken, dass wm+1
keine lineare Kombination von v1 , . . . , vm ist, d.h. wm+1 6∈ hT i = W.
Nun fahren wir iterativ fort. Tj := {v1 , . . . ,vm+ j } ist eine linear unabhängige
Teilmenge von V. Falls m + j < n ist, ist sie keine Basis für V und daher nicht
maximal. Folglich gibt es vm+ j+1 ∈ V, so dass Tj+1 := {v1 , . . . ,vm+ j+1 } linear
unabhängig ist. Wir bemerken, dass wm+1+ j keine lineare Kombination von
v1 , . . . , vm+ j ist, d.h. wm+ J 6∈ hTj i ⊇ W.
Die Menge Tn−m = {v1 , . . . ,vn } ist linear unabhängig und daher eine Basis für
V.
Es seien W1 , W2 Unterräume eines endlichdimensionalen Vektorraums V, so dass
W1 ∩ W2 ebenfalls ein (endlichdimensionaler) Unterraum von V ist. Nun stellen
wir die Frage: Was ist dim(W1 ∩ W2 )?
Beispiel
Es seien W1 und W2 eine Gerade bzw. eine Ebene durch den Nullpunkt in R3 .
86
3.3 Basisergänzung und Unterräume
W1
W1
W2
Liegt die Gerade W1 in der Ebene W2 ,
so ist
W2
Schneidet die Gerade W1 die Ebene W2
nur in den Nullpunkt, so ist
dim(W1 ∩ W2 ) = dim W1 = 1.
dim(W1 ∩ W2 ) = dim{0} = 0.
Die Dimension von W1 ∩ W2 hängt also nicht nur von dim W1 und dim W2 ab.
Definition
Es seien W1 , W2 Unterräume eines Vektorraums V. Die Summe von W1 und W2
ist die Teilmenge
W1 + W2 := {w1 + w2 : w1 ∈ W1 , w2 ∈ W2 }
von V.
Proposition
Die Summe zweier Unterräume eines Vektorraums V ist ebenfalls ein Unterraum
von V.
Satz (Dimensionsformel für Vektorräume)
Es seien W1 , W2 Unterräume eines endlichdimensionalen Vektorraums V. Dann
gilt
dim(W1 ∩ W2 ) + dim(W1 + W2 ) = dim W1 + dim W1 .
87
3.3 Basisergänzung und Unterräume
Beweis
Zunächst bemerken wir, dass W1 ∩ W2 ein Unterraum von W1 sowie ein Unterraum von W2 ist. Es sei {v1 , . . . , vr } eine Basis für W1 ∩ W2 . Wir ergänzen dies zu
einer Basis {v1 , . . . , vr , w1 , . . . , ws } für W1 sowie zu einer Basis {v1 , . . . ,vr ,z1 , . . . , vt }
für W2 .
Dann ist {v1 , . . . , vr , w1 , . . . ,ws ,z1 , . . . , zt } eine Basis für W1 + W2 :
Es gilt
hv1 , . . . , vr , w1 , . . . ,ws ,z1 , . . . , zt i = hv1 , . . . , vr , w1 , . . . , ws i + hz1 , . . . , zt i = W1 + W2 .
Es seien α1 , . . . , αr , β 1 , . . . β s , γ1 , . . . , γt Skalare mit
α1 v1 + · · · + αr vr + β 1 w1 + · · · + β s ws + γ1 z1 + · · · + γt zt = 0.
(⋆)
Offensichtlich ist γ1 z1 + · · · + γt zt ∈ W2 , und aus
γ1 z 1 + · · · + γ t z t − α 1 v 1 − · · · − α r v r − β 1 w 1 − · · · − β s w s = 0
folgt γ1 z1 + · · · + γt zt ∈ W1 . Somit liegt γ1 z1 + · · · + γt zt in W1 ∩ W2 und lässt
sich daher als lineare Kombination
γ1 z 1 + · · · + γ t z t = λ 1 v 1 + · · · + λ r v r
von v1 , . . . , vn schreiben. Aus
γ1 z 1 + · · · + γ t z t − λ 1 v 1 − · · · − λ r v r = 0
und der linearen Unabhängigkeit von v1 , . . . , vr , z1 , . . . , zt folgt nun γ1 = 0,
. . . , γt = 0 (und auch λ1 = 0, . . . , λr = 0). Schließlich impliziert (⋆) wegen der
linearen Unabhängigkeit von v1 , . . . , vr , w1 , . . . , vs , dass α1 = 0, . . . , αr = 0,
β 1 = 0, . . . , β s = 0.
Die Vektoren v1 , . . . , vr , w1 , . . . ,ws ,z1 , . . . , zt sind also linear unabhängig.
Somit ist
dim(W1 + W2 )
=r+s+t
= dim(W1 ∩ W2 ) + (dim W1 − dim(W1 ∩ W2 )) + (dim W2 − dim(W1 ∩ W2 ))
= dim W1 + dim W2 − dim(W1 ∩ W2 ).
88
3.3 Basisergänzung und Unterräume
Definition
Es seien W1 , W2 Unterräume eines Vektorraums V. Die Summe von W1 und W2
heißt direkte Summe von W1 und W2 , falls sich jedes w ∈ W1 + W2 eine eindeutige
Darstellung
w = w1 + w2 ,
w1 ∈ W1 , w2 ∈ W2
hat. In diesem Fall schreiben wir die Summe als W1 ⊕ W2 .
Lemma
Es seien W1 , W2 Unterräume eines Vektorraums V. Die Summe von W1 und W2
ist eine direkte Sume genau dann, wenn W1 ∩ W2 = {0} ist.
Beweis
Sei die Summe von W1 und W2 direkt. Wähle w ∈ W1 ∩ W2 . Dann können wir
w
0 = |{z}
0 + |{z}
w = |{z}
w + |{z}
∈ W1 ∈ W2 ∈ W1 ∈ W2
schreiben, und wegen der Eindeutigkeit der Darstellung ist w = 0.
Nun sei W1 ∩ W2 = {0}. Sei v ∈ V darstellbar als v = y1 + y2 und v = z1 + z2
mit y1 , z1 ∈ W1 und y2 , z2 ∈ W2 . Dann ist
y 1 + y 2 = z1 + z2
⇒
y −z =z −y ,
| 1 {z }1 |2 {z }2
∈ W1
∈ W2
Somit liegen y1 − z1 und z2 − y2 in W1 ∩ W2 und sind daher beide gleich Null.
Es ist also y1 = z1 , y2 = z2 und die Darstellung von v ist eindeutig, d.h. die
Summe ist direkt.
Bemerkungen
dim(W1 ⊕ W2 ) = dim W1 + dim W2
B ist eine Basis für W1 ⊕ W2 genau dann, wenn sie idie Vereinigung einer
Basis B1 für W1 mit einer Basis B2 für W2 ist.
89
3.3 Basisergänzung und Unterräume
Definition
Es sei V ein Vektorraum. Zwei echte Unterräume W1 und W2 heißen komplementär, falls V = W1 ⊕ W2 ist.
Lemma
Es sei V ein endlichdimensionaler Vektorraum. Jeder echter Unterraum W1 von
V hat ein Komplement.
Beweis
Es sei {v1 , . . . ,vm } eine Basis für W1 . Dies ergänzen wir zu eine Basis {v1 , . . . ,vn }
für V. Wir bemerken, dass W1 = hv1 , . . . ,vm i und setzen W2 = hvm+1 , . . . ,vn i.
Offensichtlich ist
W = hv1 , . . . , vn i = hv1 , . . . ,vm i + hvm+1 , . . . , vn i = W1 + W2 .
Es sei v ∈ W1 ∩ W2 . Es gibt Skalare α1 , . . . , αm und αm+1 , . . . , αm , so dass
v = α1 v1 + · · · + α m v m ,
v = α m+1 v m+1 + · · · + α n v n .
Folglich ist
α1 v1 + · · · + αm vm − αm+1 vm+1 − · · · − αn vn = 0,
und die lineare Unabhängigkeit von v1 , . . . , vn impliziert α1 = 0, . . . , αn = 0.
Es ist also v = 0. Somit ist W1 ∩ W2 = {0}.
Bemerkung
Das Komplement eines echten Unterraums eines endlichdimensionalen Vektorraums ist nicht eindeuitg. Die ‘horizontale’ Gerade E1 = he1 i in R2 wird bspw.
von jeder anderen Geraden E2 = hvi (wobei v und e1 linear unabhängig sind)
komplementiert.
90
3.3 Basisergänzung und Unterräume
E2
Es gilt
v
e1
E1
R2 = E1 ⊕ E2
mit E1 = he1 i, E2 = hvi, wobei v
nicht parallel zu e1 ist.
Definition
Es seien U ein Unterraum eines Vektorraums V und v ∈ V. Die Menge
v + U := {v + u : u ∈ U }
heißt Nebenklasse von U durch v. Der Vektor v heißt Repräsentant der Nebenklasse v + U.
Beispiel
Es sei E eine Gerade durch den Nullpunkt im R2 . Die Nebenklasse x + E ist die
Gerade, die parallel zu E ist und den Punkt x enthält. Die Nebenklassen zu E
bilden eine Partition des R2 .
x+ E = y + E
E
x
0
y
Mit Hilfe dieser Abbildung können wir Nebenklassen in einem beliebigen Vektorraum visualisieren.
91
3.3 Basisergänzung und Unterräume
Proposition
Es seien U ein Unterraum eines Vektorraums V. Die Nebenklassen x + U und
y + U sind genau dann gleich, wenn x − y ∈ U ist.
Beweis
Es gelte x + U = y + U. Dann ist x = x + 0 ∈ x + U = y + U. Es gibt also u0 ∈ U
mit x = y + u0 . Somit ist x − y = u0 ∈ U.
Nun sei x − y ∈ U. Es gibt also u0 ∈ U derart, dass x − y = u0 und folglich
x = y + u0 ∈ y + U. Somit gilt
x + U = { x + u : u ∈ U } = {y + u0 + u : u ∈ U } = {y + w : w ∈ U } = y + U,
denn {u0 + u : u ∈ U } = U.
Korollar
Es sei U ein Unterraum eines Vektorraums V.
1. Die Repräsentanten einer Nebenklasse von U sind genau die Elemente dieser Nebenklasse.
2. Die Nebenklassen bilden eine Partition von V.
Beweis
1.
Es sei y ∈ x + U. Somit ist y = x + u0 für irgendein u0 ∈ U. Aus y − x =
u0 ∈ U folgt y + U = x + U, d.h. y ist ein Repräsentant von x + U.
Ist dagegen y ein Repräsentant von x + U, d.h. y + U = x + U, so ist
y − x ∈ U. Folglich gibt es u0 derart, dass y − x = u0 . Folglich ist y =
x + u0 ∈ x + U.
2. Auf der einen Seite sind je zwei Nebenklassen x + U, y + U entweder gleich
oder disjunkt, denn aus z ∈ ( x + U ) ∩ (y + U ) folgt z = x + u0 = y + u1 für
irgendwelche u0 , u1 ∈ U und daher x − y = u1 − u0 ∈ U, so dass x + U =
y + U.
92
3.3 Basisergänzung und Unterräume
Auf der anderen Seite ist
S
x ∈V
jedes x ∈ U.
(x + U ) ⊇
S
x ∈V
{ x } = V, denn x ∈ x + U für
Bemerkung
Es sei U ein Unterraum eines Vektorraums V. Die Relation
x∼y
⇔
x+U =y+U
ist eine Äquivalenzrelation auf W.
Lemma
Es seien V ein Vektorraum über einem Körper K und U ein Unterraum von V.
Die Menge
V/U := { x + U : x ∈ V }
aller Nebenklassen von U ist ein Vektorraum über K (der Quotientenraum) bezüglich der Vektoraddition
( x + U ) + (y + U ) := ( x + y) + U
und Skalarmultiplikation
α( x + U ) := αx + U.
Lemma
Es sei U ein Unterraum eines endlichdimensionalen Vektorraums V. Dann ist
V/U ebenfalls endlichdimensional und es gilt
dim U + dim V/U = dim V.
Beweis
Es sei {v1 , . . . ,vm } eine Basis für U. Dies ergänzen wir zu einer Basis {v1 , . . . ,vn }
für V. Nun zeigen wir, dass {vm+1 + U, . . . ,vn + U } eine Basis for V/U ist. Somit
ist V/U endlichdimensional mit dim V/U = n − m = dim V − dim U.
93
3.3 Basisergänzung und Unterräume
Zunächst zeigen wir, dass {vm+1 + U, . . . ,vn + U } linear unabhängig ist. Es
seien α1 , . . . , αn Skalare mit
αm+1 (vm+1 + U ) + · · · + αn (vn + U ) = 0 + U,
so dass
(αm+1 vm+1 + · · · + αn vn ) + U = U.
Dies bedeuet aber, dass
α m+1 v m+1 + · · · + α n v n ∈ U
und kann daher als lineare Kombination von {v1 , . . . ,vm } dargestellt werden.
Es existieren also Skalare α1 , . . . , αn , so dass
α m +1 v m +1 + · · · + α n v n = α1 v1 + · · · + α m v m ,
und aus
α1 v1 + · · · + α m v m − α m +1 v m +1 − · · · − α n v n = 0
und der linearen Unabhängigkeit von {v1 , . . . ,vn } folgt α1 = 0, . . . , αn = 0.
Nun zeigen wir, dass hvm+1 + U, . . . ,vn + U i = V/U. Es sei v + U ∈ V/U. Da
{v1 , . . . , vn } eine Basis für V ist, gibt es Skalare β1 , . . . β n mit
Somit ist
und folglich
v = β 1 v1 + · · · + β m v m + β m +1 v m +1 + · · · + β n v n .
|
{z
}
∈U
v − β m+1 v m+1 + · · · + β n v n ∈ U
v + U = β m + 1 v m + 1 + · · · + β n v n + U = β m + 1 ( v m + 1 + U ) + · · · + β n ( v n + U ),
so dass v + U ∈ hvm+1 + U, . . . ,vn + U i.
94
4 Lineare Abbildungen und Matrizen
4 Lineare Abbildungen und Matrizen
4.1 Lineare Abbildungen
Von besonderer Bedetungen sind Abbildungen zwischen Vektorräumen, die mit
der Vektorraumstruktur verträglich sind.
Definitionen
Es seien V und W Vektorräume über einem Körper K. Eine Abbildung T : V → W
heißt Vektorraumhomomorphismus oder lineare Abbildung, falls
T ( v1 + v2 ) = T ( v1 ) + T ( v2 )
für alle v1 , v2 ∈ V
und
T (αv) = αT (v)
für alle v ∈ V und α ∈ K.
Bemerkung
Insbesondere ist T ein Gruppenhomomorphismus (V,+V ) → (W,+W ).
Beispiele
1. Es seien V und W Vektorräume über einem Körper K. Die Nullabbildung
T : V → W mit T (v) = 0 für alle v ∈ V ist linear. Ist V ein Unterraum von W
so ist die Identitätsbbildung I : V → W mit I (v) = v ebenfalls linear.
2. Die Projektionen P1 , P2 : R2 → R, die durch die Formeln
x
x
x
0
=
, P2
=
P1
y
0
y
y
gegeben sind, sind lineare Abbildungen.
95
4.1 Lineare Abbildungen
P2 [U]
U
Die Abbildungen P1 und P2
projizieren den Schatten einer
Menge U in vertikaler bzw.
horizontaler Richtung.
P1 [U]
3. Es seien w 6= 0 eine feste komplexe Zahl. Die Drehstreckung T : C → C mit
T (z) = wz ist eine lineare Abbildung.
Im
wz
z
Rr
r
θ +φ
θ
Re
T ist eine Drehstreckung mit Streckungsfaktor R = |w| und
Drehwinkel φ = arg w. (Hier ist r = |z| und θ = arg z.)
4. Die Formel T ( p) = p′ definiert eine lineare Abbildung P(R ) → P(R ), denn
( p1 + p2 )′ = p1′ + p2′ und (αp)′ = αp′ .
Proposition
Es seien V und W Vektorräume über einem Körper K. Die Menge aller linearen
Abbildungen T : V → W ist ein Vektorraum über K mit punktweise Addition
(T1 + T2 )(v) := T1 (v) + T2 (v),
v∈V
und Skalarmultiplikation
(αT )(v) := αT (v),
v ∈ V.
(Wir bezeichnen diesen Vektorraum mit Hom(V,W ).)
96
4.1 Lineare Abbildungen
Definitionen
Es seien V und W Vektorräume über einem Körper K und T : V → W eine lineare
Abbildung.
1. Der Kern oder Nullraum von T ist die Teilmenge
von V.
ker T := {v ∈ V : T (v) = 0}
2. Die Bildmenge von T ist die Teilmenge
von W.
Im T = { Tv : v ∈ V }
Proposition
Es seien V und W Vektorräume über einem Körper K und T : V → W eine lineare
Abbildung.
1. ker T ist ein Unterraum von V.
2. Im T ist ein Unterraum von W.
Beweis
1. ker T ist nicht leer, denn 0 ∈ ker T. Nun seien v1 , v2 ∈ ker T, so dass T (v1 ) = 0,
T (v2 ) = 0. Folglich gilt T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0, so dass v1 + v2 ∈
ker T ist. Seien nun α ∈ K, v ∈ ker T. Dann ist T (αv) = αT (v) = 0, so dass
αv ∈ ker T ist.
2. Im T ist nicht leer, denn 0 = T (0) ∈ Im T. Nun seien w1 , w2 ∈ Im T. Es existieren also v1 , v2 ∈ V mit w1 = T (v1 ), w2 = T (v2 ). Somit ist w1 + w2 =
T (v1 ) + T (v2 ) = T (v1 + v2 ) ∈ Im T. Seien nun α ∈ K, w ∈ Im T. Aus w = T (v)
für irgendein v ∈ V folgt αw = αT (v) = T (αv) ∈ Im T.
Lemma
Es seien V und W Vektorräume über einem Körper K. Eine lineare Abbildung
T : V → W ist genau dann injektiv, wenn ker T = {0} ist.
97
4.1 Lineare Abbildungen
Definitionen
Es seien V und W Vektorräume über einem Körper K und T : V → W eine lineare
Abbildung.
1. Der Rang von T (rang T) ist die Dimension der Bildmenge Im T von T.
2. Der Defekt von T (def T) ist die Dimension des Nullraums ker T von T.
Lemma (Dimensionssatz)
Es V und W Vektorräume über einem Körper K und T : V → W eine lineare Abbildung. Ferner sei V endlichdimensional. Dann ist Im T endlichdimensional und
es gilt
dim V = Rang T + Def T.
Beweis
Es sei {v1 , . . . ,vm } eine Basis für ker T. Dies ergänzen wir zu eine Basis {v1 , . . . ,vn }
für V. Nun zeigen wir, dass { T (vm+1 ), . . . ,T (vn )} eine Basis for Im T ist. Somit ist
Im T endlichdimensional mit dim Im T = n − m = dim V − dim ker T.
Zunächst zeigen wir, dass { T (vm+1 ), . . . ,T (vn )} linear unabhängig ist. Es seien α1 , . . . , αn Skalare mit
αm+1 T (vm+1 ) + · · · + αn T (vn ) = 0,
so dass
T (αm+1 vm+1 + · · · + αn vn ) = 0.
Dies bedeuet aber, dass αm+1 vm+1 + · · · + αn vn ∈ ker T und kann daher als
lineare Kombination von {v1 , . . . ,vm } dargestellt werden. Es existieren also
Skalare α1 , . . . , αn , so dass
α m +1 v m +1 + · · · + α n v n = α1 v1 + · · · + α m v m ,
und aus
α1 v1 + · · · + α m v m − α m +1 v m +1 − · · · − α n v n = 0
und der linearen Unabhängigkeit von {v1 , . . . ,vn } folgt α1 = 0, . . . , αn = 0.
98
4.1 Lineare Abbildungen
Nun zeigen wir, dass hT (vm+1 ), . . . ,T (vn )i = Im T. Es sei w ∈ Im T, so dass w =
T (v) für irgendein v ∈ V. Da {v1 , . . . , vn } eine Basis für V ist, gibt es Skalare
β 1 , . . . β n mit
Somit ist
v = β 1 v1 + · · · + β m v m + β m +1 v m +1 + · · · + β n v n .
|
{z
}
∈ ker T
T ( v ) = 0 + T ( β m + 1 v m + 1 + · · · + β n v n ) = β m + 1 T ( v m + 1 ) + · · · + β n T ( v n ),
so dass w ∈ hT (vm+1 ), . . . ,T (vn )i. Folglich gilt Im T ⊆ hT (vm+1 ), . . . ,T (vn )i.
Auf der anderen Seite folgt aus w ∈ hT (v1 ), . . . ,T (vn )i, dass w als lineare Kombination
w = β 1 T (v1 ) + · · · + β n T (vn ) = T ( β 1 v1 + · · · + β n vn ) ∈ Im T
schreiben lässt. Folglich gilt hT (vm+1 ), . . . ,T (vn )i ⊆ Im T.
Korollar
Es V und W endlichdimensionale Vektorräume über einem Körper K mit dim V =
dim W und T : V → W eine lineare Abbildung. Dann ist T injektiv genau dann,
wenn sie surjektiv ist.
Beweis
Es gilt:
T ist surjektiv
⇔
⇔
⇔
⇔
⇔
Im T = W
Rang T = dim V
Def T = 0
ker T = {0}
T ist injektiv.
(Im T ist ein Unterraum von W)
Proposition
Es V und W endlichdimensionale Vektorräume über einem Körper K Ist {e1 , . . . , en }
eine Basis für V, so ist Im T = hT (e1 ), . . . ,T (en )i.
99
4.2
Matrixdarstellungen linearer Abbildungen
4.2 Matrixdarstellungen linearer Abbildungen
In diesem Abschnitt seien V und W endlichdimensionale Vektorräume über einem Körper K und T : V → W eine lineare Abbildung. Es seien {e1 , . . . , en } eine
Basis für V und { f 1 , . . . , f m } eine Basis für W (so dass n = dim V und m = dim W).
Jedes Element v ∈ V lässt sich als eindeutige lineare Kombination der Basisvektoren e1 , . . . , en schreiben: Es gibt eindeutige Skalare α1 , . . . , αn derart, dass
v = α1 e1 + α2 e2 + · · · + α n e n .
(1 )
T ( v ) = α 1 T ( e 1 ) + α 2 T ( e 2 ) + · · · + α n T ( e n ).
(2 )
Folglich gilt
Bemerkung
Die n Vektoren T (e1 ), . . . , T (en ) bestimmen die lineare Abbildung T eindeutig:
Mit diesem Wissen können wir T (v) für jedes v durch (1) und (2) rekonstruieren.
Auf der anderen Seite sind die Vektoren T (e1 ), . . . , T (en ) Elemente in W und lassen sich daher als eindeutige lineare Kombinationen der Basisvektoren f 1 , . . . f m
schreiben: Es gibt eindeutige Skalare αij , i = 1, . . . , m, j = 1, . . . ,n derart, dass
T (e1 ) = α11 f 1 + α21 f 2 + · · · + αm1 f m ,
T (e2 ) = α12 f 1 + α22 f 2 + · · · + αm2 f m ,
..
..
..
.
.
.
T (en ) = α1n f 1 + α2n f 2 + · · · + αmn f m .
Bemerkung
Die Skalare αij , i = 1, . . . , m, j = 1, . . . ,n bestimmen die lineare Abbildung T eindeutig: Mit diesem Wissen können wir T (e1 ), . . . , T (en ) rekonstruieren und somit
anschließend T (v) für jedes v rekonstruieren.
100
4.2
Matrixdarstellungen linearer Abbildungen
Definition
Die m × n Matrix

a11 a12 · · · a1n
 a a22 · · · a2n 

 21
A = (aij ) =  ..
.. 
..
 .
. 
.
am1 am2 · · · amn

ist die Darstellungsmatrix von T : V → W bezüglich der Basen {e1 , . . . ,en } für V
und { f 1 , . . . , f m } für W.
Bemerkung
Um die Darstellungsmatrix A von T zu berechnen, schreibt man das Bild T (ei )
von ei als lineare Kombination der Basisvektoren f 1 , . . . , f n . Die Koeffizienten
sind die Elemente der i-te Spalte von A.
Beispiel
Finden Sie die Darstellungsmatrix der linearen Abbildung T : R3 → R2 mit
 
x
x+y−z


T y =
2x + z
z
bezüglich
(a) der Standardbasen für R3 und R2 ,
     
1
1 
 1
1
1






0 , 1 , 0
(b) der Basen
für R3 bzw. R2 .
,
und
0
1


−1
1
0
101
4.2
Matrixdarstellungen linearer Abbildungen
Lösung
(a) Es gilt
 
1
1
1
0


T 0 =
=1
+2
,
2
0
1
0
 
0
1
1
0


T 1 =
=1
+0
,
0
0
1
0
 
0
0
1
−
1
.
+1
T  0 =
= −1
1
0
1
1
Somit ist die Darstellungsmatrix von T bezüglich der gegebenen Basen gleich
1 1 −1
.
2 0 1
(b) Es gilt


1
2
1
1
T 0  =
=1
+1
,
1
1
0
−1
 
1
1
1
1


,
−2
=3
T 1 =
0
1
3
1
 
0
1
1
−1


.
−2
T 0 =
=1
0
1
1
1
Somit ist die Darstellungsmatrix von T bezüglich der gegebenen Basen gleich
1 3 1
.
1 −2 −2
Beispiel
Es sei n ∈ N. Finden Sie die Darstellungsmatrix der linearen Abbildung T : Pn (R ) →
Pn (R ) mit T ( p) = p′ bezüglich der Standardbasis für Pn (R ).
102
4.2
Matrixdarstellungen linearer Abbildungen
Lösung
Es gilt
T (1) = 0 = 0.1 + 0x + 0x2 + · · · + 0x n ,
T ( x ) = 1 = 1.1 + 0x + 0x2 + · · · + 0x n ,
T ( x2 ) = 2x = 0.1 + 2x + 0x2 + · · · + 0x n ,
T ( x3 ) = 3x2 = 0.1 + 0x + 3x2 + · · · + 0x n ,
..
..
.
.
T ( x n ) = nx n−1 = 0.1 + 0x + 0x3 + · · · + nx n−1 + 0x n .
Somit ist die Darstellungsmatrix von T bezüglich der Standardbasis für Pn (R )
gleich


0 1 0 0 ··· 0
0 0 2 0 · · · 0 


0 0 0 3 · · · 0 


 .. .. .. ..
..  .
. . . .
.


0 0 0 0 · · · n 
0 0 0 0 ··· 0
Definition
Es seien V und W Vektorräume über einem Körper K.
1. Ein (Vektorraum)-isomorphismus ist eine lineare, bijektive Abbildung T :
V → W.
2. Gibt es ein Isomorphismus T : V → W, so heißen V und W isomorph. In
diesem Fall schreiben wir V ∼
= W.
103
4.2
Matrixdarstellungen linearer Abbildungen
Bemerkung
Hom(V,W ) ist eine Gruppe bezüglich Komposition, und die Menge Iso(V,W )
aller Isomorphismen V → W ist eine Untergruppe von Hom(V,W ).
Lemma
1. Es sei V ein n-dimensionaler Vektorraum über einem Körper K. Dann gilt
V∼
= Kn .
2. Es seien V und W endlichdimensionale Vektorräume über einem Körper K.
Dann gilt Hom(V,W ) ∼
= K m×n , wobei n = dim V und m = dim W ist.
Beweis
1. Es seien {v1 , . . . , vn } eine Basis für V und {e1 , . . . , en } die Standardbasis für
K n . Die eindeutige lineare Abbildung T : V → K n mit
T ( vi ) = ei ,
i = 1, . . . ,n
ist surjektiv (Im T = he1 , . . . , en i = K n ) und somit auch injektiv. Folglich ist T
ein Isomorphismus.
2. Es seien {e1 , . . . , en } und { f 1 , . . . , f m } Basen für V bzw. W.
Es sei S(T ) die Matrixdarstellung von einer linearen Abbildung T : V → W
bezüglich der o.g. Basen, so dass S eine bijektive Abbildung Hom(V,W ) →
K m×n ist. Aus der Definition der Matrixdarstellung folgt S(T1 + T2 ) = S(T1 ) +
S(T2 ) und S(αT ) = αS(T ), so dass S linear ist. Somit ist S ein Isomorphismus.
Korollar
1. Je zwei n-dimensionale Vektorräume über einem Körper K sind isomorph.
2. Es seien V und W endlichdimensionale Vektorräume über einem
Körper K. Dann ist Hom(V,W ) endlichdimensional mit dim Hom(V,W ) =
dim V dim W.
104
4.3
Matrixalgebra
Satz (erster Homomorphiesatz)
Es V und W Vektorräume über einem Körper K und T : V → W eine lineare Abbildung. Dann gilt
V/ ker T ∼
= Im T.
Korollar (Dimensionssatz)
Es V und W Vektorräume über einem Körper K und T : V → W eine lineare Abbildung. Ferner sei V endlichdimensional. Dann ist Im T endlichdimensional und
es gilt
dim V = Rang T + Def T.
Beweis
V/ ker T ist endlich dimensional mit dim V/ ker T = dim V − def T. Folglich ist
Im T ebenfalls endlichdimensional mit Rang T = dim V/ ker T = dim V − Def T.
4.3 Matrixalgebra
In diesem Abschnitt seien X, Y und Z endlichdimensionale Vektorräume über
einem Körper K und S : X → Y, T : Y → Z lineare Abbildungen. Ferner seien
{ x1 , . . . , xn }, {y1 , . . . ,ym } und {z1 , . . . , zℓ } Basen für X, Y und Z.
Nun bezeichnen wir die Matrixdarstellungen von S und T bezüglich der angegebenen Basen für X, Y und Z mit


s11 s12 · · · s1n
 s s22 · · · s2n 
 21

M(S) = (sij ) =  ..
..
.. 
 .
.
. 
sm1 sm2 · · · smn
bzw.

t11
t
 21
M(T ) = (tij ) =  ..
 .
t ℓ1

t12 · · · t1m
t22 · · · t2m 

..
..  ,
.
. 
t ℓ2 · · · t ℓ m
105
4.3
Matrixalgebra
sodass
S( x1 ) = s11 y1 + s21 y2 + · · · + sm1 ym ,
S( x2 ) = s12 y1 + s22 y2 + · · · + sm2 ym ,
..
..
..
.
.
.
S( xn ) = s1n y1 + s21 y2 + · · · + smn ym ,
d.h.
m
S( x j ) =
∑ skj yk ,
j = 1, . . . ,n,
k=1
und
T (y1 ) = t11 z1 + t21 z2 + · · · + tℓ1 zℓ ,
T (y2 ) = t12 z1 + t22 z2 + · · · + tℓ2 zℓ ,
..
..
..
.
.
.
T (ym ) = t1m z1 + t2m z2 + · · · + tℓm zℓ ,
d.h.
ℓ
T (y j ) =
∑ tkj zk ,
j = 1, . . . ,m.
k=1
Bemerkung
Es gilt
M(αS) = αM(S)
für jedes Skalar α sowie
M(S1 + S2 ) = M(S1 ) + M(S2 )
für alle linearen Abbildungen S1 , S2 : X → Y.
Nun betrachten wir die Funktion T ◦ S, die eine lineare Abbildung X → Z ist.
Es sei M(T ◦ S) ihre Darstellungsmatrix bezüglich der angegebenen Basen für X
und Z.
Wir stellen nun die folgende Frage: Können wir das Produkt zweier Matrizen so
definieren, dass die Formel
M(T ◦ S) = M(T ).M(S)
(⋆)
gilt?
106
4.3
Matrixalgebra
Lemma
M(T ◦ S) ist die ℓ × n Matrix, deren Element in Zeile i und Spalte j gleich
m
∑ tik skj
k=1
ist.
Beweis
Es seien U = T ◦ S und


u11 u12 · · · u1n
u u22 · · · u2n 
 21

M(U ) = (uij ) =  ..
..
.. 
 .
.
. 
u ℓ1 u ℓ2 · · · u ℓ n
die Darstellungsmatrix für U bezüglich der angegebenen Basen für X und Z,
sodass
ℓ
U (x j ) =
∑ uij zi ,
j = 1, . . . ,n.
(1 )
i =1
Es gilt nun
U ( x j ) = T (S( x j ))
m
=T
∑ skj yk
k=1
!
m
=
∑ skj T (yk )
k=1
m
=
ℓ
∑ skj ∑ tik zi
i =1
k=1
ℓ m
=
∑ ∑ tik skj zi .
(2 )
i =1 k=1
Vergleichen von (1) und (2) ergibt
m
uij =
∑ tik skj .
k=1
Mit der folgenden Definition ist die Formel (⋆) also richtig.
107
4.3
Matrixalgebra
Definition
Es seien K ein Körper und A ∈ K ℓ×m , B ∈ K m×n . Das Produkt AB ist die Matrix
C = (cij ) in K ℓ×n mit
m
cij =
∑ aik bkj .
k=1
Bemerkung
Man berechnet also cij , indem man die Elemente in Zeile i von A mit den Elementen in Spalte j von B multipliziert und die Ergebnisse aufsummiert:


i-te Zeile 
→ → · · · →




↓
↓
..
.
↓
j-te Spalte





Beispiel
Es gilt

1
3
5
 



6+4
5+2 4+0 3−2
10 7 4 1
2 6 5 4 3


4 2 1 0 −1 =  18 + 8 15 + 4 12 + 0 9 − 4  = 26 19 12 5 .
42 31 20 9
6
30 + 12 15 + 6 20 + 0 15 − 6
Bemerkung
Matrixmultiplikation ist assoziativ und distributiv über Addition, jedoch nicht
kommutativ. Es ist z.B.
19 22
1 2 5 6
=
43 50
3 4 7 8
aber
5 6
7 8
1 2
23 34
=
.
3 4
31 46
108
4.3
Matrixalgebra
Proposition
Es sei V ein n-dimensionaler Vektorraum über einem Körper K. Dann ist die Abbildung T 7→ M(T ) ein Gruppenhomomorphismus Hom(V,V ) → K n×n bezüglich
Komposition bzw. Matrixmultiplikation.
Lemma
Es seien v ein Vektor in X und a1 , . . . , an , b1 , . . . , bm die Koeffizienten in den
Darstellungen von v und S(v) als lineare Kombinationen der Basen { x1 , . . . ,xn }
für X bzw. {y1 , . . . ,ym } für Y, d.h.
v = a1 x 1 + · · · + a n x n ,
S(v) = b1 y1 + · · · + bm ym .
Dann gilt
b = M(S)a,
wobei
 
a1
 .. 
a =  . ,
an


b1
 
b =  ...  .
bm
Beweis
Es gilt
Sv = S(a1 x1 + · · · + an xn )
= a1 S ( x 1 ) + · · · + a n S ( x n )
m
m
i =1
n
i =1
= a1 ∑ si1 yi + · · · + an ∑ sin yi
m
=
∑ ∑ sik ak yi ,
i =1 k=1
sodass
n
bi =
∑ sik ak ,
i = 1, . . . ,m
k=1
ist.
109
4.3
Matrixalgebra
Betrachten wir nun a als eine n × 1 Matrix, so ist M(S)a eine m × 1 Matrix, deren
Element in Zeile i, Spalte 1 gleich
n
∑ sik ak = bi
k=1
ist.
Beispiel
Es sei n ∈ N. Die Darstellungsmatrix der linearen Abbildung T : Pn (R ) → Pn (R )
mit T ( p) = p′ bezüglich der Standardbasis für Pn (R ) ist


0 1 0 0 ··· 0
0 0 2 0 · · · 0 


0 0 0 3 · · · 0 


 .. .. .. ..
..  .
. . . .
.


0 0 0 0 · · · n 
0 0 0 0 ··· 0
Mit Hilfe dieser Matrix können wir p′ für jedes p ∈ Pn (R ) berechnen. Stellen wir
das Polynom
p ( x ) = α0 + α1 x + α2 x 2 + · · · + α n −1 x n −1 + α n x n
als Spaltenvektor

dar, so wird das Polynom

0
0

0

 ..
.

0
0
dargestellt. Somit ist
α0
α1
α2
..
.















α n −1 
αn
p′ ( x ) durch

 

0 ··· 0
α0
α1

 

0 · · · 0
 α1   2α2 

 

3 · · · 0
 α2   3α3 
=
..
..  ..   .. 

 

.
.
 .   . 
0 0 0 · · · nαn−1  nαn 
0 0 0 ··· 0
αn
0
1
0
0
..
.
0
2
0
..
.
p′ ( x ) = α1 + 2α2 x + 3α3 x2 + · · · + nαn x n−1.
110
4.4 Der Daulraum
Notation
Da S, T und v als Matrizen betrachtet werden können, schreibt man in der Regel
T (v) als Tv und S ◦ T als ST. Diese Notation – die auch im Falle von unendlichdimensionale Vektorräumen üblich ist – werden wir ab sofort verwenden.
4.4 Der Daulraum
Definitionen
Es sei V ein Vektorraum über einem Körper K. Der Vektorraum Hom (V,K ) aller
linearen Abbildungen V → K heißt (algebraischer) Dualraum zu V und wird mit
V ′ bezeichnet.
Die Elemente von V ′ heißen lineare Funktionale auf V.
Bemerkungen
Es sei T ∈ V ′ , die nicht die Nullabbildung ist.
1. T ist surjektiv, denn aus 0 < dim Im T ≤ dim K = 1 folgt dim Im T = dim K
und daher Im T = K.
2. Ist V endlichdimensional, so ist dem Dimensionssatz zufolge dim ker T =
dim V − dim Im T = dim V − 1.
Satz
Es sei V ein endlichdimensionaler Vektorraum über einem Körper K und {e1 , . . . ,en }
eine Basis für V. Dann ist { f 1 , . . . , f n }, wobei f i ∈ V ′ das eindeutige lineare Funktional mit
1,
i = j,
f i (e j ) = δij :=
0,
i 6= j
ist, eine Basis für V ′ .
Insbesondere gilt dim V ′ = dim V.
111
4.4 Der Daulraum
Beweis
Zunächst zeigen wir, dass f 1 , . . . , f n linear unabhängig sind. Es seien α1 , . . . ,
αn Skalare derart, dass
α1 f 1 + · · · + αn f n = 0.
Insbesondere gilt
α1 f 1 (ei ) + · · · + αn f n (ei ) = 0,
|
{z
}
= αi
i = 1, . . . ,n.
Nun zeigen wir, dass h f 1 , . . . , f n i = V ′ . Wähle f ∈ V ′ und setze
α i = f ( e i ),
i = 1, . . . ,n.
Dann gilt
f (ei ) = (α1 f 1 + · · · + αn f n )(ei ),
i = 1, . . . ,n.
Die beiden linearen Abbildungen f und α1 f 1 + · · · + αn f n stimmen also auf
einer Basis für V miteinander überein und sind somit gleich. Die Gleichung
f = α1 f 1 + · · · + α n f n
ist die Aussage, dass f sich als lineare Kombination von f 1 , . . . , f n darstellen
lässt.
Definition
In der Notation des vorigen Satzes ist { f 1 , . . . , f n } die Dualbasis zu {e1 , . . . ,en }.
Bemerkung
Es seien n ∈ N und V ein n-dimensionaler Vektorraum.
Die Darstellungsmatrizen der Abbildungen im Dualraum V ′ = Hom (V,K ) sind
1 × n Matrizen, also Zeilenvektoren.
Stellen wir Elemente von V (mit Hilfe einer Basis {e1 , . . . ,en }) als Spaltenvektoren
dar, so stellen wir Elemente von V ′ als Zeilenvektoren dar. Insbesondere hat e j
112
4.4 Der Daulraum
die Darstellung als Spaltenvektor
 
0
 .. 
.
 
 0
 
ej = 1 ← j-te Komponente
 
 0
.
 .. 
0
während f j die Darstellung als Zeilenvektor
fj = 0 · · · 0 1 0 · · · 0
↑
j-te Komponente
hat.
113
5 Matrixrechnung und lineare Gleichungssysteme
5 Matrixrechnung und lineare Gleichungssysteme
5.1 Über die Spalten und Zeilen einer Matrix
Definition
Es seien K ein Körper und A ∈ K m×n . Ist A = (aij ) k=1,...,m, , so heißt die durch die
j =1,...,n
Formel
aTij := a ji
definierte Matrix AT ∈ K n×m die transponierte Matrix von A.
Bemerkung
1. Wir erhalten AT from A, indem wir die Spalten und Zeilen vertauschen, so
dass die transponierte Matrix zu


a11 a12 · · · a1n 


 a21 a22 · · · a2n  


A =  ..
..
..  m Zeilen,
 .
.
. 


am1 am2 · · · amn 
|
{z
}
n Spalten
gleich
ist.

a11 a21 · · · am1 


 a a22 · · · am2  
12


n Zeilen
AT =  ..

..
..
 .
.
. 


a1n a2n · · · amn 
{z
}
|
m Spalten

2. Die transponierte Matrix von dem Spaltenvektor
 
v1
 .. 
v= . 
vn
ist der Zeilenvektor
vT = (v1 , . . . ,vn )
und umgekehrt.
114
5.1 Über die Spalten und Zeilen einer Matrix
Notation
Es seien K ein Körper und A ∈ K m×n . Bezeichne die Spalten und Zeilen von A
A , so dass
mit c1A , . . . , cnA bzw. r1A , . . . , rm



A
A
A
A = c1 c2 · · · cn  = 





In dieser Notation ist



a1j
 a2j 
 
c jA =  .  ,
 .. 
r1A
r2A
..
.
A
rm




.



j = 1, . . . ,n
amj
und
riA = (ai1 ,ai2 , . . . ,ain ),
i = 1, . . . ,m.
Bemerkung
Aus der Formel
m
cij =
∑ aik bkj
k=1
für C = AB mit A ∈ K ℓ×m , B ∈ K m×n (so dass C ∈ K ℓ×n ) folgt
cCj
m
=
und
riC =
∑ bkj ckA ,
j = 1, . . . ,n
k=1
m
∑ aik rkB ,
i = 1, . . . ,ℓ.
k=1
Insbesondere sind
die Spalten von AB lineare Kombinationen der Spalten von A,
die Zeilen von AB lineare Kombinationen der Zeilen von B.
115
5.1 Über die Spalten und Zeilen einer Matrix
Definitionen
Es seien K ein Körper und A ∈ K m×n .
1. Der Spaltenraum von A ist der Unterraum hc1A , . . . , cnA i von K m . Seine Dimension ist der Spaltenrang von A.
A )T i von K n . Seine
2. Der Zeilenraum von A ist der Unterraum h(r1A )T , . . . , (rm
Dimension ist der Zeilenrang von A.
Bemerkung
Der Spaltenrang (Zeilenrang) von A ist die Maximalzahl linear unabhängiger
Spalten (Zeilen) von A.
Beispiel
Der Zeilenrang der Matrix

1
 3

 −1
3
−2
1
−5
8

0
4
1
0 

−1 8 
2 −12
ist 2, denn r1 und r2 sind linear unabhängig und r3 = 2r1 − r2 , r4 = −3r1 + 2r2 .
Satz
Es seien K ein Körper und A ∈ K m×n . Dann ist Spaltenrang A = Zeilenrang A.
Beweis
Es seien c = Spaltenrang A und {e1 , . . . , ec } eine Basis für den Spaltenraum von A.
Jede Spalte c jA von A lässt sich als lineare Kombination von e1 , . . . , ec schreiben,
d.h. es gibt Skalare rkj derart, dass
c jA
c
=
∑ rkj ek ,
j = 1, . . . ,n
k=1
116
5.1 Über die Spalten und Zeilen einer Matrix
Folgich ist A = ER, wobei R = (rkj ) k=1,...,c, und
j =1,...,n


E = e1 e2 · · · ec .
Somit ist jede Zeile von A eine lineare Kombination der c Zeilen von R, so dass
Zeilenrang A ≤ c = Spaltenrang A.
Dasselbe Argument liefert
Zeilenrang AT ≤ Spaltenrang AT .
|
|
{z
}
{z
}
= Spaltenrang A = Zeilenrang A
Somit ist Spaltenrang A = Zeilenrang A.
Angesichts des letzten Lemmas sprechen wir nur von ‘dem Rang’ einer Matrix.
Nun wenden wir uns der Frage zu, wie man ihn berechnet.
Proposition
Es sei A eine Matrix mit m Zeilen, bei der die ersten r Hauptdiagionalelemente
von Null verschieden, die letzten m − r Zeilen sowie alle Elemente unterhalb der
Hauptdiagonalen jedoch gleich Null sind, d.h.

a11
 0 a22
 .
..
 .
.
 .

 0 · · · 0 arr
A=




0

⋆
0













(⋆)
Dann ist Rang A = r.
117
5.1 Über die Spalten und Zeilen einer Matrix
Definition
Unter einer elementaren Zeilenumformung einer Matrix versteht man
(i) Vertauschung zweier Zeilen,
(ii) Multiplikation einer Zeile mit einem Skalar λ 6= 0,
(iii) Addition eines beliebigen Vielfachen λ einer Zeile zu einer anderen Zeile.
Elementare Spaltenumformungen sind analog definiert.
Proposition
Elementare Zeilenumformungen (Spaltenumformungen) ändern nicht den Zeilenraum (Spaltenraum) und einer Matrix und folglich auch nicht ihren Rang.
Können wir eine Matrix durch elementare Zeilen- und Spaltenumformungen in
die Form (⋆) bringen, so können wir also ihren Rang bestimmen.
Beispiel
Bestimmen Sie den Rang der Matrix

2
1

0
1
−1
0
2
1

3
1 

−1
4
Lösung
Durch Verwendung elementarer Zeilen- und Spaltenumformungen erhalten wir
eine Folge von Matrizen mit demselben Rang:
118
5.1 Über die Spalten und Zeilen einer Matrix

2
1

0
1
−1
0
2
1


1
3
2
1 
 −→ 
0
−1
1
4

1
0
−→ 
0
0

1
0
−→ 
0
0

1
0
−→ 
0
0
0
−1
2
1
0
−1
2
1
0
−1
0
0
0
−1
0
0

1
3 

−1
4

1
1 

−1
3

1
1

1
4

1
1

1
0
(Z1 ↔ Z2 )
(Z2 → Z2 − 2Z1 , Z4 → Z4 − Z1 )
(Z3 → Z3 + 2Z2 , Z4 → Z4 + Z2 )
(Z4 → Z4 − 4Z3 )
Der Rang der letzten – und somit auch der ersten – Matrix ist also 3.
Durch diese Methode kann man weitere Ergebnisse herleiten.
Satz (Rangungleichung von Sylvester)
Es sei K ein Körper und A ∈ K ℓ×m , B ∈ K m×n . Dann gilt
Rang A + Rang B ≤ Rang AB + m.
Beweis
Zunächst bemerken wir die allgemeinen Ergebnisse
M1 0
M1 ⋆
= Rang M1 + Rang M2 ,
≥ Rang M1 + Rang M2 .
0 M2
0 M2
Folglich gilt
Im 0
= m + Rang AB,
Rang
0 AB
B Im
≥ Rang A + Rang B,
Rang
0 A
119
5.1 Über die Spalten und Zeilen einer Matrix
wobei Im die m × m Matrix ist, deren Hauptdiagonalelemente gleich 1 und alle
anderen Elemente gleich 0 sind.
Durch elementare Zeilen- und Spaltenumformungen erreichen wir aber
Im 0
0 AB
(Zm+1 → Zm+1 + a1j Zj ,
...,
Zm+ℓ → Zm+ℓ + aℓ j Zj ,
Im − B
A 0
(Sm+1 → Sm+1 − b j1 S j ,
...,
Sm+n → Sm+n − b jn S j ,
− B Im
−→
0 A
B Im
−→
0 A
(Spaltenvertauschungen)
−→
Im 0
A AB
−→
(S j ↔ − S j ,
j = 1, . . . ,m,
j = 1, . . . ,m)
j = 1, . . . ,m,
j = 1, . . . ,m)
j = 1, . . . ,m)
Definition
Eine m × n Matrix A hat Zeilenstufenform, falls die folgenden Bedingungen erfüllt sind.
(i) Die letzten m − r Zeilen sind identisch Null, die ersten r Zeilen jedoch nicht.
(Hier ist 0 ≤ r ≤ m.)
(ii) Ist das erste nichtverschwindende Element in Zeile i in Spalte ji , so gilt
1 ≤ j1 < j2 < . . . < jr ≤ n.

0
0

.
 ..

A=
0
0

 ..
.
0
· · · 0 a1j1
··· 0 0
.. ..
. .
··· 0 0
··· 0 0
.. ..
. .
··· 0 0
⋆ ⋆ ⋆
· · · 0 a2j2
.. ..
. .
··· 0 0
··· 0 0
.. ..
. .
··· 0 0
⋆ ⋆ ⋆
⋆ ⋆ ⋆
.. ..
. .
· · · 0 arjr
··· 0 0
.. ..
. .
··· 0 0

⋆
⋆

.. 
.

⋆

0

.. 
.
··· 0
⋆
⋆
..
.
⋆
···
120
5.1 Über die Spalten und Zeilen einer Matrix
Proposition
Der Rang einer Matrix in Zeilenstufenform ist die Anzahl der Zeilen, die nicht
identisch Null sind.
Lemma (Gauß-Algorithmus)
Jede Matrix kann durch elementare Zeilenumformungen in Zeilenstufenform gebracht werden.
Beweis
Wir beginnen mit einer m × n Matrix A. Falls alle Spalten identisch Null sind,
sind wir fertig.
Andernfalls sei j1 der kleinste Index, für den die Spalte c jA1 ungleich Null ist.
Durch Vertauschen von Zeilen können wir erreichen, dass der erste Entrag
von c jA1 ungleich Null ist. Mit einem Missbrauch der Notation beziechnen wir
die Einträge von c j1 noch mit a1j1 , . . . , amj1 .
Die übrigen Einträge dieser Spalte können wir durch die elementare Zeilenumformungen
aij
Zi → Zi − 1 Z1 ,
i = 2, . . . ,m
a1j1
zu Null Machen.
Es ergibt sich dann eine Matrix der Form


0 · · · 0 a1j1 ⋆ · · · ⋆

0 ··· 0 0


,
 ..
.. ..
′ 
.
. .
A 
0 ··· 0 0
wobei A′ eine (m − 1) × (n − j1 ) Matrix ist.
Das gewünschte Ergebnis erhält man durch Iteration.
121
5.1 Über die Spalten und Zeilen einer Matrix
Bemerkung
Eine Matrix in Zeilenstufenform kann durch Spaltenvertauschungen in die Form
(⋆) gebracht werden.
Bemerkung
Es sei K ein Körper.
Es wurde im Abschnitt 4.2 gezeigt, dass Hom(K n ,K m ) ∼
= K m×n (der Isomorphisn
m
mus bildet eine Abbildung K → K auf ihre Matrixdarstellung bezüglich der
Standardbasen für K n und K m ab).
Insbesondere definiert jeder Matrix A × K m×n definiert eine lineare Abbildung
T : K n → K m durch die Formel Tx = Ax. Ferner ist die Darstellungsmatrix von T
bezüglich der Standardbasen für K n und K m gleich A.
1. Angesichts dieser Bemerkung unterscheiden wir nicht zwischen T und A
und schreiben ker A statt ker T, Im A statt Im T usw.
2. In dieser Schreibweise ist Rang A := dim Im A. Da
Im A = h Ae1 , . . . , Aen i
|
{z
}
die Spalten von A
ist, ist dim Im A die Dimension des Spaltenraums von A. Diese Definition
stimmt also mit unserer vorigen Definition von Rang A überein.
3. Bringen wir A ist Zeilenstufenform, so ist Rang A die Anzahl der Zeilen,
die nicht identisch Null sind. Dem Dimensionssatz zufolge ist Def A = n −
Rang A.
4. A ist genau dann surjektiv, wenn Rang A = m ist, und genau dann injektiv,
wenn Def A = 0 ist.
122
5.2
Die Inverse einer Matrix
5.2 Die Inverse einer Matrix
Definitionen
Es sei K ein Körper.
1. Die n × n Matrix


In := 
ist die Identitätsmatrix.
1
..
.
1



2. Die Matrix A ∈ K n×n heißt invertierbar oder regulär, falls es eine Matrix
B ∈ K n×n mit
AB = BA = In
gibt. In diesem Fall heißt B die Inverse von A und wird mit A−1 bezeichnet.
Proposition
Es sei K ein Körper. Die Menge aller invertierbaren Matrizen in K n×n bildet eine
Gruppe bezüglich Matrixmultiplikation mit neutralem Element In . (Dies ist die
allgemeine lineare Gruppe GL(n,K ).)
Bemerkungen
Aus der letzten Proposition folgt
(i) die Eindeutigkeit der Inverse einer invertierbaren Matrix,
(ii) die Formel ( AB)−1 = B−1 A−1 für zwei invertierbaren n × n Matrizen A, B.
Beispiel
GL(2,R ) =
und
a b
c d
−1
a b
c d
: a,b,c,d ∈ R, ad 6= bc
1
d −b
=
,
ad − bc −c a
ad 6= bc.
123
5.2
Die Inverse einer Matrix
Proposition
Es seien K ein Körper und M(T ) die Matrixdarstellung einer linearen Abbildung
T : K n → K n bezüglich der Standardbasis für K n .
Dann ist die Abbildung T 7→ M(T ) ein Gruppenisomorphismus Iso(K n ,K n ) →
GL(n,K ) bezüglich Komposition bzw. Matrixmultiplikation.
Insbesondere ist die Matrix A ∈ K n×n genau dann invertierbar, wenn die durch
die Formel Tx = Ax definierte lineare Abbildung T : K n → K n bijektiv ist. In diesem Fall ist die Darstellungsmatrix von T −1 : K n → K n gleich A−1 .
Bemerkungen
1. In der Regel sagen wir einfach ‘A ist bijektiv’.
2. Die Identitätsmatrix In : K n → K n ist die Darstellungsmatrix der Identitätssbbildung K n → K n , x 7→ x.
Proposition
Es sei A eine n × n Matrix. Dann sind die folgenden Aussagen äquivalent.
1. A ist invertierbar.
2. A ist injektiv.
3. A ist surjektiv.
4. Rang A = n.
5. AT ist invertierbar.
Lemma
Eine n × n Matrix A ist genau dann invertierbar, wenn sie zur Identitätsmatrix
durch elementare Zeilenumformungen überführt werden kann.
124
5.2
Die Inverse einer Matrix
Beweis
A ist genau dann bijektiv, wenn Rang A = n ist, d.h. wenn sie durch elementare
Zeilenumformungen in die Zeilenstufenform


a11
 0 a22



 ..

.
.
 .

.
0 · · · 0 arr
gebracht werden kann.
Fener kann jede Matrix A genau dann in die obige Form durch elementare Zielenumformungen gebracht werden, wenn sie zur Identitätsmatrix durch elementare Zeilenumformungen überführt werden kann.
Nun stellen wir eine Methode zur Berechnung der Inverse einer Matrix mit maximalem Rang vor.
Definition
Eine n × n elementare Matrix ist das Ergebnis einer elementaren Umformung
von In .
Die elementare Umformung Zi ↔ Zj oder Si ↔ S j ergibt die Matrix


..
..
.
.
1 0

..
..


..
.
0

.
.


.


.
1
.
0


· · · · · · · · · 0 · · · · · · 0 1 0 · · · · · ·  ← i-te Zeile




.
.. 1


0




..
..
..
Vij = 

.
.
.


.



0
1 ..



· · · · · · 0 1 0 · · · · · · 0 · · · · · · · · ·  ← j-te Zeile


..


0
. 1




.
.
.
..
..
..




..
..
.
.
1
↑
↑
i-te Spalte j-te Spalte
125
5.2
Die Inverse einer Matrix
Die elementare Umformung Zi → λZi oder Si → λS j mit λ 6= 0 ergibt die
Matrix






Miλ = 




1
..

.
1
λ
1
..
.
1
↑
i-te Spalte





 ← i-te Zeile




Die elementare Umformung Zi → Zi + λZj oder S j → S j + λSi ergibt die Matrix


..
..
.
.
1 0

..
..


..
.
0

.
.


..


0
1 .


· · · · · · · · · 0 · · · · · · 0 λ 0 · · · · · ·  ← i-te Zeile




..


. 1
0




.
.
λ
.
.
.
.
Aij = 

.
.
.


..
..




.
1 .


· · · · · · · · · · · · · · · · · · 1 · · · · · · · · ·  ← j-te Zeile


..
..


.
. 1




.
.
.
..
..
..




..
..
.
.
1
↑
↑
i-te Spalte j-te Spalte
Proposition
1. Das Ergebnis einer elementaren Zeilenumformung einer m × n Matrix A
erhält man durch Linksmultiplikation mit der entsprechenden m × m elementaren Matrix.
2. Das Ergebnis einer elementaren Spaltenumformung einer m × n Matrix A
erhält man durch Rechtsmultiplikation mit der entsprechenden n × n elementaren Matrix.
126
5.2
Die Inverse einer Matrix
Korollar
Die elementaren Matrizen sind invertierbar mit Vij−1 = Vij , ( Miλ )−1 = Mi1/λ und
( Aijλ )−1 = Aij−λ .
Korollar
Es sei A eine invertierbare n × n Matrix, so das A durch eine Folge elementarer
Zeilenumformungen mit entsprechenden elementaren Matrizen E1 , . . . , E p zur
Identitätsmatrix überführt werden kann. Dann ist
A−1 = E p E p−1 · · · E1 .
Beweis
Dies folgt aus der Gleichung
E p E p−1 · · · E1 A = In .
Aus der Gleichung
A−1 = E p E p−1 · · · E1 In ,
folgt, dass die elementaren Zeilenumformungen, die A in In überführen, auch In
in A−1 überführen.
Beispiel
Bestimmen Sie die Inverse der Matrix


2 −1 3
1 0 1  ∈ GL(3,R ).
0 2 −1
127
5.3 Lineare Gleichungssysteme
Lösung
Die Rechnung




1 0 1 010
2 −1 3 1 0 0
 1 0 1 0 1 0  −→  2 −1 3 1 0 0 
0 2 −1 0 0 1
0 2 −1 0 0 1


1 0 1 0 1 0
−→  0 −1 1 1 −2 0 
0 2 −1 0 0 1


1 0 10 1 0
−→  0 −1 1 1 −2 0 
0 0 1 2 −4 1


1 0 0 −2 5 −1
−→  0 −1 0 −1 2 −1 
0 0 1 2 −4 1


1 0 0 −2 5 −1
−→  0 1 0 1 −2 1 
0 0 1 2 −4 1
ergibt
(Z1 ↔ Z2 )
(Z2 → Z2 − 2Z1 )
(Z3 → Z3 + 2Z2 )
(Z1 → Z1 − Z3 , Z2 → Z2 − Z3 )
(Z2 → − Z2 )
 −1 

2 −1 3
−2 5 −1
1 0 1  =  1 − 2 1  .
0 2 −1
2 −4 1

5.3 Lineare Gleichungssysteme
In diesem Abschnitt handelt es sich um die folgende Fragestellung.
Betrachte das lineare Gleichungssystem
a11 x1 + a12 x2 + · · · + a1n xn = b1 ,
a21 x1 + a22 x2 + · · · + a2n xn = b2 ,
..
..
..
.
.
.
am1 x1 + am2 x2 + · · · + amn xn = bm ,







(⋆)






wobei die Koeffizienten aij sowie die rechten Seiten bi gegeben sind. Existeren
Werte der Unbekannten x1 , . . . , xn , die diese Gleichungen lösen? (Dabei arbeiten
128
5.3 Lineare Gleichungssysteme
wir in einem Körper K.) Und wie können wir die Menge der Lösungen beschreiben?
Beispiel
Die reellen Gleichungen
a11 x1 + a12 x2 + a13 x3 = b1 ,
a21 x1 + a22 x2 + a23 x3 = b2 ,
a31 x1 + a32 x2 + a33 x3 = b3
beschreiben drei Ebenen, sodass die Lösungsmenge M dieses Gleichungssystems
die Schnittmenge der Ebenen ist. Es gibt einige mögliche geometrische Konfigurationen.
Alle drei Ebenen stimmen miteinander
überein.
v2
v1
a
M = {a + λ1 v1 + λ2 v2 : λ1 ,λ2 ∈ R }
besteht aus den Punkten dieser Ebene
und wird durch zwei Parameter λ1 , λ2
gegeben.
Zwei Ebenen stimmen miteinander
überein, die dritte ist parallel zu dieser. M = ∅.
v
a
Zwei Ebenen stimmen miteinander
überein, die dritte schneidet die gemeinsame Ebene in einer einer Geraden
M = {a + λv : λ ∈ R },
die durch einen Parameter λ gegeben
wird.
Die Ebenen sind parallel zueinander.
M = ∅.
129
5.3 Lineare Gleichungssysteme
Zwei Ebenen sind parallel zueinander,
die dritte schneidet die anderen in jeweils einer Geraden. M = ∅.
Die drei Ebenen sind alle verschieden
und schneiden sich jeweils in einer
verschiedenen Gerade. M = ∅.
Die drei Ebenen sind alle verschieden
und schneiden sich in einer Geraden
v
a
M = {a + λv : λ ∈ R },
die durch einen Parameter λ gegeben
wird.
Die drei Ebenen sind alle verschieden
und schneiden sich in einem Punkt M.
Nun betrachten wir das lineare Gleichungssystem (⋆) etwas systematischer. Wir
können es in der Form
Ax = b
schreiben, wobei A ∈ K m×n und b ∈ K m gegeben, der unbekannte Vektor x ∈ K n
zu finden sind.
130
5.3 Lineare Gleichungssysteme
Definitionen
Es sei
Ax = b
ein lineares Gleichungssystem für die Unbekannten x ∈ K n .
Die Matrix A ∈ K m×n ist seine Koeffizientenmatrix, die Matrix ( A|b) ∈ K m×(n+1)
seine erweiterte Koeffizientenmatrix.
Das System heißt homogen, falls b = 0 ist, ansonsten ist es inhomogen.
Proposition
Das lineare Gleichungssystem
Ax = b
hat genau dann eine Lösung, wenn Rang ( A|b) = Rang A ist.
Beweis
Zunächst bemerken wir: Rang ( A|b) ≥ Rang A mit Gleichheit genau dann, wenn
b im Spaltenraum von A liegt.
Schreiben wir die Gleichung
Ax = b
als
x1 c1A + · · · + xn cnA = b
um, so erkennen wir, dass sie genau dann eine Lösung hat, wenn b sich als lineare
Kombination der Spalten von A darstellen lässt. Dies ist aber genau dann der Fall,
wenn b im Spaltenraum von A liegt.
Definition
Hat das lineare Gleichungssystem
Ax = b
keine Lösung, d.h. Rang ( A|b) > Rang A, so heißt es inkonsistent.
131
5.3 Lineare Gleichungssysteme
Proposition
1. Die Lösungsmenge des homogenen Gleichungssystems
Ax = 0
ist der Unterraum ker A von K n und hat Dimension n − Rang A.
2. Nun habe das Gleichungssystem
Ax = b
die Lösung x⋆ . Dann ist ihre Lösungsmenge die Nebenklasse
x⋆ + ker A.
Proposition
Es sei ( A|b) in ( A′ |b′ ) durch eine elementare Zeilenumformung überführbar.
Dann sind die Lösungsmengen der linearen Gleichungssysteme
Ax = b
und
A′ x = b′
identisch.
Bemerkung
Die elementare Spaltenvertauschung Si ↔ S j in der Matrix A transformiert das
lineare Gleichungssystem
x1 c1A + · · · + xi ciA + · · · + x j c jA + · · · + xn cnA
in
x1 c1A + · · · + xi c jA + · · · + x j ciA + · · · + xn cnA
und entspricht somit einer Umbennenung der Variablen xi und x j .
132
5.3 Lineare Gleichungssysteme
Beispiel
Es sei ( A|b) ∈ K m×(n+1) in Zeilenstufenform mit Rang A = Rang ( A|b). Durch
Umbennung der Variablen können wir annehmen, dass ( A|b) die Form

a11
 0 a22
 .
..
 .
.
 .

 0 · · · 0 arr
( A|b) = 




0

A2
0

b1
b2 
.. 

. 

br 




0

mit a11 , . . . arr 6= 0 und A2 ∈ Kr×(n−r) hat. Somit ist Ax = b äquivalent zu

 

  
a11
x1
xr +1
b1
 0 a22
  x2 
 xr+2  b2 

 

  
 ..
  ..  + A2  ..  =  ..  ,
.
.
 .
 . 
 .  .
.
0 · · · 0 arr
xr
xn
br
{z
}
|
: = A1
und die Lösungsmenge dieses Systems ist



x1







 .. 









.






x
b
x
1
1
r
+
1



x
 .. 
 r 
n  .. 
−1  .. 
−1
 ∈ K :  .  = A1  .  − A1 A2  .  .


 xr +1 




 . 

x
b
x


r
r
n




.


.




xn
Beachte, dass die Lösungsmenge durch n − r Parameter xr+1 , . . . , xn gegeben ist.
Beispiel
Lösen Sie das reelle lineare Gleichungsystem
x + 3y + 2z = k,
2x + ky + 4z = 12,
kx + 2y − 4z = 20.
133
5.3 Lineare Gleichungssysteme
Lösung
Wir betrachten die erweiterte Koeffizientenmatrix


13 2 k
 2 k 4 12  .
k 2 −4 20
Es gilt




1 3
2
k
13 2 k
 2 k 4 12  −→  0 k − 6
0
12 − 2k 
k 2 −4 20
0 2 − 3k −4 − 2k 20 − k2
Im Falle k = 6 gilt also




1 3
2
13 2 k
6
 2 k 4 12  −→  0 0
0 
0
k 2 −4 20
0 −16 −16 −16


1326
−→  0 1 1 1 
0000
(Z2 → Z2 − 2Z1 , Z3 → Z3 − kZ1 )
(Z2 → Z2 − 2Z1 , Z3 → Z3 − 6Z1 )
1
(Z2 ↔ Z3 , Z2 → − 16
Z2 ),
und die Lösungsmenge des linearen Gleichungssystems
x + 3y + 2z = 6,
y+z=1
ist
  


3+λ
 x

 y  = 1 − λ  : λ ∈ R .


z
λ
Im Falle k 6= 6 gilt dagegen


13 2 k
 2 k 4 12 
k 2 −4 20


k
1 3
2
0
−2 
−→  0 1
0 2 − 3k −2(2 + k) 20 − k2


1 3
2
k

0
−2
−→  0 1
2
0 0 −2(2 + k) 24 − 6k − k
(Z2 → Z2 − 2Z1 , Z3 → Z3 − kZ1 )
(Z3 → Z3 − (2 − 3k)Z2 ).
134
5.4 Determinanten
Für k = −2 liegt also Inkonsistenz vor. Für k 6= −2 hat dagegen das lineare
Gleichungssystem
x + 3y + 2z = k,
y = −2,
−2(2 + k)z = 24 − 6k − k2
die eindeutige Lösung

2(18 + k)
2+k


  


x


.
y = 
−2




z
2
 −24 + 6k + k 
2 (2 + k )
5.4 Determinanten
Definition
Es sei K ein Körper. Eine Abbildung det : K n×n → K heißt Determinantenfunktion, falls sie die folgenden drei Eigenschaften besitzt.
1. Sie ist in jeder Zeile ihres Arguments linear, d.h.





r1
r1






 .. 


..

 . 


.










det  α1 r1j + α2 r2j  = α1 det  r1j  + α2 det 






 .. 


..

 . 


.





rn
rn
r1
..
.
r2j
..
.
rn











für alle r1 , . . . , r j−1, r j+1, . . . , rn , r1j , r2j ∈ K1×n , α1 , α2 ∈ K und j = 1, . . . ,n.
2. Ist A nicht invertierbar (d.h. Rang A < n), so ist det A = 0.
3. det In = 1.
Bemerkung
Insbesondere ist det A = 0, falls zwei Zeilen von A gleich sind oder A eine Zeile
hat, die indentisch Null ist.
135
5.4 Determinanten
Lemma
Es seien K ein Körper und det : K n×n → K eine Determinantenfunktion. Dann
gelten die folgenden Aussagen.
1. Verwandelt man die Matrix A durch Vertauschen zweier Zeilen in eine Matrix A′ , so gilt det A′ = − det A.
2. Verwandelt man die Matrix A durch Multiplikation einer Zeile mit λ ∈ K \
{0} in eine Matrix A′ , so gilt det A′ = λ det A.
3. Verwandelt man die Matrix A durch Addition eines Vielfachen einer Zeile
zu einer anderen Zeile in eine Matrix A′ , so gilt det A′ = det A.
Beweis
1. Es sei A′ durch die elementare Zeilenumformung Zi ↔ Zj aus A entstanden.
Dann gilt


r1A




.
.


.




A
A
 ri + r j
← i-te Zeile




..
0 = det 

.




A
A
 ri + r j
← j-te Zeile




..


.


rnA






= det 




..
.
riA
..
.
riA + r jA
..
.












+
det










..
.
r jA
..
.
riA + r jA
..
.











136
5.4 Determinanten






= det 




|
sodass
..
.
riA
..
.
riA
..
.
{z
=0












+
det










}


..
.










+
det










riA
..
.
r jA
..
.
|
..
.
r jA
..
.
riA
..
.
{z
=0
0 = det A + det A′ .












+
det










}
..
.
r jA
..
.
r jA
..
.






,




2. Dies folgt direkt aus der Linearität der Determinantenfunktion in der i-ten
Zeile.
3. Es sei A′ durch die elementare Zeilenumformung Zi ↔ Zi + λZj aus A entstanden. Dann gilt









det 







riA + λr jA
..
.
r jA
..
.
rnA






= det 




sodass

r1A
..
.
..
.
riA
..
.
r jA
..
.





 ← i-te Zeile





 ← j-te Zeile
















+
λ
det










|
..
.
r jA
..
.
r jA
..
.
{z
=0
det A′ = det A.






,




}
137
5.4 Determinanten
Proposition
Es sei K ein Körper und det : K n×n → K eine Determinantenfunktion. Dann ist
det A = 0 genau dann, wenn A nicht invertierbar ist.
Beweis
Definitionsgemäß ist det A = 0, falls A nicht invertierbar ist. Ist dagagen A invertierbar, so ist sie durch elementare Zeilenumformungen in In überführbar. Somit
ist det A = µ det In = µ für irgendein Skalar µ 6= 0.
Lemma
Es sei K ein Körper. Dann gibt es höchstens eine Determinantenfunktion K n×n →
K.
Beweis
Es seien det1 und det2 Determinantenfunktionen K n×n → K. Ist A nicht invertierbar, so ist det1 A = det2 A = 0.
Es sei A durch elementare Zeilenumformungen in A′ überführbar (so dass A′ in
A durch elementare Zeilenumformungen überführbar ist). Dann gilt
det1 A = det2 A
⇔
det1 A′ = det2 A′ .
det1 A = det2 A
⇔
det1 In = det2 In ,
Insbesondere gilt
(⋆)
falls A invertierbar ist, denn eine invertierbare Matrix ist in In durch elementare
Zeilenumformungen überführbar. Aus det1 In = det2 In = 1 und (⋆) folgt also,
dass det1 A = det2 A für jede invertierbare Matrix A ist.
Schließlich zeigen wir, dass es tatsächlich eine Determinantenfunktion gibt.
138
5.4 Determinanten
Satz (Entwicklungssatz von Laplace)
Es seien K ein Körper. Die induktiv definierten Funktionen

a11 ,
n = 1,



n
i = 1, . . . ,n
rdeti A =
i+ j
′

(−
1
)
a
det
A
,
n
>
1,

ij
ij
∑
j =1
(Entwicklung
nach der i-ten
Zeile)
und
cdet j A =

a11 ,



n = 1,
j = 1, . . . ,n
n
i+ j
′


 ∑ (−1) aij det Aij ,
n > 1,
(Entwicklung
nach der j-ten
Spalte)
i =1
wobei


a11 · · · a1j · · · a1n
 ..
.. 
 .
. 


′
(n −1)×(n −1)

Aij =  ai1 · · · aij · · · ain 
∈K
 ..
.. 
 .
. 
an1 · · · anj · · · amn
die durch Streichen der i-ten Zeile und j-ten Spalte aus A entstehende Matrix ist,
sind Determinantenfunktionen K n×n → K (und daher alle gleich).
Bemerkung
Die Vorzeichenverteilung in den Entwicklungsformeln kann man sich als ‘Schachbrettmuster’ merken:

+
−

+

−

..
.
−
+
−
+
..
.
+
−
+
−
..
.
−
+
−
+
..
.
+
−
+
−
..
.

...
. . .

. . .

. . .

Beispiele
1. Es gilt
a b
det
c d
a b
a b
− b det
= ad − bc,
= a det
c d
c d
139
5.4 Determinanten
so dass die Matrix
a b
c d
genau dann invertierbar ist, wenn ad 6= bc.
2. Es gilt


a11 a12 a13
det  a21 a22 a23 
a31 a32 a33






a11 a12 a13
a11 a12 a13
a11 a12 a13
= a11 det  a21 a22 a23  − a12 det  a21 a22 a23  + a13 det  a21 a22 a23 
a31 a32 a33
a31 a32 a33
a31 a32 a33
a a
a a
a a
= a11 det 22 23 − a12 det 21 23 + a13 det 21 22
a32 a33
a31 a33
a31 a32
= a11 (a22 a33 − a32 a23 ) − a12 (a21 a33 − a31 a23 ) + a13 (a21 a32 − a31 a22 )
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .
(Dies ist die Regel von Sarrus: Man versieht die drei ‘Hauptdiagonalen’ mit
Plus und die drei ‘Nebendiagonalien’ mit Minus.)
3. Entwicklung nach der ersten Spalte ergibt



a11
a11
 0 a22
 0 a22




det  ..
 = a11 det  ..
..
.
.
 .
 .

.
.
0 ··· 0
0 · · · 0 arr

a22
 .. . .
= a11 det  .
.

arr

0 · · · arr





.
Verfahren wir iterativ, so erhalten wir die Formel
det A = a11 a22 . . . arr
für eine obere Dreiecksmatrix


a11
 0 a22



A =  ..
.
.
.
 .

.
0 · · · 0 arr
4. Es gilt


1 a2 + bc a3
det 1 b2 + ac b3  = (a − b)(b − c)(c − a)(a2 + b2 + c2 ),
1 c2 + ab c3
140
5.4 Determinanten
denn


1 a2 + bc a3
det 1 b2 + ac b3 
1 c2 + ab c3


1
a2 + bc
a3
= det 0 (b − a)(a + b − c) (b − a)(b2 + ba + a2 )
0 (c − a)(a + c − b) (c − a)(c2 + ca + a2 )
(Z2 → Z2 − Z1 , Z3 → Z3 − Z1 )


1 a2 + bc
a3
= (b − a)(c − a) det 0 a + b − c b2 + ba + a2 
0 a + c − b c2 + ca + a2
a + b − c b2 + ba + a2
= (b − a)(c − a) det
a + c − b c2 + ca + a2
(Entwicklung nach der ersten Spalte)
a+b−c
b2 + ba + a2
= (b − a)(c − a) det
2(c − b) (c − b)(a + b + c)
(Z2 → Z2 − Z1 )
a + b − c b2 + ba + a2
= (b − a)(c − a)(c − b) det
.
2
a+b+c
|
{z
}
2
2
2
= −a − b − c
Lemma
Es sei K ein Körper. Dann gilt det A = det AT für jedes A ∈ K n×n .
Beweis
Wir beweisen die Aussage durch Induktion über n. Der Induktionsanfang (n = 1)
ist trivial.
Nun sei die Aussage richtig für n = k. Es sei A ∈ K (k+1)×(k+1) . Wir rechnen det A
aus, indem wir nach der ersten Zeile entwickeln, sodass
det A =
k+1
∑ (−1)1+ j ( A)1j det A1j′ .
j =1
141
5.4 Determinanten
Umgekehrt rechnen wir det AT aus, indem wir nach der ersten Spalte entwickeln,
sodass
det AT =
k+1
∑ (−1) j+1 ( AT ) j1 det( AT )′j1 .
j =1
Es gilt aber ( AT ) ji = ( A)ij sowie ( AT )′ji = ( Aij′ )T und folglich
T
k+1
det A =
′ T
( A1j
)
∑ (−1) j+1 ( A)1j det
| {z }
j =1
′ ∈ K n×n )
(denn det A1j
′
= det A1j
= det A.
Korollar
Es sei K ein Körper. Dann ist die Abbildung det : K n×n → K in jeder Spalte ihres
Arguments linear, d.h.
det c1 · · · α1 c1j + α2 c2j · · · cn = α1 det c1 · · · c1j · · · cn + α2 det c1 · · · c2j · · · cn
für alle c1 , . . . , c j−1 , c j+1 , . . . , cn , c1j , c2j ∈ K n , α1 , α2 ∈ K und j = 1, . . . ,n.
Korollar
Es seien K ein Körper und A ∈ K n×n . Dann gelten die folgenden Aussagen.
1. Verwandelt man A durch Vertauschen zweier Spalten in eine Matrix A′ , so
gilt det A′ = − det A.
2. Verwandelt man A durch Multiplikation einer Spalte mit λ ∈ K \ {0} in eine
Matrix A′ , so gilt det A′ = λ det A.
3. Verwandelt man A durch Addition eines Vielfachen einer Spalte zu einer
anderen Spalte in eine Matrix A′ , so gilt det A′ = det A.
Nun präsentieren wir Methoden zum Invertieren einer regulären Matrix sowie
zum Lösen eines linearen Gleichungssystems, die eher von akademischem als
vom praktischem Interesse sind.
142
5.4 Determinanten
Definition
Es seien K ein Körper und A ∈ K n×n . Die Matrix A♯ = (aij♯ ) ∈ K n×n mit
♯
aij = (−1) j+i A′ji
ist die zu A komplementäre Matrix.
Bemerkung
Es gilt
aij♯ = (−1) j+i det A′ji


a11 · · · a1i · · · a1n
.. 
 ..
. 
 .


j +i
= (−1) det  a j1 · · · a ji · · · a jn 
 .
.. 
 ..
. 
an1 · · · ani · · · amn

a11 · · · a1,i −1 0 a1,i +1
 ..
..
..
..
 .
.
.
.

 a j−1,1 · · · a j−1,i −1 0 a j−1,i +1

= (−1) j+i det 
 a j,1 · · · a j,i −1 1 a j,i +1
 a j+1,1 · · · a j+1,i −1 0 a j+1,i +1

 ..
..
..
..
 .
.
.
.
an1

a11
 ..
 .

a j−1,1

= det 
 a j,1
a j+1,1

 ..
 .
an1
· · · an,i −1 0 an,i +1
· · · a1,i −1
..
.
· · · a j−1,i −1
· · · a j,i −1
· · · a j+1,i −1
..
.
· · · an,i −1
0 a1,i +1
..
..
.
.
0 a j−1,i +1
1 a j,i +1
0 a j+1,i +1
..
..
.
.
0 an,i +1
= det c1A · · · ciA−1 e j ciA+1 · · · cnA .

· · · a1n
.. 
. 

· · · a j−1,n 

· · · a j,n 

· · · a j+1,n 

.. 
. 
· · · ann

· · · a1n
.. 
. 

· · · a j−1,n 

· · · a j,n 

· · · a j+1,n 

.. 
. 
· · · ann
143
5.4 Determinanten
Proposition
Es seien K ein Körper, A ∈ K n×n und A♯ die zu A komplementäre Matrix. Dann
gilt
A♯ A = AA♯ = (det A) In .
Beweis
Es gilt
n
♯
( A A)ij =
♯
∑ aik akj
k=1
n
=
∑ akj (−1)k+i det A′ki
k=1
n
=
∑ akj det
k=1
c1A · · · ciA−1 ek ciA+1 · · · cnA
= det c1A · · · ciA−1
n
∑ akj ek ciA+1 · · · cnA
k=1
= det c1A · · · ciA−1 c jA ciA+1 · · · cnA
det A, i = j,
=
0,
i 6= j
= (det A)δij .
!
Analog berechnet man AA♯ .
Korollar
Es seien K ein Körper und A ∈ GL(n,K ). Dann gilt
A −1 =
1
A♯ .
det A
144
5.4 Determinanten
Lemma (Cramersche Regel)
Es seien K ein Körper, A ∈ GL(n,K ) und b ∈ K n . Dann ist die eindeutige Lösung
des linearen Gleichungssystems
Ax = b
durch die Formel
det c1A · · · ciA−1 b ciA+1 · · · cnA
xi =
,
det A
i = 1, . . . ,n
gegeben.
Beweis
Es gilt nun
x = A −1 b =
1
A♯ b,
det A
sodass
1
( A ♯ b )i
det A
n
1
aij♯ b j
=
∑
det A j=1
xi =
n
1
b j det c1A · · · ciA−1 e j ciA+1 · · · cnA
∑
det A j=1
!
n
1
A
A
A
A
det c1 · · · ci −1 ∑ b j e j ci +1 · · · cn
=
det A
j =1
1
=
det c1A · · · ciA−1 b ciA+1 · · · cnA ,
det A
=
145
6 Eigenwerte und Eigenvektoren
6 Eigenwerte und Eigenvektoren
Definition
Es seien V ein Vektorraum über einem Körper K und T : V → V eine lineare Abbildung. Der Unterraum U von V heißt invariant unter T, falls T [U ] ⊆ U.
Bemerkung
Ist U invariant unter T, so ist T [U ] ein Unterraum von U.
Beispiele
1. Es sei V ein Vektorraum über einem Körper K. {0}, V, ker T und Im T sind
invariante Unterräume jeder linearen Abbildung T : V → V.
2. Es sei n ∈ N. Der Unterraum Pn (R ) von P(R ) ist invariant unter der linearen Abbildung T : p 7→ p′ .
Definitionen
Es seien V ein Vektorraum über einem Körper K und T : V → V eine lineare Abbildung. Gibt es ein Skalar λ und einen Vektor v 6= 0 mit
Tv = λv,
so heißt λ Eigenwert von T. Der Vektor v ist ein Eigenvektor zu λ.
Es sei λ ein Eigenwert von T. Die Menge
Eλ = {v : Tv = λv} = ker(T − λI )
ist der Eigenraum zum Eigenvektor λ. Seine Dimension ist die geometrische
Vielfachheit von λ.
146
6 Eigenwerte und Eigenvektoren
Proposition
Es seien V ein Vektorraum über einem Körper K und λ ein Eigenwert der linearen
Abbildung T : V → V. Der Eigenraum Eλ ist ein Unterraum von V, der unter T
invariant ist.
Beweis
Als Nullraum der linearen Abbildung T − λI : V → V ist Eλ ein Unterraum von
V. Er ist invariant unter T, denn T [ Eλ ] = λEλ ⊆ Eλ (mit Gleichheit genau dann,
wenn λ 6= 0).
Beispiele
1. Es sei V ein Vektorraum über einem Körper K.
Die Identitätsabbildung I : V → V hat den Eigenwert 1 und E1 = V (sodass alle nichttrivialen Vektoren Eigenvektoren mit Eigenwert 1 sind).
Jede nicht injektive Abbildung T : V → V hat den Eigenwert 0 und E0 =
ker T (so dass alle nichttrivialen Vektoren in ker T Eigenvektoren mit
Eigenwert 0 sind).
2. Nun betrachten wir drei geometrische Beispiele im R2 .
v
v-1
v1
Rv1
Rv-1
Sv
θ
Tv
v
v1
Tv1
Eine Spiegelung R : R2 → R2 hat die Eigenwerte 1 und −1: E1 ist die
Spiegelungsachse, E−1 ist die senkrechte Gerade durch den Nullpunkt.
Eine Drehung S : R2 → R2 um den Winkel θ ∈ (0,π ) ∪ (π,2π ) hat keine
Eigenwerte.
Eine Scherung T : R2 → R2 hat den Eigenwert 1: E1 ist die Scherungsachse.
147
6 Eigenwerte und Eigenvektoren
3. Es sei C∞ (R ) die Menge aller unendlich oft differenzierbaren Funktionen
R → R. Die Abbildung T : C∞ (R ) → C∞ (R ) mit T ( f ) = f ′ hat jede reelle
Zahl λ als Eigenwert, denn T (eλx ) = λT (eλx ).
Proposition
Es seien V ein endlichdimensionaler Vektorraum über einem Körper K und T :
V → V eine lineare Abbildung. Dann ist λ ein Eigenwert von K genau denn,
wenn det(T − λI ) = 0.
Beweis
Es gilt
Tv − λv = 0 für irgendeinen v 6= 0
⇔(T − λI )v = 0
⇔ ker(T − λI ) 6= {0}
⇔ dim ker(T − λI ) > 0
⇔ dim Im (T − λI ) < dim V
{z
}
|
= Rang (T − λI )
⇔ det(T − λI ) = 0.
Definition
Es seien V ein n-endlichdimensionaler Vektorraum über einem Körper K und
T : V → V eine lineare Abbildung. Die Abbildung c : K → K mit


a11 − λ a12
a13 · · · a1n
 a21 a22 − λ a23 · · · a2n 



 a
a
a
−
λ
·
·
·
a
32
33
3n
31
c(λ) = det(T − λI ) = det 
,

 ..
..
..
..

 .
.
.
.
an1
an2
an3 · · · ann − λ
wobei A = (aij ) die Darstellungsmatrix für T bezuglich einer Basis für T ist, heißt
die charakteristische Funktion von T.
148
6 Eigenwerte und Eigenvektoren
Proposition
Es seien V ein n-endlichdimensionaler Vektorraum über einem Körper K. Die
charakteristische Funktion einer linearen Abbildung T : V → V ist ein Polynom
vom Grad n mit Koeffizienten aus K.
Bemerkung
Angesichts der letzten Proposition bezeichnen wir c in der Regel als das charakteristische Polynom von T.
Beispiel
Berechnen Sie die Eigenwerte der reellen Matrix


3 2 4
A =  2 0 2
4 2 3
sowie die entsprechenden Eigenräume.
Lösung
Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms
149
6 Eigenwerte und Eigenvektoren
c(λ) = det( A − λI3 )


3−λ 2
4
= det  2 −λ 2 
4
2 3−λ


−1 − λ 2
4
−λ 2 
= det  0
(S1 → S1 − S3 )
1+λ 2 3−λ


−1 2
4
= (1 + λ) det  0 −λ 2 
1 2 3−λ


−1 2
4
= (1 + λ) det  0 −λ 2 
(Z3 → Z3 + Z1 )
0 4 7−λ
−λ 2
= −(1 + λ) det
4 7−λ
= −(1 + λ)(λ2 − 7λ − 8)
= −(1 + λ)2 (λ − 8),
d.h. λ = −1 und λ = 8.
Es gilt
E−1 = {x ∈ R3 : ( A + I3 )x = 0}
  
   
4 2 4 x
0 
 x







y
2
1
2
y
=
:
= 0 .


z
4 2 4 z
0
Wir untersuchen also die erweiterte Koeffizientenmatrix:


4240
2 1 2 0
4240


4240
(Z2 → Z2 − 12 Z1 , Z3 → Z3 − Z1 )
→0 0 0 0
0000
Folglich ist
150
6 Eigenwerte und Eigenvektoren
 

 x

E−1 =  y  : 4x + 2y + 4z = 0


z

 1


 −2µ − λ
 : λ, µ ∈ R
= 
µ


λ
*  1   −1 +
−2
=  1 , 0  ,
1
0
und die geometrische Vielfachheit dieses Eigenwerts ist
dim E−1 = dim ker( A + I3 ) = 2.
Es gilt
E8 = {x ∈ R3 : ( A − 8I3 )x = 0}
  
   
−5 2 4
x
0 
 x
=  y  :  2 −3 2  y  = 0 .


z
4 2 −5 z
0
Wir untersuchen also die erweiterte Koeffizientenmatrix:


−5 2 4 0
 2 −8 2 0 
4 2 −5 0


−1 4 −1 0
(Z1 → Z1 + Z3 )
→  2 −8 2 0 
4 2 −5 0


−1 4 −1 0
→ 0 0 0 0
(Z2 → Z2 + Z1 , Z3 → Z3 + 2Z1 )
0 18 −9 0


−1 4 −1 0
(Z3 → 21 Z3 , Z3 ↔ Z2 )
→  0 2 −1 0 
0 0 0 0
Folglich ist
 

 x

− x + 4y − z = 0,


y :
E8 =
2y − z = 0 

z

 

 λ
1


=
λ :λ∈R

 2
λ
* 1  +
1 ,
2
1
151
6 Eigenwerte und Eigenvektoren
und die geometrische Vielfachheit dieses Eigenwerts ist
dim E8 = dim ker( A − 8I3 ) = 1.
Bemerkung
Eine lineare Abbildung kann durchaus keine Eigenwerte haben.
Die Matrix
√
hat die Eigenwerte ± 2, aber
0 2
∈ R 2× 2
1 0
0 2
∈ Q 2× 2
1 0
2
hat keine Eigenwerte,
√ denn das charakterische Polynom c(λ) = λ − 2 hat die
reellen Lösungen ± 2 aber keine rationalen Lösungen.
Die Matrix
hat die Eigenwerte ±2i, aber
0 4
∈ C 2× 2
−1 0
0 4
∈ R 2× 2
−1 0
hat keine Eigenwerte, denn das charakterische Polynom c(λ) = λ2 + 4 hat die
komplexen Lösungen ±2i aber keine reellen Lösungen.
Lemma
Es sei V ein endlichdimensionaler komplexer Vektorraum und T : V → V eine
lineare Abbildung. Dann hat T einen Eigenwert.
Beweis
Es sei n = dim V, so dass das charakteristische Polynom c von T ein Polynom
vom Grad n mit komplexen Koeffizienten ist. Dem Fundamentalsatz der Algebra
zufolge hat c mindestens eine komplexe Nullstelle.
152
6 Eigenwerte und Eigenvektoren
Definitionen
Es sei K ein Körper.
1. Eine Matrix M ∈ K n×n heißt diagonal, falls sie die Gestalt


m11
0


m22




.
.


.
0
mnn
hat. Eine solche Matrix schreiben wir als
diag (m11 , . . . ,mnn ).
2. Es sei V ein endlichdimensionaler Vektorraum über K. Eine lineare Abbildung T : V → V heißt diagonalisierbar, falls es eine Basis für V derart gibt,
dass die Darstellungsmatrix von T bezüglich dieser Basis diagonal ist.
Proposition
Es sei V ein endlichdimensionaler Vektorraum über einem Körper K. Eine lineare
Abbildung T : V → V ist genau dann diagonalisierbar, wenn es eine Basis für V
aus Eigenvektoren von T gibt.
Beweis
T ist diagonalisierbar
⇔
Es gibt eine Basis {v1 , . . . ,vn } für V derart, dass die Darstellungsmatrix für T die Form diag(λ1 , . . . ,λn ) hat
⇔
Es gibt eine Basis {v1 , . . . ,vn } für V derart, dass Tvi = λi vi für
i = 1, . . . , n
⇔
Es gibt eine Basis {v1 , . . . ,vn } für V aus Eigenvektoren von T
Definition
Es sei K ein Körper. Eine Matrix A ∈ K n×n heißt diagonalisierbar, falls sie zu
einer Diagonalmatrix ähnlich ist, d.h. falls es eine Matrix P ∈ GL(n,K ) deart gibt,
dass P−1 AP eine Diagonalmatrix ist.
153
6 Eigenwerte und Eigenvektoren
Bemerkung
Eine Matrix A ∈ K n×n ist genau dann diagonalisierbar, wenn sie die Darstellungsmatrix einer diagonalisierbaren linearen Abbildung T : K n → K n ist.
Folglich ist A ∈ K n×n genau dann diagonalisierbar, wenn es eine Basis für K n aus
Eigenvektoren von A gibt.
Beispiel
Die reelle Matrix


3 2 4
A =  2 0 2
4 2 3
hat die Eigenwerte −1 und 8 mit entsprechenden Eigenräumen
*  1   −1 +
−2

E− 1 =
1 , 0  ,
1
0


* 1 +
E8 =
1 .
2
1
    
1
−1
− 12
Die Eigenvektoren  1 ,  0 ,  12  sind linear unabhängig und bilden da1
0
1
3
her eine Basis B für R .

Die lineare Abbildung R3 → R3 , x 7→ Ax hat die Matrixdarstellung A bezüglich
der üblichen Basis
     
0
0 
 1





0 , 1 , 0
A=


0
0
1
und die Matrixdarstellung diag(−1, − 1,8) bezüglich der Basis B . Die Basiswechselmatrix von A zu B ist
 1

− 2 −1 1
P =  1 0 21  .
0 1 1
Folglich gilt
P−1 AP = diag(−1, − 1,8).
154
6 Eigenwerte und Eigenvektoren
Lemma
Es seien V ein Vektorraum über einem Körper K und λ1 , . . . , λm verschiedene Eigenwerte der linearen Abbildung T : V → V mit entsprechenden Eigenvektoren
v1 , . . . , vm . Dann sind v1 , . . . , vm linear unabhängig.
Beweis
Dies beweisen wir durch Induktion nach m. Das Ergebnis für m = 1 ist trivial.
Nun sei das Ergebnis also für m = k richtig. Es seien α1 , . . . , αk+1 Skalare derart,
dass
α1 v1 + · · · + αk+1 vk+1 = 0.
(⋆)
Mutiplizieren wir (⋆) mit λ1 , so erhalten wir
λ1 α1 v1 + λ1 α2 v2 + · · · + λ1 αk+1 vk+1 = 0.
Wenden wir dagegen T auf (⋆), so erhalten wir
λ1 α1 v1 + λ2 α2 v2 + · · · + λk+1 αk+1 vk+1 = 0.
Somit gilt
(λ2 − λ1 )α2 v2 + · · · + (λk+1 − λ1 )αk+1 vk+1 = 0.
Nach Induktionsannahme sind aber v2 , . . . , vk+1 linear unabhängig, so dass
⇒
(λ − λ ) α = 0, . . . , (λk+1 − λ1 ) αk+1 = 0,
{z
}
| 2 {z 1} 2
|
6= 0
6= 0
α2 = 0, . . . , αk+1 = 0.
Aus (⋆) folgt dann
α1 v1 = 0,
so dass auch α1 = 0. Somit sind v1 , . . . , vk+1 linear unabhängig.
Korollar
Es seien V ein Vektorraum über einem Körper K und λ1 , . . . , λm verschiedene Eim
genwerte der linearen Abbildung T : V → V. Dann ist ∑ Ei direkt.
i =1
155
6 Eigenwerte und Eigenvektoren
Korollar
Es seien V ein endlichdimensionaler Vektorraum über einem Körper K und T :
V → V eine lineare Abbildung, deren Eigenwerte λ1 , . . . , λm sind. Dann ist
m
∑ dim Ei ≤ dim V
i =1
mit Gleichheit genau dann, wenn T diagonalisierbar ist.
Beweis
m
L
i =1
Ei ist ein Unterraum von V ist, und die Vereinigung von Basen für E1 , . . . , Em
ist eine Basis für
m
L
i =1
Ei . Folglich gilt
dim V ≥ dim
mit Gleichheit genau dann, wenn
Ist
m
L
i =1
m
L
i =1
m
M
Ei
i =1
!
m
=
∑ dim Ei
i =1
Ei = V.
Ei = V, so ist die Vereinigung von Basen für E1 , . . . , Em eine Basis für V
aus Eigenvektoren von T.
Hat V eine Basis B aus Eigenvektoren von T, so folgt aus B ⊆
m
L
i =1
Ei = V.
m
L
i =1
Ei , dass
Bemerkung
Insbesondere hat T nicht mehr als dim V verschiedene Eigenwerte.
Beispiele
1. Die reelle Matrix


3 2 4
A 1 =  2 0 2
4 2 3
156
6 Eigenwerte und Eigenvektoren
hat die Eigenwerte −1 und 8 mit entsprechenden Eigenräumen
*  1   −1 +
−2
E− 1 =  1  ,  0  ,
1
0
* 1 +
E8 =  12  .
1
Aus dim E−1 + dim E8 = 2 + 1 = 3 folgt, dass A diagonalisierbar ist.
2. Die reelle Matrix

1 1 0
A 2 =  0 1 0
0 0 2

hat die Eigenwerte 1 und 2 mit entsprechenden Eigenräumen
* 1  +
E1 = 0 ,
0
* 0  +
E2 = 0 .
1
Aus dim E1 + dim E2 = 1 + 1 < 3 folgt, dass A2 diagonalisierbar ist.
Bemerkung
Es sei V ein n-dimensionaler Vektorraum über einem Körper K. Zerfällt das charakteristisches Polynom c einer linearen Abbildung T : V → V in einfache Faktoren, d.h. ist
c(λ) = (−1)n (λ − λ1 ) . . . (λ − λn ),
wobei λ1 , . . . λn verschiedene Skalare sind, so ist T diagonalisierbar, denn in diesem Fall ist dim Ei = 1, i = 1, . . . ,n.
Im Allgemeinen ist die Vielfachheit eines Faktors (λ − λ⋆ ) im charakteristischen
Polynom lediglich eine obere Schranke für die Dimension des Eigenraums Eλ⋆ .
Definition
Es seien V ein endlichdimensionaler Vektorraum über einem Körper K und λ⋆ ein
Eigenwert der linearen Abbildung T : V → V. Die algebraische Vielfachheit von
157
6 Eigenwerte und Eigenvektoren
λ ist die Vielfachheit von (λ − λ⋆ ) als Faktor des charakteristischen Polynoms c
von T, d.h.
max{i : c(λ) = (λ − λ⋆ )i p(λ) für ein Polynom p }.
Proposition
Es seien V ein endlichdimensionaler Vektorraum über einem Körper K und λ⋆
ein Eigenwert der linearen Abbildung T : V → V. Dann gilt
g ≤ a,
wobei g und a die geometrische bzw. algebraische Vielfachheit des Eigenwerts λ
sind.
Beweis
Es sei {v1 , . . . , v g } eine Basis für Eλ⋆ , die wir zu einer Basis {v1 , . . . ,vn } für V ergänzen. Die Darstellungsmatrix für T bezüglich dieser Basis hat die Gestalt

λ⋆
0

λ⋆

..

.


0
λ⋆

A=




0

B
C







,





mit B ∈ K g×(n− g) und C ∈ K (n− g)×(n− g), denn
Tvi = λ⋆ vi ,
i = 1, . . . ,g.
Damit ist
det( A − λIn ) = (λ⋆ − λ) g det(C − λIn ) = (λ − λ⋆ ) g (−1) g det(C − λIn− g ).
Folglich ist
a = max{i : c(λ) = (λ − λ⋆ )i p(λ) für ein Polynom p } ≥ g.
158
6 Eigenwerte und Eigenvektoren
Beispiel
Die charakteristischen Polynome der reellen Matrizen
1 0
1 1
A1 =
,
A2 =
0 1
0 1
sind beide
c ( λ ) = ( λ − 1 )2 .
Die entsprechenden Eigenräume sind jedoch
R2
1
.
und
0
Bemerkung
Ein Polynom mit Koeffizienten aus einem Körper K ist ein formaler Ausdruck
der Form
p = a n x n + a n − 1 x n − 1 + · · · + a1 x + a0 .
Dieser Ausdruck definiert eine Abbildung
K → K,
a 7 → p ( a ).
Ist K endlich, so können zwei Polynome dieselbe Funktion darstellen: Es gilt
bspw.
x3 + 1 = x2 + 1 = x3 + x2 + x + 1
für alle x ∈ Z2 .
Diese Zweideutigkeit verschwindet für unendliche Körper: Ist K unendlich, so
folgt aus p1 (a) = p2 (a) für alle a ∈ K, dass p1 = p2 ist.
Wir haben das folgende Ergebnis über Polynome verwendet:
Es seien p ein nichttriviales Polynom mit Koeffizienten aus einem Körper K
und p(a) = 0 für ein a ∈ K. Dann gibt es eine eindeutig bestimmte natürliche
Zahl n und Polynom q mit
p = ( x − a)n q,
q(a) 6= 0.
159
7 Skalarprodukträume
7 Skalarprodukträume
7.1 Skalarprodukte und Normen
Definitionen
1. Es sei V ein reeller (komplexer) Vektorraum. Ein Skalarprodukt in V ist
eine Abbildung
V × V → R (V × V → C ),
( x,y) 7→ h x, yi
mit den folgenden Eigenschaften.
(i) h· , i ist im ersten Argument linear, d.h.
hα1 x + α2 y, zi = α1 h x, zi + α2 hy,zi
für alle Vektoren x, y, z und alle Skalare α1 , α2 .
(ii) Es gilt
für alle Vektoren x,y.
h x, yi = hy,x i
(iii) h x, x i (ist reell und) erfüllt
h x, x i ≥ 0
mit Gleichheit genau dann, wenn x = 0 ist.
2. Ein mit einem Skalarprodukt h· ,·i versehener reeller oder komplexer Vektorraum V heißt Skalarproduktraum und wird oft als Paar (V,h· ,·i) bezeichnet. Ist V reell, so handelt es sich um einen euklidischen Raum. Ist V
komplex, so handelt es sich um einen unitären Raum.
Bemerkungen
1. Ist V reell, so vereinfacht sich (ii) zu
h x, yi = hy,x i
für alle Vektoren x,y.
160
7.1 Skalarprodukte und Normen
2. Ist V reell, so folgt aus (i) und (ii), dass h· , i auch im zweiten Argument
linear ist:
hz, α1 x + α2 yi = α1 hz, x i + α2 hz,yi
für alle Vektoren x, y, z und alle Skalare α1 , α2 . Das Skalarprodukt ist bilinear.
3. Ist V komplex, so folgt aus (i) und (ii), dass
hz, α1 x + α2 yi = ᾱ1 hz, x i + ᾱ2 hz,yi
für alle Vektoren x, y, z und alle Skalare α1 , α2 . Das Skalarprodukt ist sesquilinear.
4. Jeder Unterraum eines Skalarproduktraums ist wiederum ein Skalarproduktraum.
Beispiele
1. Das kanonische Skalarpodukt im R n wird durch die Formel
hx, yi = xT y = x1 y1 + . . . + xn yn
definiert und meist mit x.y bezeichnet.
2. Das kanonische Skalarpodukt im C n wird durch die Formel
hx, yi = xT ȳ = x1 ȳ1 + . . . + xn ȳn
definiert.
3. Es lässt sich ein Skalarprodukt für jeden reellen oder komplexen Vektorraum V konstruieren. Es sei {vi }i ∈ I eine Basis für V (die eventuell mit Hilfe
des Lemmas von Zorn konstruiert wird). Die Formel
h x, yi = ∑ αi β̄i ,
i∈ I
für
x = ∑ αi vi ,
y = ∑ β i vi
i∈ I
i∈ I
definiert ein Skalarprodukt im V. (Beachte: Alle Summen sind endlich.)
4. Die Formel
h p1 , p2 i =
Z 1
−1
p1 ( x ) p2 ( x ) dx
definiert ein Skalarprodukt für P(R ).
161
7.1 Skalarprodukte und Normen
Definition
1. Es sei V ein reeller oder komplexer Vektorraum. Eine Norm in V ist eine
Abbildung
V → R,
x 7→ k x k
mit den Eigenschaften
(i) k x k ≥ 0 für alle Vektoren x mit Gleichheit genau dann, wenn x = 0 ist,
(ii) kαx k = |α|k x k für alle Vektoren x und Skalare α,
(iii) k x + yk ≤ k x k + kyk für alle Vektoren x und y (Dreiecksungleichung).
2. Ein mit einer Norm k · k versehener reeller oder komplexer Vektorraum V
heißt normierter Raum und wird oft als Paar (V,k · k) bezeichnet.
Nun zeigen wir, dass die Formel
kxk =
q
h x, x i
eine Norm in einem Skalarproduktraum induziert. Dafür brauchen wir die folgende - auch anderweitig hilfreiche - Ungleichung.
Proposition
Es sei V ein Skalarproduktraum. Alle Vektoren x, y ∈ V erfüllen die CauchySchwarz-Ungleichung
|h x, yi| ≤ k x kkyk.
Beweis
Für jedes Skalar t gilt
0 ≤ h x + ty, x + tyi
= h x,x i + thy,x i + t̄h x,yi + tt̄hy, yi
= k x k2 + thy,x i + t̄h x,yi + kyk2 .
Es sei r der Betrag und θ das Argument der komplexen Zahl h x, yi, sodass h x, yi =
reiθ und hy, x i = re−iθ . Mit t = seiθ für ein beliebiges s ∈ R ergibt die letzte Ungleichung
k x k2 + 2sr + s2 kyk2 ≥ 0,
162
7.1 Skalarprodukte und Normen
sodass die quadratische Funktion s 7→ k x k2 + 2sr + s2 kyk2 entweder keine Nullstellen oder genau eine Nullstelle hat. Folglich gilt
4r2 − 4k x k2 kyk2 ≤ 0,
d.h.
|h x, yi|2 ≤ k x k2 kyk2 .
Proposition
Es sei V ein Skalarproduktraum. Die Formel
q
k x k = h x, x i
definiert eine Norm in V.
Beweis
(i) Es gilt k x k2 = h x, x i ≥ 0 mit Gleichheit genau dann, wenn x = 0 ist.
(ii) Es gilt kαx k2 = hαx, αx i = αᾱh x, x i = |α|2 k x k2 .
(iii) Es gilt
k x + yk2 = h x + y, x + yi
= h x, x i + h x, yi + hy, x i + hy, yi
= k x k2 + h x, yi + h x, yi + kyk2
= k x k2 + 2Re h x, yi + kyk2
≤ k x k2 + 2|h x, yi| + kyk2
≤ k x k2 + 2k x kkyk + kyk2
(Cauchy-Schwarz-Ungleichung)
= (k x k + kyk)2 .
Bemerkung
Falls die Norm k · k in einem normierten Vektorraum V durch ein Skalarprodukt
h· , i induziert wird, erfüllt sie die Parallelogrammidentität
k x + yk2 + k x − yk2 = 2(k x k2 + kyk2 )
163
7.1 Skalarprodukte und Normen
für alle x,y ∈ V. Dies folgt nämlich aus den Identitäten
k x + yk2 = k x k2 + h x, yi + hy, x i + kyk2
und
k x − yk2 = k x k2 − h x, yi − hy, x i + kyk2 .
Beispiel
Die Maximumsnorm
kxk∞ := max{| x1 |, . . . ,| xn |}
für R n wird nicht von einem Skalarprodukt induziert. Es ist nämlich
ke1 k∞ = max{1,0, . . .} = 1,
ken k∞ = max{. . . ,0,1} = 1,
ke1 + en k = max{1,0, . . . ,0,1} = 1,
ke1 − en k = max{1,0, . . . ,0,1} = 1,
sodass die Parallelogrammidentität nicht erfüllt ist.
Lemma
Die Norm in einem normierten Raum wird genau dann von einem Skalarprodukt
induziert, wenn sie die Parallelogrammidentität erfüllt.
Notation
Die kanonische Norm im R n wird eher mit | · | bezeichnet, d.h.
q
√
|x| = x.x = x12 + · · · + x2n ,
x ∈ Rn.
Bemerkung
Die Norm misst die ‘Länge’ eines Vektors in einem normierten Raum. Ihre Eigenschaften stimmen mit der ‘üblichen’ Eigenschaften der Länge im euklidischen
Raum R2 bzw. R3 .
164
7.1 Skalarprodukte und Normen
Veranschaulichen wir Vektoren im R2 und R3 als Pfeile in der Ebene bzw. Raum,
so können wir die Dreiecksungleichung geometrisch interpretieren:
x+y
0
y
Die Länge des Vektors x + y ist nicht größer als die
Summe der Längen der Vektoren x und y.
x
Das Skalarprodukt misst dagegen den ‘Winkel’ zwischen zwei nichttrivialen Vektoren in einem euklidischen Raum. Wegen der Cauchy-Schwarz-Ungleichung gilt
−1 ≤
h x, yi
≤1
k x kkyk
für alle Vektoren x, y 6= 0, und dies führt uns zur folgenden Definition.
Definition
Der Winkel θ ∈ [0,π ] zwischen zwei Vektoren x, y 6= 0 in einem Skalarproduktraum V wird durch die Formel
θ = arccos
h x, yi
k x kkyk
definiert.
Bemerkung
Auch diese Definition stimmt mit der ‘üblichen’ Definition des Winkels zwischen
zwei nichttrivialen Vektoren x, y im euklidischen Raum R2 bzw. R3 überein.
Durch Drehung und Spiegelung dürfen wir annehmen, dass x = xe1 und y = ye
ist, wobei e ein Einheitsvektor im Unterraum he1 , e2 i mit nichtnegativer zweiter Komponente ist. Der Winkel θ ∈ [0,π ] zwischen diesen Vektoren ist auch der
Winkel zwischen e1 und e, sodass e = (cos θ, sin θ ).
165
7.2 Elementare Skalarproduktraumtheorie
y
e
θ
e1
Nun gilt aber
x
e1 .e
= 1. cos θ + 0. sin θ = cos θ.
|e1 ||e|
7.2 Elementare Skalarproduktraumtheorie
Definition
Es sei V ein Skalarpoduktraum.
1. Zwei Vektoren u, v ∈ V heißen orthogonal, falls hu, vi = 0.
2. Eine Teilmenge U von V heißt orthogonal, falls hu1 , u2 i = 0 für alle u1 , u2 ∈
U mit u1 6= u2 .
3. Eine orthogonale Teilmenge U von V heißt orthonomal, falls kuk = 1 für
alle u ∈ U ist.
Bemerkungen
1. 0 ist orthogonal zu jedem Vektor v ∈ V, denn
h0, vi = h0 + 0, vi = h0, vi + h0, vi,
so dass
h0, vi = 0.
166
7.2 Elementare Skalarproduktraumtheorie
2. Nun sei V ein euklidischer Raum. Aus der Formel
cos θ =
hu, vi
kukkvk
für den Winkel θ zwischen zwei Vektoren u, v 6= 0 folgt, dass θ = π2 (‘u und
v sind senkrecht zueinander’) genau dann, wenn u und v orthogonal sind.
3. Ist U eine orthogonale Teilmenge von U mit u 6= 0 für alle u ∈ U, so ist
u
:u∈U
k uk
orthonormal.
4. In einer orthonormalen Teilmenge {ui }i ∈ I von V gilt hui , u j i = δij .
Proposition
Es sei U eine orthogonale Teilmenge von V mit u 6= 0 für alle u ∈ U. Dann ist U
linear unabhängig.
Beweis
Es sei {v1 , . . . , vn } eine endliche Teilmenge von U mit
α1 v1 + · · · + αn vn = 0.
Dann ist
und folglich
hα1 v1 + · · · + αn vn , vi i = h0, vi i
α1 h v1 , vi i + · · · + αi h vi , vi i + · · · + α n h v n , vi i = 0
| {z }
| {z }
=0
=0
für i = 1, . . . ,n. Da jedoch hvi , vi i > 0, ist
αi = 0,
i = 1, . . . ,n.
Definition
Es sei B eine Basis für den endlichdimensionalen Skalarproduktraum V. Ist B eine
orthonormale Teilmenge von V, so heißt sie Orthonomalbasis.
167
7.2 Elementare Skalarproduktraumtheorie
Proposition
Es sei {v1 , . . . ,vn } eine Orthonormalbasis für den endlichdimensionalen Skalarproduktraum V. Dann sind die Koeffizienten in der Darstellung
v = α1 v1 + · · · + α n v n
eines Vektors v ∈ V als lineare Kombination der Basisvektoren durch die Formeln
αi = hv, vi i,
i = 1, . . . ,n
gegeben.
Beweis
Aus
v = α1 v1 + · · · + α n v n
folgt
hv, vi i = α1 hv1 , vi i + · · · + αi hvi , vi i + · · · + αn hvn , vi i
| {z }
| {z }
| {z }
=0
=0
=1
= αi
für i = 1, . . . ,n.
Korollar
Es sei {v1 , . . . ,vn } eine orthonormale Teilmenge eines endlichdimensionalen Skalarproduktraums V. Dann gilt die Identität
n
v=
∑ hv, vi ivi
(1 )
i =1
für alle v ∈ V genau dann, wenn {v1 , . . . ,vn } eine Orthonormalbasis für V ist.
Beweis
Ist {v1 , . . . ,vn } eine Orthonormalbasis für V, so gilt (1) wegen der letzten Proposition.
Nun gilt (1) für alle v ∈ V. Somit ist hv1 , . . . ,vn i = V. Da {v1 , . . . ,vn } linear
unabhängig ist, ist sie eine Basis für V.
168
7.2 Elementare Skalarproduktraumtheorie
Lemma (Besselsche Ungleichung)
Es sei {v1 , . . . ,vn } eine orthonormale Teilmenge eines Skalarproduktraums V und
v ∈ V. Dann gilt die Ungleichung
n
∑ |hv, vi i|2 ≤ kvk2
i =1
mit Gleichheit genau dann, wenn
n
∑ hv, vi ivi .
v=
i =1
Beweis
Für alle Skalare α1 , αn gilt
*
0≤
n
n
i =1
n
i =1
v − ∑ αi vi , v − ∑ αi vi
+
n
n
n
= hv,vi − ∑ αi hvi , vi − ∑ ᾱi hv, vi i + ∑ ∑ αi ᾱ j hvi , v j i
| {z }
i =1 j =1
i =1
i=
= δij
n
n
n
i =1
i =1
i =1
= kvk2 − ∑ αi hvi , vi − ∑ ᾱi hv, vi i + ∑ |αi |2
mit Gleichheit genau dann, wenn
n
v − ∑ αi vi = 0.
i =1
Mit αi = hv, vi i ergibt diese Ungleichung
n
n
n
i =1
i =1
i =1
0 ≤ kvk2 − ∑ |hv, vi i|2 − ∑ |hv, vi i|2 + ∑ |hv, vi i|2 =
d.h.
k v k2 ≥
n
∑ |hv, vi i|2 ,
i =1
n
∑ |hv, vi i|2 ,
i =1
mit Gleichheit genau dann, wenn
n
v − ∑ hv, vi ivi = 0.
i =1
169
7.2 Elementare Skalarproduktraumtheorie
Korollar
Es sei {v1 , . . . ,vn } eine orthonormale Teilmenge eines endlichdimensionalen Skalarproduktraums V. Dann gilt die Identität
k v k2 =
n
∑ |hv, vi i|2
i =1
für alle v ∈ V genau dann, wenn {v1 , . . . ,vn } eine Orthonormalbasis für V ist.
Beweis
(2) gilt für alle v ∈ V genau dann, wenn
n
v=
∑ hv, vi ivi
(2 )
i =1
für alle v ∈ V, und dies gilt wiederum genau dann, wenn {v1 , . . . ,vn } eine Orthonormalbasis für V ist.
Lemma (Gram-Schmidt-Verfahren)
Jedes endlichdimensionale Skalarproduktraum hat eine Orthonormalbasis.
Beweis
Es sei {v1 , . . . ,vn } eine Basis für V. Definiere induktiv
f i = vi − h vi , e1 i e1 − · · · − h vi , ei −1 i ei −1
und
ei =
für i = 1, . . . ,n.
1
f
k fi k i
Nun zeigen wir durch vollständige Induktion (nach k): f k 6= 0, he1 , . . . , ek i = hv1 , . . . , vk i
und hei , e j i = δij für i,j ≤ k.
Der Fall k = 1 ist trivial.
170
7.2 Elementare Skalarproduktraumtheorie
Nun sei das Ergebnis für k = ℓ richtig.
Offensichtlich ist f ℓ+1 eine lineare Kombination von e1 , . . . , eℓ , vℓ+1 und vℓ+1
eine lineare Kombination von e1 , . . . , eℓ , f ℓ+1 . Folglich gilt
he1 , . . . , eℓ , f ℓ+1 i = hv1 , . . . ,vℓ , vℓ+1 i.
Da v1 , . . . , vℓ+1 eine minimale erzeugende Menge für hv1 , . . . ,vℓ+1 i ist, ist
f ℓ+1 6= 0. Somit ist
he1 , . . . , eℓ , eℓ+1 i = he1 , . . . , eℓ , f ℓ+1 i = hv1 , . . . ,vℓ , vℓ+1 i.
Ferner ist
heℓ+1 , e j i =
=
=
=
1
k f ℓ+1 k
1
k f ℓ+1 k
1
k f ℓ+1 k
1
k f ℓ+1 k
=0
h f ℓ+1 , f j i
*
ℓ
vℓ+1 − ∑ hvℓ+1 ,ei iei , e j
i =1
+
ℓ
hvℓ+1 , e j i − ∑ hvℓ+1 , ei i hei , e j i
| {z }
i =1
= δij
hvℓ+1 , e j i − hvℓ+1 , e j i
!
für j = 1, . . . ,ℓ, und offensichtlich ist heℓ+1 , eℓ+1 i = keℓ+1 k2 = 1. Insgesamt ist
also hei , e j i = δij für i,j ≤ ℓ + 1.
Bemerkung
Ist {v1 , . . . , vk } eine orthonormale Teilmenge von U für ein k ≤ n, so ergibt das
Gram-Schmidt Verfahren ei = vi für i = 1, . . . , k.
Korollar (Basisergänzungssatz)
Es seien V ein endlichdimensionaler Skalarproduktraum mit dim V = n, U ein
Unterraum von V und {v1 , . . . ,vm } eine Orthonormalasis für U. Dann gibt es Vektoren vm+1 , . . . , vn ∈ V \ U, so dass {v1 , . . . , vn } eine Orthonormalbasis für V ist.
171
7.2 Elementare Skalarproduktraumtheorie
Beweis
Ergänze {v1 , . . . ,vm } zu einer Basis {v1 , . . . ,vn } für V und wende das Gram-SchmidtVerfahren auf {v1 , . . . ,vn } an.
Beispiel
Finden Sie eine Orthonormalbasis für den Unterraum hv1 , v2 , v3 i von R4 , wobei
 
 
 
2
3
1
 −2
1 
 1
 
 

v1 = 
 1  , v2 =  1  , v3 =  − 4  ,
0
3
1
und ergänzen Sie diese zu einer Orthonormalbasis für R4 .
Lösung
Zunächst bemerken wir, dass v1 , v2 , v3 linear unabhängig sind.
Wir setzen
f 1 = v1 ,
 
1

1
1 1
,
e1 =
f1 = 
| f1 |
2  1
1
f2 = v2 − (v2 .e1 )e1
 
 
1
3
1 
 1
1
 

=
1 − 4. 2 1
1
3
 
1
 −1

=
 −1 ,
1
 
1
1
1
−
1
,
e2 =
f2 = 

| f2 |
2 −1
1
172
7.2 Elementare Skalarproduktraumtheorie
f3 = v3 − (v3 .e1 )e1 − (v3 .e2 )e2
 
 
 
1
1
2




 −2
 + 2. 1 1 − 4. 1 −1
=
 −4
2 1 
2  −1
1
1
0
 
1
 1 

=
 −1 ,
−1
 
1

1
1
1 
,
e3 =
f3 = 
| f3 |
2  −1
−1
sodass {e1 , e2 , e3 } eine Orthonormalbasis für hv1 , v2 , v3 i ist.
Der Vektor
 
0
 0

v4 = 
 0
1
liegt nicht in he1 , e2 , e3 i, so dass {e1 , e2 , e3 , v4 } eine Basis für R4 ist. Nun wenden
wir das Gram-Schmidt-Verfahren auf diese Basis an. Wir setzen
f4 = v4 − (v4 .e1 )e1 − (v4 .e2 )e2 − (v4 .e3 )e3
 
 
 
 
0
1
1
1
 0 1 1  1  1 1  − 1  1 1  1 

 
 
 
=
 0 − 2 . 2  1  − 2 . 2  − 1  + 2 . 2  − 1 
1
1
1
−1
 
−1
1
1 
,
= 
4  −1
1
 
−1
1
1
1 
,
f4 = 
e4 =
| f4 |
2  −1
1
sodass {e1 , e2 , e3 , e4 } eine Orthonormalbasis für R4 ist.
173
7.2 Elementare Skalarproduktraumtheorie
Definition
Es sei U ein Unterraum eines Skalarproduktraums V. Das orthogonale Komplement von U ist die Menge
U ⊥ := {v ∈ V : hv,ui = 0 für alle u ∈ U }.
Bemerkungen
1. U ⊥ ist ein Unterraum von V, denn 0 ∈ U ⊥ und das Skalarprodukt ist im
ersten Argument linear.
2. U ⊥⊥ = U.
3. V ⊥ = {0}. Gilt nämlich w ∈ V ⊥ , d.h. hw, vi = 0 für alle v ∈ V, so gilt insbesondere hw, wi = 0 und somit auch w = 0.
Proposition
Es sei U ein endlichdimensionaler Unterraum eines Skalarproduktraums V. Dann
gilt
V = U ⊕ U⊥.
Beweis
Es sei {v1 , . . . , vm } eine Orthonormalbasis für U. Für jedes v ∈ V schreiben wir
v = uv + wv
mit
uv = hv,v1 iv1 + · · · + hv, vm ivm ,
wv = v − uv .
174
7.2 Elementare Skalarproduktraumtheorie
Offensichtlich ist u ∈ U und
*
m
hwv , v j i =
v − ∑ hv, vi ivi , v j
i =1
+
m
= hv, v j i − ∑ hv, vi i hvi , v j i
| {z }
i =1
= δij
= hv, v j i − hv, v j i
=0
für j = 1, . . . , n. Für jedes
u = α1 v1 + · · · + α m v m ∈ U
gilt dann
hwv , ui =
m
∑ αi hwv , vi i = 0,
i =1
sodass wv ∈ U ⊥ ist.
Somit ist V = U + U ⊥ . Für v ∈ U ∩ U ⊥ gilt jedeoch hv, vi = 0 und daher v = 0,
d.h. U ∩ U ⊥ = {0}. Folglich ist V = U ⊕ U ⊥ .
Definition
Es sei U ein Unterraum eines Skalarproduktraums V mit der Eigenschaft, dass
V = U ⊕ U⊥.
Die eindeutige Projektion P : V → V mit Im P = U und ker P = U ⊥ ist die orthogonale Projektion auf U.
Bemerkung
Ist U endlichdimensional, so ist
Pv = hv,v1 iv1 + · · · + hv, vm ivm ,
wobei {v1 , . . . ,vm } eine Orthonormalbasis für U ist.
175
7.3 Die adjungierte Abbildung
7.3 Die adjungierte Abbildung
Lemma
Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine lineare Abbildung. Dann gibt es eine eindeutige lineare Abbildung T ∗ : V → V mit
der Eigenschaft
hTv, wi = hv, T ∗ wi
für alle v, w ∈ V.
Beweis
Es sei {v1 , . . . ,vn } eine Orthonormalbasis für V und definiere
T∗w =
n
∑ hTvi ,wivi
i =1
für w ∈ V. Somit gilt
*
hv j , T ∗ wi =
n
v j , ∑ hTvi ,wivi
i =1
+
n
=
j , vi i
∑ hTvi ,wi |hv{z
}
i =1
= δij
= hTv j , wi
fïr j = 1, . . . ,n. Für jedes
n
v=
∑ αjvj ∈ V
j =1
gilt dann
hv, T ∗ wi =
*
n
∑ αj vj, T∗ w
j =1
+
n
=
∑ α j hv j , T ∗ wi
j =1
n
=
∑ α j hTv j wi
j =1
=
*
n
T
∑ αjvj
j =1
!
,w
+
= hTv, wi.
176
7.3 Die adjungierte Abbildung
Die Abbildung T ∗ ist linear: Es gilt
hv, T ∗ (w1 + w2 )i = hTv, w1 + w2 i
= hTv, w1 + hTv, w2 i
= hv, T ∗ w1 i + hv,T ∗ w2 i
= hv, T ∗ w1 + T ∗ w2 i,
so dass
hv, T ∗ (w1 + w2 ) − T ∗ w1 − T ∗ w2 i = 0
für alle v, w1 , w2 ∈ V. Folglich ist
T ∗ ( w1 + w2 ) − T ∗ w1 − T ∗ w2 = 0
für alle w1 , w2 ∈ V. Dasgleiche Argument zeigt
T ∗ (αw) − αT (w) = 0
für alle w ∈ V und alle Skalare α.
Nun seien T1∗ , T2∗ : V → V lineare Abbildungen mit der Eigenschaft
hTv, wi = hv, T1∗ wi,
hTv, wi = hv, T2∗ wi
für alle v, w ∈ V. Dann gilt
0 = hTv, wi − hTv, wi = hv, T1∗ wi − hv, T2∗ wi = hv, T1∗ w − T2∗ wi
für alle v, w ∈ V. Somit ist T1∗ w − T2∗ w = 0 für alle w ∈ V, d.h. T1∗ = T2∗ .
Definition
Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine lineare Abbildung. Die im letzten Lemma konstruierte Abbidlung T ∗ : V → V ist
die adjungierte Abbildung zu T.
177
7.3 Die adjungierte Abbildung
Proposition
Es seien V ein endlichdimensionaler Skalarproduktraum und A = (aij ) die Darstellungsmatrix einer linearen Abbildung T : V → V bezüglich einer Orthonormalbasis {v1 , . . . ,vn } für V. Dann ist die Darstellungsmatrix der adjungierten Abbildung T ∗ : V → V bezüglich dieser Basis die Matrix A∗ := (ā ji ).
Beweis
Es gilt
n
Tu j =
∑ hTu j , ui iui ,
j = 1, . . . ,n,
i =1
sodass
aij = hTu j ,ui i.
Nun ist
T∗ uj =
n
∑ h T ∗ u j , ui i ui ,
j = 1, . . . ,n,
i =1
sodass
aij∗ = hT ∗ u j ,ui i = hu j , Tui i = hTui , u j i = ā ji .
Bemerkung
Ist {e1 , . . . ,en } eine Orthonormalbasis für V, so sind die Skalare hTv, wi und hv, T ∗ wi
durch die R n - bzw. C n -Skalarprodukte von Av mit w und v mit A∗ w gegeben,
wobei v und w die Darstellungsvektoren von v und w bezüglich {e1 , . . . ,en } sind.
Proposition
Es seien V ein endlichdimensionaler Skalarproduktraum, S, T : V → V lineare
Abbildungen und λ ein Skalar. Dann gilt
(i) (T ∗ )∗ = T,
(ii) (S + T )∗ = S∗ + T ∗ ,
(iii) (λT )∗ = λ̄T ∗ ,
178
7.3 Die adjungierte Abbildung
(iv) (ST )∗ = T ∗ S∗ .
Proposition
Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine linear Abbildung. Dann gilt
(i) (Im T )⊥ = ker T ∗ ,
(ii) (ker T )⊥ = Im T ∗ ,
(iii) (Im T ∗ )⊥ = ker T,
(iv) (ker T ∗ )⊥ = Im T.
Beweis
(i) Aus
folgt
d.h.
hv, T ∗ x i = hTv, x i
für jedes v ∈ V
T∗ x = 0
⇔
x ∈ T [V ] ⊥ ,
x ∈ ker T ∗
⇔
x ∈ (Im T )⊥ .
(ii) Aus (i) folgt
(Im T ∗ )⊥ = ker(T ∗ )∗ = ker T
und somit
(Im T ∗ )⊥⊥ = (ker T )⊥ .
| {z }
= Im T ∗
(iii) und (iv) folgen ebenso aus (i), (ii) mit T ∗ an der Stelle von T.
Proposition
Es sei V ein endlichdimensionaler Skalarproduktraum. Eine Projektion P : V → V
ist genau dann orthogonal, wenn P∗ = P ist.
179
7.3 Die adjungierte Abbildung
Beweis
Es sei P∗ = P. Da P eine Projektion ist, gilt
V = Im P ⊕ ker P.
Es ist aber
ker P = (Im P∗ )⊥ = (Im P)⊥ ,
so dass die Projektion orthogonal ist.
Nun sei P eine orthogonale Projektion, so das
V = Im P ⊕ ker P
mit
ker P = (Im P)⊥ .
Aus P2 = P folgt ( P∗ )2 = P∗ , so dass P∗ ebenfalls eine Projektion ist, und es
gilt
Im P∗ = (ker P)⊥ = Im P⊥⊥ = Im P
und
ker P∗ = (Im P)⊥ = ker P.
Aus der Eindeutigkeit von Projektionen folgt dann P∗ = P.
Bemerkung
Es sei V ein Skalarproduktraum und v ∈ V. Die Formel
Tv (w) = hw, vi,
w ∈ V,
definiert ein lineares Funktional auf V, d.h. ein Element T des Dualraums T ′ . Das
nächste Lemma besagt, dass die Umkehraussage für einen endlichdimensionalen
Skalarproduktraum auch richtig ist.
Lemma (Rieszscher Darstellungssatz)
Es sei V ein endlichdimensionaler Skalarproduktraum. Zu jedem T ∈ V ′ gibt es
einen eindeutigen Vektor v T ∈ V derart, dass
T (v) = hv, v T i
für alle v ∈ V.
180
7.3 Die adjungierte Abbildung
Beweis
Es sei {v1 , . . . ,vn } eine Orthonormalbasis für V und definiere
n
vT =
∑ T ( vi ) vi .
i =1
Dann ist
hv j , v T =
*
n
v j , ∑ T ( vi ) vi
i =1
+
n
=
j , vi i
∑ T (vi ) |hv{z
}
i =1
= δij
= T ( v j ),
für j = 1, . . . , n. Für jedes
n
v=
∑ αjvj ∈ V
j =1
gilt dann
n
T (v) =
∑ α j T (v j )
j =1
n
=
∑ α j hv j , v T i
j =1
=
*
n
∑ α j v j , vT
j =1
+
= hv, v T i.
Nun haben v1T , v2T ∈ V die Eigenschaft
Tv = hv, v1T i,
Tv = hv, v2T i
für alle v ∈ V. Dann gilt
0 = hv, v1T i − hv, v2T i = hv, v1T − v2T i
für alle v ∈ V. Somit ist v1T − v2T = 0, d.h. v1T = v2T .
181
7.3 Die adjungierte Abbildung
Beispiele
1. Jede lineare Abbildung T : R n → R hat die Form
Tv = v.t
für einen festen Vektor t ∈ R n .
2. Es sei p ∈ Pn (R ) und x0 eine Zahl in (−1,1). Dann ist T p = p( x0 ) ein lineares Funktional auf Pn (R ). Folglich gibt es ein deutiges Polynom q ∈ Pn (R )
derart, dass
Z
1
−1
p( x )q( x ) dx = p( x0 ).
Proposition
Es sei V ein endlichdimensionales Skalarproduktraum, und zu jedem T ∈ V ′ sei
v T der nach dem Rieszschen Darstellungssatz eindeutig bestimmte Repräsentant.
Dann ist die Abbildung ψ : T 7→ v T eine Bijektion V ′ → V und hat die weiteren
Eigenschaften
ψ(T1 + T2 ) = ψ(T1 ) + ψ(T2 ),
ψ(αT ) = ᾱψ(T )
für alle T, T1 , T2 ∈ V ′ und Skalare α.
Beweis
ψ : V ′ → V ist offensichtlich bijektiv (die Injektivität folgt aus dem Rieszschen
Darstellungssatz, die Surjektivität aus der Bemerkung, dass jedes Element v ∈ V
ein Funktional Tv ∈ V ′ durch die Formel Tv (·) = h· ,vi definiert). Ferner gilt
hv, ψ(T1 + T2 )i = T1 v + T2 v
= hv,v T1 i + hv,v T2 i
= hv, v T1 + v T2 i
= hv, ψ(T1 ) + ψ(T2 )i
und
hv, ψ(αT )i = αTv
= αhv,v T i
= hv, ᾱv T i
= hv, ᾱψ(T )i
182
7.3 Die adjungierte Abbildung
für alle v ∈ V, so dass
ψ(T1 + T2 ) = ψ(T1 ) + ψ(T2 ),
ψ(αT ) = ᾱψ(T )
Bemerkung
Ist V ein euklidischer Raum, so ist ψ : V ′ → V ein Isomorphismus. Ansonsten ist
er ein Anti-Isomorphismus.
Proposition
Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine lineare Abbildung. Ferner seien T ∗ die adjungierte Abbildung zu T, d.h. die eindeutige Abbildung mit der Eigenschaft
hTv,wi = hv, T ∗ wi,
v,w ∈ V,
und T ′ : V ′ → V ′ die duale Abbildung zu T, d.h. die durch die Formel
T ′ f = f T,
definierte Abbildung.
Dann gilt
f ∈ V′
T ∗ = ψT ′ ψ−1 ,
wobei ψ : V ′ → V der Rieszsche Anti-Isomorphismus ist (so dass ψ−1 (v) = h· , vi).
V′
T′
V′
ψ −1
ψ
V
T∗
V
Beweis
Es gilt
T ′ (ψ−1 (v))(w) = ψ−1 (v)Tw = hTw, vi = hw, T ∗ vi = ψ−1 (T ∗ v)(w)
für alle v,w ∈ V, so dass
T ′ ψ −1 = ψ −1 T ∗ .
183
7.4 Normale Abbildungen
7.4 Normale Abbildungen
Definitionen
Es sei V ein endlichdimensionaler Skalarproduktraum. Eine lineare Abbildung
T : V → V heißt
(i) normal, falls TT ∗ = T ∗ T,
(ii) selbstadjungiert, falls T ∗ = T,
(iii) orthogonal, falls TT ∗ = I und V reell ist,
(iv) unitär, falls TT ∗ = I und V komplex ist.
Bemerkung
Eine selbstadjungierte oder orthogonale bzw. unitäre Abbildung ist normal.
Proposition
Es sei V ein endlichdimensionaler Skalarproduktraum. Die folgenden Aussagen
über eine linear Abbildung T : V → V sind äquivalent.
(i) T ist normal.
(ii) hTv, Twi = hT ∗ v, T ∗ wi für alle v,w ∈ V.
(ii) k Tvk = k T ∗ vk für alle v ∈ V.
Beweis
(i) ⇔ (ii): Es gilt
⇔
⇔
⇔
⇔
hTv, Twi = hT ∗ v, T ∗ wi
hv, T ∗ Twi = hv, TT ∗ wi
hv, T ∗ Tw − TT ∗ wi = 0
T ∗ Tw = TT ∗ w
T ∗ T = TT ∗
für alle v,w ∈ V
für alle v,w ∈ V
für alle v,w ∈ V
für alle w ∈ V
184
7.4 Normale Abbildungen
(ii) ⇔ (iii): Die Implikation (ii) ⇒ (iii) ist offensichtlich. Ist dagagen (iii) richtig,
so folgt aus der Identität
1
h x, yi = k x + yk2 − k x − yk2 + ik x + iyk2 − ik x − iyk2 ,
x, y ∈ V,
4
dass (ii) ebenfalls richtig ist.
Korollar
Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine normale Abbildung.
1. Es gilt ker T = ker T ∗ .
2. Ein Vektor v ∈ V ist genau dann Eigenvektor von T zum Eigenwert λ, wenn
v Eigenvektor von T ∗ zum Eigenwert λ̄ ist.
Beweis
1. Aus der letzten Proposition folgt
kTvk = kT ∗ vk
für jedes v ∈ V. Folglich ist Tv = 0 genau dann, wenn T ∗ v = 0 ist.
2. Es gilt
(λI − T )∗ = λ̄I ∗ − T ∗ = λ̄I − T ∗ ,
und somit impliziert die erste Aussage
ker(λI − T ) = ker(λ̄I − T ∗ ).
Proposition
Es sei V ein endlichdimensionaler Skalarproduktraum. Die folgenden Aussagen
über eine linear Abbildungen T : V → V sind äquivalent.
(i) T ist orthogonal bzw. unitär.
(ii) T ist skalarprodukttreu, d.h. hTv, Twi = hv, wi für alle v, w ∈ V.
(ii) T ist normtreu, d.h. k Tvk = kvk für alle v ∈ V.
185
7.4 Normale Abbildungen
Beweis
(i) ⇔ (ii): Es gilt
hv, wi = hTT ∗ v, wi
| {z }
= hTv,Twi
für alle v,w ∈ V genau dann, wenn TT ∗ = I.
(ii) ⇔ (iii): Eine skalarprodukttreue Abbildung ist offensichtlich normtreu. Ist sie
dagegen normtreu, so folgt aus der Identität
h x, yi =
1
k x + yk2 − k x − yk2 + ik x + iyk2 − ik x − iyk2 ,
4
dass sie skalarprodukttreu ist.
x, y ∈ V,
Korollar
Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine orthogonale bzw. unitäre Abbildung.
1. T −1 : V → V ist ebenfalls orthogonal bzw. unitär.
2. Ist λ Eigenwert von T, so ist |λ| = 1.
Satz
Es seien V ein endlichdimensionaler Skalarproduktraum und T : V → V eine normale Abbildung. Ferner habe T die folgende zusätzliche Eigenschaft, falls V ein
euklidischer Raum ist:
Das charakteristische Polynom c von T zerfällt in (nicht notwendigerweise
verschiedene) einfache Faktoren d.h. es gibt (nicht notwendigerweise verschiedene) Skalare λ1 , . . . , λn derart, dass
c(λ) = (−1)
n
n
∏ ( λ − λi ).
i =1
Dann hat V eine Orthonormalbasis aus Eigenvektoren von T und insbesondere
ist T diagonalisierbar.
186
7.4 Normale Abbildungen
Beweis
Diesen Satz beweisen wir durch vollständige Induktion über die Dimension n
des Raums V. Der Fall n = 1 ist trivial.
Sei nun die Aussage für n = k richtig und betrachte eine normale Abbildung T :
V → V, wobei V ein (k + 1)-dimensionaler unitärer Raum ist.
Da ihr charakteristisches Polynom in einfache Faktoren zerfällt, hat T einen Eigenwert λ + 0. Es sei v ein dazugehöriger Eigenvektor mit kvk = 1. Mit U = hvi
gilt
V = U ⊕ U⊥
und dim U ⊥ = k.
U ⊥ ist ein T-invarianter Unterraum von V. Für u ∈ U ⊥ gilt nämlich
hTu, vi = hu, T ∗ vi = hu, λ0 vi = λ0 hu, vi = 0
und folglich
hTu, αvi = 0
für alle Skalare α, sodass Tu ∈ U ⊥ ist.
Die Darstellungsmatrix von T bezüglich der Basis {v,u1 , . . . ,uk } für V, wobei
{u1 , . . . ,uk } eine Basis für U ⊥ ist, hat die Form
λ0 0
,
0 Ã
wobei à die Darstellungsmatrix von T |U ⊥ bezüglich der Basis {u1 , . . . ,uk } für
U ⊥ ist. Folglich gilt c(λ) = (λ0 − λ)c̃ (λ), wobei c̃(λ) das charakteristische
Polynom von T |U ⊥ ist, so dass c̃ ebenfalls in einfache Faktoren zerfällt.
Der Induktionsannahme zufolge gibt es eine orthogonale Basis {v1 , . . . ,vk } für U ⊥
aus Eigenvektoren von T, und {v,v1 , . . . ,vk } ist eine Orthonormalbasis für V aus
Eigenvektoren von T.
Somit sind alle normalen Abbildungen eines unitären Raums diagonalisierbar.
Nun zeigen wir, dass selbstadjungierte Abbildungen eines euklidischen Raums
ebenfalls diagonalisierbar sind, indem wir das Kriterium für reelle Räume im
letzten Satz verifizieren.
187
7.4 Normale Abbildungen
Proposition
Es seien V ein endlichdimensionaler euklidischer Raum und T : V → V eine
selbstadjungierte Abbildung. Dann zerfällt das charakteristische Polynom c von
T in (nicht notwendigerweise verschiedene) einfache Faktoren d.h. es gibt (nicht
notwendigerweise verschiedene) reelle Zahlen λ1 , . . . , λn derart, dass
n
c(λ) = (−1)n ∏ (λ − λi ).
i =1
Beweis
Wir komplexifizeren V, indem wir Multiplikation mit komplexen Skalaren zulassen – und somit V mit V ⊕ iV ersetzen – und T sowie das Skalarprodukt dementsprechend fortsetzen. Somit verfällt c in einfache Faktoren (λ − λi ), i = 1, . . . ,n,
wobei λ1 , . . . , λn komplexe Zahlen sind. Wir zeigen, dass diese Zahlen reell sind.
Da λi ein Eigenwert von T ist, gibt es v 6= 0 mit
Tv = λi v.
Da T selbstadjungiert ist, gilt auch
⇒
⇒
⇒
hTv, vi = hv, Tvi
hλi v, vi = hv, λi vi
λi hv,vi = λ̄i hv,vi
(λi − λ̄i ) hv,vi = 0
| {z }
6= 0
und folglich λi = λ̄i , d.h. λi ist reell.
Bemerkung
Derselbe Beweis zeigt, dass die Eigenwerte einer selbstadjungierten Abbildungen
eines unitären Raums reell sind.
Korollar
Es seien V ein endlichdimensionaler euklidischer Raum und T : V → V eine
selbstadjungierte Abbildung. Dann hat V eine Orthonormalbasis aus Eigenvektoren von T und insbesondere ist T diagonalisierbar.
188
7.4 Normale Abbildungen
Bemerkung
Es seien V ein endlichdimensionaler Skalarproduktraum, T : V → V eine diagonalisierbare normale Abbildung und λ1 , . . . , λm die verschiedenen Eigenwerte
von T, sodass
V=
m
M
Ei .
i =1
Aus der nächsten Proposition folgt, dass die Vereinigung von Orthonormalbasen
für E1 , . . . , Em eine Orthonormalbasis für V ist.
Proposition
Es seien V ein endlichdimensionaler Skalarproduktraum, T : V → V eine diagonalisierbare normale Abbildung und v1 , v2 Eigenvektoren zu verschiedenen
Eigenwerten λ1 , λ2 . Dann ist v1 orthogonal zu v2 .
Beweis
Es gilt
λ1 hv1 , v2 i = hλ1 v1 , v2 i = hTv1 , v2 i = hv1 , T ∗ v2 i = hv1 , λ̄2 v2 i = λ2 hv1 , v2 i,
sodass
(λ1 − λ2 )hv1 , v2 i = 0.
| {z }
6= 0
Beispiel
Die lineare Abbildung R3 → R3 , x 7→ Ax mit


3 2 4
A =  2 0 2
4 2 3
ist selbstadjungiert, denn
( Ax).y = ( Ax)T y = xT AT y = xT ( Ay) = x.( Ay)
189
7.4 Normale Abbildungen
für alle x, y ∈ R3 . Sie hat die Eigenwerte −1 und 8 mit entsprechenden Eigenräumen
*  1   −1 +
−2

E− 1 =
1 , 0  ,
1
0


* 1 +
E8 =  12  .
1
Mit Hilfe des Gram-Schmidt-Verfahrens können wir die Orthonormalbasen

 
 
−1
−4
 1
1  


2 , √
−2
B−1 = √
 5

3 5
0
5
und
  
1 2 
 1
B8 =
3

2
für E−1 bzw. E8 konstruieren. B := B−1 ∪ B8 ist eine Orthonormalbasis für R3 .
Die Baselwechselmatrix
 −1
√
5

P =  √25
0
von A zu B hat folglich die Eigenschaft
− √4
3 5
− 3√2 5
5
√
3 5
2
3
1
3
2
3
P−1 AP = diag (−1, − 1,8).
Nun wenden wir uns Matrizen zu.
Definition
Es sei A eine quadratische reelle oder komplexe Matrix.
T
1. Die Matrix A∗ := A heißt die adjungierte Matrix zu A.
2. A ist
(i) normal, falls AA∗ = A∗ A,
(ii) selbstadjungiert, falls A∗ = A,
190
7.4 Normale Abbildungen
(iii) orthogonal, falls sie reell mit AA∗ = I ist,
(iv) unitär, falls sie komplex mit AA∗ = I ist.
3. Ferner heißt A symmetrisch, falls sie reell und selbstadjungiert ist (sodass
AT = A), und hermitisch, falls sie komplex und selbstadjungiert ist (sodass
ĀT = A).
Proposition
Es sei V ein endlichdimensionaler Skalarproduktraum. Eine lineare Abbildung
T : V → V ist genau dann (i) normal, (ii) selbstadjungiert, (ii) unitäre bzw. orthogonal, wenn seine Darstellungsmatrix A bezüglich einer Orthonormalbasis B für
V (i) normal, (ii) selbstadjungiert, (ii) unitär bzw. orthogonal ist.
Bemerkung
Aus
folgt
hv, wi = vT w̄
hTv, wi = ( Av)T w̄,
hv, T ∗ wi = vT ( A∗ w),
wobei v, w die Darstellungsvektoren von v, w bezüglich B sind.
Somit unterscheiden wir auch in dieser Hinsicht nicht zwischen Matrizen und
linearen Abbildungen, wobei wir nun ausschließlich mit Orthonormalbasen arbeiten.
Proposition
Die folgenden Eigenschaften einer n × n reeller bzw. komplexer Matrix A sind
äquivalent.
(i) A ist orthogonal bzw. unitär.
(ii) Die Spalten von A bilden eine Orthonormalbasis für R n bzw. C n .
(iii) Die Spalten von A bilden eine Orthonormalbasis für R n bzw. C n .
191
7.4 Normale Abbildungen
Beweis
Es gilt
∗
( A∗ A)ij = riA c jA = (ciA )T c jA = hci , c j i,
sodass A∗ A = I genau dann, wenn hci , c j i = δij ist, sowie
∗
( AA∗ )ij = riA c jA = riA (r jA )T = hri , r j i,
sodass AA∗ = I genau dann, wenn hri , r j i = δij ist.
Korollar
Sind B1 und B2 Orthonormalbasen für einen endlichdimensionalen Skalarproduktraum, so ist die Basiswechselmatrix von B1 zu B2 orthogonal bzw. unitär.
Definition
Zwei reelle (komplexe) Matrizen A und B heißen kongruent, falls es eine orthogonale (unitäre) Matrix P mit
B = P∗ AP
gibt.
Proposition
1. Die Menge aller orthogonalen n × n Matrizen bildet eine Untergruppe O(n)
von GL(n,R ). (Dies ist die orthogonale Gruppe.)
2. Die Menge aller unitären n × n Matrizen bildet eine Untergruppe U(n) von
GL(n,C ). (Dies ist die unitäre Gruppe.)
Proposition
Jede Matrix A ∈ O(n) bzw. U(n) erfüllt | det A| = 1.
192
7.4 Normale Abbildungen
Beweis
Es gilt
| det A|2 = det A.det A = det A. det Ā = det A. det A∗ = det( AA∗ ) = det I = 1. Proposition
Die Menge
SO(n) = { A ∈ O(n) : det A = 1}
ist eine Untergruppe von O(n). (Diese ist die spezielle orthogonale Gruppe.)
Schließlich analysieren wir die Struktur der speziellen orthogonalen Gruppe in
verschiedenen Dimensionen.
1. Offensichtlich ist SO(1) = {(1)}.
2. Schreiben wir A ∈ SO(2) als
A=
a b
,
c d
so gilt a2 + c2 = 1, b2 + d2 = 1, ab + cd = 0 und ad − bc = 1. Elementare
Rechnungen ergeben dann
cos θ − sin θ
SO(2) = Rθ =
: θ ∈ [0,2π ) .
sin θ cos θ
Die Matrix Rθ is die Matrixdarstellung einer Drehung der Ebene um den
Winkel θ (bezüglich der üblichen Basis für R2 ). Sie ist diagonal für θ = 0
(R0 = I2 ) und θ = π (Rπ = diag (−1, − 1)) und für keine anderen Werte von
θ diagonalisierbar.
e2
Re1
Re2
θ
θ
e1
193
7.4 Normale Abbildungen
3. Nun seien A ∈ SO(3) mit (kubischem, reellen) charakteristichem Polynom
c.
Das Produkt der komplexen Nullstellen von c ist det A, also 1.
Alle komplexen Nullstellen haben Betrag 1, denn sie sind Eigenwerte
der unitären Abbildung A ∈ C3×3 .
Falls c drei reelle Nullstellen hat, sind diese also 1, 1, 1 oder 1, −1, −1.
Falls es eine reelle und zwei komplexe Nullstellen hat, sind diese also 1,
eiα , e−iα für ein α ∈ (0,π ) ∪ (π,2π ).
Somit ist 1 eine Nullstelle von c und folglich ein Eigenwert von A. Es sei n
ein dazugehöriger Eigenvektor mit knk = 1. Mit U = hni gilt
R3 = U ⊕ U ⊥
und dim U ⊥ = 2.
U ⊥ ist ein A-invarianter Unterraum von V. Für u ∈ U ⊥ gilt nämlich
Au.n = u.AT n = u.n = 0
und folglich
Au.(αn) = 0
für alle α ∈ R, sodass Au ∈ U ⊥ ist.
Es sei {e1 , e2 } eine Orthonormalbasis für U ⊥ . Wechseln wir zu dieser
Basis, so finden wir, dass A kongruent zur Matrix
1 0
0 B
für ein B ∈ SO(2) ist. Folglich ist B = Rθ für ein θ ∈ [0,2π ).
Die Matrix
1 0
0 Rθ
ist die Matrixdarstellung einer Drehung mit Drehachse n und Drehwinkel
θ (bezüglich der Basis {n,e1 ,e2 }).
194
7.4 Normale Abbildungen
n
θ
e2
e1
4. Durch vollständige Induktion können wir das folgende Ergebnis für A ∈
SO(n) beweisen.
Ist n = 2m gerade, so gibt es Winkel θ1 , . . . , θm ∈ [0,2π ) derart, dass A
kongruent zur Matrix


R θ1
0


R θ2




.
.


.
0
Rθm
ist.
Ist n = 2m + 1 gerade, so gibt es Winkel θ1 , . . . , θm ∈ [0,2π ) derart, dass
A kongruent zur Matrix


1
0
 R

θ1




..


.
0
Rθm
ist.
195
Herunterladen