Lineare Algebra für Physiker

Werbung
Lineare Algebra für Physiker
MA 9201
Domenico P.L. Castrigiano
∗
†
Vorlesungsskript WS 2008/09
Zentrum Mathematik TU München
†
∗
Einleitung
Die lineare Algebra hat sich aus der analytischen Geometrie und der Theorie linearer Gleichungssysteme entwickelt. Inzwischen ist sie ein Grundbestandteil der Mathematik und ihre Anwendungen
reichen in alle Bereiche der Naturwissenschaften hinein. Für die Physik ist die lineare Algebra ein
selbstverständliches Werkzeug zur Mathematisierung der Theorie. Die Linearität ist oftmals eine
grundlegende Eigenschaft der Naturgesetze, z.B. sind Teilchen und Feldgleichungen linear oder
der Zustandsraum eines quantenmechanischen Systems ist ein Vektorraum. Wo nichtlineare Zusammenhänge bestehen, ist die Linearisierung in vielen Fällen der erste Schritt zur Behandlung des
Problems. Viele numerische Verfahren beruhen auf linearer Approximation. Schlieÿlich ist die lineare Optimierung in weiten Teilen eine Anwendung der linearen Algebra.
Es gibt eine Vielzahl einführender Bücher zur linearen Algebra. Unterschiede bestehen vornehmlich in einem mehr oder weniger abstrakten Zugang. Wir wählen einen axiomatischen Aufbau,
wenden uns aber sehr schnell den Vektorräumen zu. Weil es keine besondere Mühe bereitet und die
Sicht auf das Wesentliche erleichtert, werden die linearen Strukturen über einem allgemeinen Körper
betrachtet. Erst wenn das Skalarprodukt behandelt wird, beschränken wir uns auf die reellen und
komplexen Zahlen. Im Mittelpunkt der Untersuchungen steht der Begri der linearen Abbildung.
Wie ein Blick auf das Inhaltsverzeichnis zeigt, wird eine Auswahl aus dem üblichen Stokanon
einer Vorlesung über Lineare Algebra 1 und 2 getroen. Sie ist bestimmt von den Bedürfnissen
eines Physikstudiums. Bei der Behandlung der Stoes ist es uns wichtig, die allgemeinen Strukturen
herauszustellen. Wesentlich ist das Konzept der Isomorphie, das in der Physik generell von grosser
Bedeutung ist. Unter einem Vektorraumisomorphismus zum Beispiel bleiben lineare Zusammenhänge unverändert. Es ändert sich aber ihre Darstellung, wie etwa im Fall der Abbildungsmatrix
anstelle eines Homomorhpismus zwischen endlichdimensionalen Vektorräumen. Durch den Wechsel
der Darstellung wird eine einfachere Beschreibung ermöglicht. Dieser Grundgedanke führt zu besonders interessanten Ergebnissen, wenn die reichhaltigere Struktur der euklidischen bzw. unitären
Vektorräume im Spiel ist.
Ebenso wichtig wie die abstrakten Strukturen sind in der linearen Algebra Verfahren und Algorithmen für praktische Berechnungen. In Anwendungen ist der Matrizenkalkül von besonderer
Bedeutung für die Behandlung linearer Gleichungssysteme. Er wird ausführlich behandelt.
Inhaltsverzeichnis
1
Mengen
4
2
Abbildungen
9
3
Vollständige Induktion und Abzählbarkeit
15
4
Gruppen, Körper, Vektorräume
18
5
Lineare Unabhängigkeit, Basen, Dimension
24
6
Lineare Abbildungen
31
7
Matrizen
39
8
Lineare Gleichungssysteme
50
9
Weitere Folgerungen des Eliminationsverfahrens
60
10 Determinanten
64
11 Eigenwerte und Eigenvektoren
74
12 Diagonalisierbarkeit und Trigonalisierbarkeit
83
13 Vektorräume mit Skalarprodukt
92
14 Endomorphismen in Vektorräumen mit Skalarprodukt
3
100
1 Mengen
Eine
Menge
ist eine gedankliche Zusammenfassung von verschiedenen Objekten, z.B. der Ein-
wohner Münchens oder der Kraftfahrzeuge mit Münchener Kennzeichen oder der Mitglieder eines
Orchesters. Es können natürlich auch verschiedenartige Objekte zu einer Menge zusammengefasst
werden, wie z.B. die Einrichtungsgegenstände eines Zimmers und die sich darin bendenden Personen. Die einzelnen Objekte heiÿen
Elemente
der Menge. Bezeichnet
X
eine Menge und
a
ein
Element der Menge, so schreibt man
a∈X
X
a
heiÿt eine
ist ein Element von
X .
endliche Menge, wenn sie aus endlich vielen Elementen besteht. Alle oben betrach-
teten Mengen sind endlich. Besteht z.B. eine Menge
X
aus 6 Elementen, die mit
a1 , a2 , . . . , a5 , a6
bezeichnet werden, so schreibt man
X = {a1 , a2 , a3 , a4 , a5 , a6 }
und es ist
a1 ∈ X, . . . , a6 ∈ X . Mengen können unendlich sein, d.h. nicht
1, 2, 3, . . . Diese wird mit N bezeichnet. Also
endlich, wie z.B. die
Menge der natürlichen Zahlen
N = {1, 2, 3, . . .} .
Wenn ein Objekt kein Element einer Menge
a∈
/X
Z.B. ist
Seien
X
0∈
/ N,
X
a
und
ist kein Element von
Y
X .
zwei Mengen. Man sagt
Y
X
ist eine
Teilmenge
von
Y,
wenn jedes Element von
ist, d.h. wenn gilt
x ∈ X ⇒ x ∈ Y.
Dabei bezeichnet
X⊂Y
X⊂Y
⇒
Oensichtlich ist
Z
ist, schreibt man
d.h. die Null ist (bei uns) keine natürliche Zahl.
auch ein Element von
(1.1)
X
und
daraus folgt eine Implikation. Man schreibt
X
ist Teilmenge von
X ⊂ X.
Y .
Weiter gilt die Transitivität
Y ⊂ Z ⇒ X ⊂ Z.
Y
X
Wichtig für den Nachweis der
(1.2)
Gleichheit zweier Mengen ist die Äquivalenz
X = Y ⇔ X ⊂ Y und Y ⊂ X.
4
Dabei bezeichnet
Ist
X
⇔
äquivalent zu die Implikationen für beide Richtungen.
eine Menge und
E
eine Eigenschaft, die die Elemente von
X
besitzen können oder auch
nicht, dann bezeichnet
{x ∈ X : E(x)}
die Menge der Elemente
x
von
X,
die
E
besitzen. Diese Menge ist eine Teilmenge von
X.
Zum
Beispiel ist die Menge der geraden natürlichen Zahlen
{n ∈ N :
n gerade
eine Teilmenge von
} = {2, 4, 6, . . .}
N.
Unerläÿlich ist die Einführung der
diese gilt nach (1.1) für jede Menge
(1.3)
leeren Menge ∅,
die Menge, die kein Element enthält. Für
X
∅ ⊂ X.
Schlieÿlich bezeichnet
P(X)
die
Potenzmenge
von
X,
d.i. die Menge aller Teilmengen von
X.
Ein Beispiel dazu sei
X = {1, 2, 3} ⇒ P(X) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, X}.
Es gilt stets
∅ ∈ P(X), X ∈ P(X)
mentige Menge.
Üb
Ist
X n-elementig,
dann ist
und
{a} ∈ P(X)
für jedes
a ∈ X.
Dabei ist
P(X) 2n -elementig.
Mengenoperationen
Seien
(1.4)
X, Y, Z
Der
Mengen.
Durchschnitt zweier Mengen X ∩ Y := {z : z ∈ X
und
z ∈ Y }.∗)
X
Y∩X
(1.5) Die
∗)
Y
Vereinigung
Der Doppelpunkt bei
:=
zweier Mengen
X ∪ Y := {z : z ∈ X
oder
z ∈ Y }.
bedeutet, dass die linke Seite durch die rechte Seite deniert wird.
5
{a}
eine
einele-
X
Y
Y∪X
(1.6) Die
Dierenz zweier Mengen X \ Y := {z ∈ X : z ∈/ Y }.
Y
X
X\Y
Es gelten folgende Beziehungen:
• X \ X = ∅, X \ ∅ = X
• X ∪ X = X, X ∩ X = X
• X ∪ Y = Y ∪ X, X ∩ Y = Y ∩ X
• X ⊂Y ⇔X ∪Y =Y ⇔X ∩Y =X
• X⊂Z
und
Y ⊂Z ⇔X ∪Y ⊂Z
• Z⊂X
und
Z ⊂Y ⇔Z ⊂X ∩Y
• X ∪ (Y ∪ Z) = (X ∪ Y ) ∪ Z =: X ∪ Y ∪ Z
• X ∩ (Y ∩ Z) = (X ∩ Y ) ∩ Z =: X ∩ Y ∩ Z
• X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z)
• X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z)
Obermenge von X , d.h. X ⊂ E , auch E ⊃ X geschrieben. {X := E \ X
Komplement von X bezüglich E . Sei auch Y ⊂ E . Dann gelten
Sei
E
eine
• {({(X)) = X
• X \ Y = X ∩ {Y
• {(X ∪ Y ) = ({X) ∩ ({Y )
• {(X ∩ Y ) = ({X) ∪ ({Y )
6
heiÿt das
E
Y
X
• X ⊂ Y ⇔ {Y ⊂ {X
• X ∩ Y = ∅ ⇔ X ⊂ {Y ⇔ Y ⊂ {X ⇔ ({X) ∪ ({Y ) = E
Weitere Beziehungen für Mengen
X, Y , Z:
• (X ∪ Y ) \ Z = (X \ Z) ∪ (Y \ Z)
• (X ∩ Y ) \ Z = (X \ Z) ∩ Y = X ∩ (Y \ Z) = (X \ Z) ∩ (Y \ Z)
Kartesisches Produkt
Seien
a, b
zwei Objekte. Diesen entspricht ein neues Objekt, das
geordnete Paar (a, b). Dafür gilt
denitionsgemäÿ:
(a, b) = (a0 , b0 ) ⇔ a = a0 , b = b0 .
So bedeutet z.B.
(1.7)
das
(a, b) = (b, c),
dass
a = b = c.
Seien
X, Y
Mengen. Dann ist die Menge aller Paare
X × Y := {(x, y) : x ∈ X, y ∈ Y }
kartesische Produkt von X
mit
Y.
Das kartesische Produkt
X ×X
wird auch mit
Y
(x,y)
y
x
zeichnet. Zum Beispiel ist
X
N2 = {(n, m) : n ∈ N, m ∈ N}
die Menge der Gitterpunkte
3
2
1
1
2
3
4
Es gelten folgende Beziehungen für Mengen
X , X 0, Y , Y 0:
7
X2
be-
• X ×Y =∅ ⇔ X =∅
•
Sei
X × Y 6= ∅.
oder
Dann:
Y = ∅.
X0 × Y 0 ⊂ X × Y ⇔ X0 ⊂ X
und
Y0 ⊂Y.
• (X × Y ) ∪ (X 0 × Y ) = (X ∪ X 0 ) × Y
Y
X'×Y
X×Y
X
X'
• (X × Y ) ∩ (X 0 × Y 0 ) = (X ∩ X 0 ) × (Y ∩ Y 0 ).
• Seien E ⊃ X , F ⊃ Y . Für das Komplement bezüglich E × F gilt: {(X × Y ) = ({X × F ) ∪
(E × {Y ).
Beweis. Gemäÿ (1.2) beweise man zunächst ⊂ . Sei (a, b) ∈ {(X × Y ). D.h. (a, b) ∈/ X × Y .
b∈
/ Y (da sonst doch (a, b) ∈ X × Y ). a ∈
/ X heiÿt a ∈ {X ,
b∈
/ Y heiÿt b ∈ {Y . Also folgt: (a, b) entweder Element von {X × F oder von E × {Y . Das
bedeutet (a, b) ∈ ({X × F ) ∪ (E × {Y ). Damit ist gezeigt: {(X × Y ) ⊂ ({X × F ) ∪ (E × {Y ).
Das bedeutet entweder
a∈
/X
oder
Nun zu ⊃ . Sei
(a, b) ∈ ({X × F ) ∪ (E × {Y ). Damit ist entweder a ∈ {X oder b ∈ {Y . D.h.
a∈
/ X oder b ∈
/ Y . Also (a, b) ∈
/ X × Y . D.h. (a, b) ∈ {(X × Y ). Damit ist gezeigt:
({X × F ) ∪ (E × {Y ) ⊂ {(X × Y ).
entweder
Nach (1.2) folgt die behauptete Gleichheit.
Für Mengen
X, Y, Z
deniert man entsprechend
X × Y × Z := {(x, y, z) : x ∈ X, y ∈ Y, z ∈ Z}
das kartesisches Produkt von
ist für Mengen
X, Y , Z,
d.i. die Menge der geordneten
Tripel (x, y, z). Allgemeiner
X 1 , . . . Xn
X1 × X2 × . . . × Xn := {(x1 , x2 , . . . , xn ) : x1 ∈ X1 , . . . , xn ∈ Xn }
die Menge der geordneten
n-Tupel.
8
2 Abbildungen
X, Y
Abbildung f
X in (oder nach) Y ordnet jedem Element von X
X die Menge der in München zugelassenen Auto, Y
die Menge der möglichen Münchner Kennzeichen und f ordne jedem Auto sein Kennzeichen zu.
Oder X sei die Menge der Personen in Deutschland, Y = N und f ordne jeder Person ihr Gewicht
Seien
Mengen. Eine
Y
genau ein Element in
von
zu. Zum Beispiel sei
(in kp) zu. Man schreibt
(2.1)
f : X → Y, x 7→ f (x)
und nennt
f (x)
das
Bild von x in Y
unter der Abbildung
f.
Y
X
f(x)
x
Jedem Element
(2.2) Graphf
der
x∈X
wird ein Bild und nur ein Bild
zugeordnet. Weiter heiÿt
:= {(x, y) ∈ X × Y : y = f (x)}
Graph von f . Er ist eine Teilmenge von X × Y , d.h. ein Element von P(X × Y ).
(2.3)
Lemma. G ∈ P(X × Y ) ist genau dann der Graph einer Abbildung, wenn zu jedem x ∈ X
genau ein y ∈ Y existiert derart, dass (x, y) ∈ G.
Y
G
x0
G
y∈Y
mit
x0 ∈ X
gibt es mehr
(x0 , y) ∈ G.
X
G
x0
ist kein Abbildungsgraph, denn zu
als ein
Y
Y
y
f (x) ∈ Y
G ist kein Abbildungsgraph,
y ∈ Y mit (x0 , y) ∈ G.
denn zu
x0 ∈ X
gibt es kein
X
G
G
ist ein Abbildungsgraph, denn zu jedem
genau ein
y∈Y
x X
9
derart, dass
(x, y) ∈ G.
x∈X
gibt es
YX
bezeichnet die Menge aller Abbildungen von
X
nach
Y.
Beispiele für Abbildungen
(2.4) Sei
Y
b ∈ Y.
b.
mit Wert
(2.5) Sei
f : X → Y, f (x) := b ∀ x ∈ X ∗)
Graphf = X × {b}.
Dann heiÿt
X =Y.
Es ist
X und wird
X × X.
konstante
Abbildung von
X
in
identische Abbildung oder Identität auf
Graph idX = {(x, x) : x ∈ X} die Diagonale von
f : X → X, f (x) := x
Dann heiÿt
die
mit idX bezeichnet. Es ist
die
X
X×X
x
x
(2.6)
X
f : P(X) → P(X), f (Y ) := X \ Y
ist die Komplementbildung.
: X × Y → X, pr1 (x, y) := x nennt man die Projektion von X × Y auf X oder die
erste Projektion von X × Y . Entsprechend heiÿt pr2 : X × Y → Y, pr2 (x, y) := y die zweite
(2.7) pr1
Projektion.
(2.8) Sei
f ∈ Y X, A ⊂ X.
Einschränkung
Zwei Abbildungen
von
Dann ist
f
f, g ∈ Y X
auf
A.
f |A : A → Y, f |A(x) := f (x) ∀ x ∈ A
= Graph f ∩ (A × Y ).
eine Abbildung, die
Es ist Graph f |A
sind gleich, d.h.
f = g,
genau dann, wenn
f (x) = g(x) ∀ x ∈ X .
Die folgende harmlos erscheinende mengentheoretische Annahme hat weitreichende Konsequenzen.
(2.9)
Auswahlaxiom. Seien X, Y Mengen und F : X → P(Y ) eine Abbildung mit F (x) 6= ∅ ∀ x ∈
X . Dann existiert eine Abbildung f : X → Y mit f (x) ∈ F (x) ∀ x ∈ X .
Einige konkrete Beispiele für Abbildungen
• f : N → N, f (n) := 2n.
• f : N → N, f (n) :=
f (15) = 3, usw...
D.h.
f (1) = 2, f (2) = 4, f (3) = 6, . . .
kleinste Primzahl in n. Z.B.
• f : N × N → Q (Menge
der rationale Zahlen) ,
• X := {1, 2, 3, 4}, Y := {a, b, c, d, e}
Üb
Wie viele verschiedene Abbildungen von
Y
∗)
∀
und
X , wenn
X n
Elemente und
Y m
f (2) = 2, f (3) = 3, f (2n) = 2 ∀ n ∈ N,
f (n, m) :=
n
m
f : X → Y , f (1) := a, f (2) := c, f (3) := c, f (4) := b
X
nach
Y
Elemente mit
gibt es, m. a. W. wieviele Elemente besitzt
m, n ∈ N
hat?
steht für für alle oder zu jeder/m. Es ist ein auf den Kopf gestelltes A.
10
Bild und Urbild von Mengen
Seien
f :X→Y
eine Abbildung und
A⊂X
f (A) := {y ∈ Y : ∃ x ∈ A
das
(2.10)
Bild von A in Y
unter
eine Teilmenge. Dann heiÿt
mit
kurz
f (x) = y} = {f (x) ∈ Y : x ∈ A}†)
f.
Seien A, A0 ⊂ X . Dann gelten
• A 6= ∅ ⇔ f (A) 6= ∅
• f ({x}) = {f (x)} ∀ x ∈ X
• A ⊂ A0 ⇒ f (A) ⊂ f (A0 )
• f (A ∩ A0 ) ⊂ f (A) ∩ f (A0 )
• f (A ∪ A0 ) = f (A) ∪ f (A0 )
Üb
Sei
Beweise die obigen Aussagen. Finde ein Beispiel zu
B⊂Y
f (A ∩ A0 ) 6= f (A) ∩ f (A0 ).
eine Teilmenge. Dann heiÿt
f −1 (B) := {x ∈ X : f (x) ∈ B}
dieser Teil von B hat ein leeres
Urbild
X
das
f -¹(B)
Urbild von B
(2.11)
B
in
X
bezüglich
f.
Lemma. Im Gegensatz zu f erhält f −1 alle mengentheoretischen Operationen. Seien B, B 0 ⊂
Y . Dann gelten
• B ⊂ B 0 ⇒ f −1 (B) ⊂ f −1 (B 0 )
• f −1 (B ∩ B 0 ) = f −1 (B) ∩ f −1 (B 0 )
• f −1 (B ∪ B 0 ) = f −1 (B) ∪ f −1 (B 0 )
†)
∃
Y
steht für es existiert. Es ist ein spiegelverkehrtes E.
11
• f −1 (B \ B 0 ) = f −1 (B) \ f −1 (B 0 )
Üb
Beweise obige Aussagen.
(2.12)
Lemma. Sei A ⊂ X und B ⊂ Y . Es gelten folgende Beziehungen zwischen Bild und Urbild
• f (f −1 (B)) = B ∩ f (X)
• f −1 (f (A)) ⊃ A
Beweis
y ∈ f (f −1 (B)) ⇒ ∃ x ∈
f −1 (B) mit y = f (x) ⇒ ∃ x ∈ X mit f (x) ∈ B und y = f (x) ⇒ y ∈ B ∩ f (X).
−1 (B) mit f (x) = y
Nun zu ⊃. Sei y ∈ B ∩ f (X) ⇒ y ∈ B und ∃ x ∈ X mit y = f (x) ⇒ ∃ x ∈ f
−1
⇒ y ∈ f (f (B)).
Üb
der ersten Aussage. Gemäÿ (1.2) zeige zunächst ⊂. Sei
Beweise die zweite Aussage und gebe ein Beispiel für
(2.13)
•
f −1 (f (A)) 6= A
an.
Lemma. Für die Projektionen (2.7) gelten
−1
pr1
(A) = A × Y,
−1
pr2
(B) = X × B
für
A⊂X
und
B⊂Y
• Z ⊂ X × Y ⇒ Z ⊂ pr1 (Z) × pr2 (Z)
Üb
Beweise obige Aussagen und gebe ein Beispiel für
Üb
Gebe ein Beispiel für
Üb
Finde jeweils ein Beispiel für
f ∈YX
und
A, A0 ⊂ X
f ∈YX
und
mit
A⊂X
Z 6= pr1 (Z) × pr2 (Z)
A ⊂ A0
und
an.
f (A0 \ A) 6= f (A0 ) \ f (A)
an.
derart, dass
f (X \ A) ⊂ Y \ f (A)
f (X \ A) ⊃ Y \ f (A)
weder ⊂ noch ⊃ gilt.
Surjektive, injektive und bijektive Abbildungen
Sei
f ∈ Y X,
f
heiÿt
d.h.
f :X→Y
surjektiv, wenn f (X) = Y . M.a.W. ∀ y ∈ Y ∃ x ∈ X : f (x) = y . Es schlieÿt nicht aus,
x
X
eine Abbildung.
Y
f
y
x'
dass
y
mehrere Urbilder hat. Man sagt auch,
f
ist eine Abbildung
auf
Y.
f heiÿt injektiv oder eineindeutig, wenn jedes y ∈ Y höchstens ein Urbild besitzt. M.a.W.
∀ x, x0 ∈ X : f (x) = f (x0 ) ⇒ x = x0 . Das schlieÿt nicht aus, dass es zu einem y ∈ Y gar kein Urbild
gibt.
12
X
f
Y
f
heiÿt
bijektiv, wenn f
surjektiv und injektiv ist, m.a.W.
∀ y ∈ Y ∃1 x ∈ X : f (x) = y.
(2.14)
Sei f ∈ Y X . Setze f˜ : X → f (X), f˜(x) := f (x). Dann ist f˜ surjektiv (klar).
(2.15)
Sei f ∈ Y X injektiv, A ⊂ X . Dann ist f |A injektiv (klar).
Üb
Zeige mit Hilfe des Auswahlaxioms (2.9): Ist
injektiv ist und
dann existiert
A⊂X
derart, dass
idX |A heiÿt die
identische Einbettung
von
A
in
X . Für B ⊂ X gilt
(2.17)
Sei f ∈ Y X . Dann ist F : X → Graph f , F (x) := (x, f (x)), eine bijektive Abbildung.
(2.18)
pr1 und pr2 sind surjektiv auf X bzw. Y .
(2.19)
Die Komplementbildung
(2.20)
Lemma. Sei f ∈ Y X . Dann gelten für alle A ⊂ X und B ⊂ Y :
• f
surjektiv
• f
injektiv
Beweis.
(2.6)
ist bijektiv.
⇒ f (f −1 (B)) = B
⇒ f −1 (f (A)) = A
Die erste Aussage folgt sofort aus der ersten Aussage von (2.12), weil
−1 (f (A)) ⊂ A zu zeigen. Sei also x ∈
zweiten Aussage: Wegen (2.12) bleibt f
0
0
0
f (A) ⇒ ∃ x ∈ A mit f (x ) = f (x) ⇒ x = x, weil f injektiv ist. Also x ∈ A.
(2.21)
f |A
f (A) = f (X).
A ⊂ X . jA :=
−1
jA
(B) = A ∩ B .
(2.16) Sei
f ∈ Y X,
‡)
f (X) = Y . Zur
⇒ f (x) ∈
f −1 (f (A))
Die Umkehrabbildung. Sei f : X → Y eine bijektive Abbildung. Dann gibt es eine Abbil-
dung g : Y → X derart, dass
f (g(y)) = y ∀y ∈ Y und g(f (x)) = x ∀x ∈ X
Oenbar ist g eindeutig und bijektiv. Man nennt g die Umkehrabbildung von f
f −1 := g .
Beweis.
f bijektiv ist, gilt: ∀ y ∈ Y ∃1 x ∈ X : f (x) = y.
x ∈ X . Damit ist eine Abbildung g : Y → X erklärt. Für
Da
bestimmte
Nenne
g(y)
und schreibt
dieses eindeutig
diese gelten denitionsgemäÿ
obige Beziehungen.
Vorsicht, f −1 : P(Y ) → P(X)
ist. Wenn
von
‡)
∃1
B
f
existiert immer, die Umkehrfunktion jedoch nur, wenn
bijektiv ist, ist natürlich für jedes
bezüglich
B⊂Y
f.
steht für es existiert genau ein
13
das Bild von
B
unter
f −1
f
bijektiv
gleich dem Urbild
Hintereinanderschaltung (=Komposition) von Abbildungen
Seien
X, Y, Z
Mengen,
f ∈ Y X , g ∈ ZY ,
d.h.
f : X → Y, g : Y → Z
Abbildungen. Dann ist
h : X → Z, x 7→ h(x) := g(f (x)),
eine Abbildung, denn jedem
x∈X
wird ein eindeutiges Bild
g(f (x)) ∈ Z
zugeordnet. Man schreibt
hierfür
h=g◦f
und nennt
(2.22)
h
die Hintereinanderschaltung oder Komposition von
g
und
f.
Es gelten
• h(A) = g(f (A)) ∀ A ⊂ X
• h−1 (C) = f −1 (g −1 (C)) ∀ C ⊂ Z
Üb
(2.23)
Beweise obige Relationen.
Wenn g und f injektiv bzw. surjektiv sind, dann ist auch h = g ◦ f injektiv bzw. surjektiv. Ist
f bijektiv, dann gilt nach (2.21)
f −1 ◦ f = idX , f ◦ f −1 = idY .
(2.24)
Lemma. Seien f ∈ Y X , g ∈ Z Y , h ∈ Z X mit g ◦ f = h. Dann gilt:
h surjektiv ⇒ g surjektiv,
Üb
Zeige (2.24). Gebe ein Beispiel zu (2.24) an, wofür
und
(2.25)
h injektiv ⇒ f injektiv
g
X = Y = Z, h =
idX ,
f
nicht surjektiv
nicht injektiv ist.
Assoziativität der Komposition. Seien A, B , C , D Mengen und f : A → B , g : B → C ,
h : C → D Abbildungen. Dann gilt h ◦ (g ◦ f ) = (h ◦ g) ◦ f .
Beweis.
Für alle
((h ◦ g) ◦ f )(a).
a ∈ A
gilt:
(h ◦ (g ◦ f ))(a) = h((g ◦ f )(a)) = h(g(f (a))) = (h ◦ g)(f (a)) =
Wegen (2.25) sind die Klammern nicht notwendig: man schreibt
14
h ◦ g ◦ f.
3 Vollständige Induktion und Abzählbarkeit
Die natürlichen Zahlen
durchläuft man
N
N = {1, 2, 3, . . .}
sind angeordnet:
von einer natürlichen Zahl
n
zur nächsten
1 < 2 < 3 < . . . Auf
n + 1 ohne Wiederkehr.
diese Weise
Vollständige Induktion
Zu jeder natürlichen Zahl
n
sei eine Aussage
A(n)
gegeben. Die Richtigkeit dieser Aussagen soll
bewiesen werden. Dazu kann man sich des Beweisprinzips der vollständigen Induktion bedienen:
Alle Aussagen A(n) für n ∈ N sind richtig, falls A(1) richtig ist (Induktionsanfang), und
wenn für jedes n0 ∈ N, wofür A(1), A(2), . . . , A(n0 ) richtig sind (Induktionsvoraussetzung), auch A(n0 + 1) richtig ist (Induktionsschluss).
Beispiel Arithmetische Summenformel.
(3.1)
1
1 + 2 + 3 + . . . + n = n(n + 1)
2
Beweis. A(n) ist die Aussage, dass 12 n(n + 1) die Summe der ersten n natürlichen Zahlen ist.
IA 1 =
1
· (1 + 1),
2
IV
Sei
IS
Zeige nun, dass
n0 ∈ N
d.h.
A(1)
derart, dass
ist richtig.
A(n0 )
A(n0 + 1)
gilt, d.h. dass
1
1 + 2 + . . . + n0 = n0 (n0 + 1).
2
richtig ist:
1 + 2 + . . . + n0 + (n0 + 1) = (1 + 2 + . . . + n0 ) + (n0 + 1)
1
IV 1
n0 + 1 (n0 + 1)
= n0 (n0 + 1) + (n0 + 1) =
2
2
1
= (n0 + 2)(n0 + 1). Das ist A(n0 + 1).
2
Bemerkung. Oft, wie auch in diesem Fall, wird für den IS nicht die volle IV benötigt, sondern nur
die Gültigkeit von
1
A(n0 ). Bei entsprechender Indizierung von A(n) kann der kleinste Index statt
irgendeine ganze (auch negative) Zahl sein.
Summenschreibweise. Für a1 + a2 + . . . + an (Pünktchenschreibweise) schreibt man ni=1 ai .∗)
Dabei ist i der Summationsindex. (Dieser kann natürlich auch mit einem anderen Buchstaben
P
bezeichnet werden.) Allgemeiner ist für zwei ganze (auch negative) Zahlen
(3.2)
n
X
ai = am + am+1 + . . . an−1 + an
i=m
∗) P
Sigma, das groÿe griechische S
15
m≤n
(3.3)
Beispiel Geometrische Summenformel.
n
X
xi =
i=0
1 − xn+1
für jede Zahl x 6= 1.
1−x
Pn+1 i
1−x0+1
i=0 x
1−x = 1, d.h. A(0) ist richtig. IS
n+1
n+1
n+2
1−x
+(1−x)x
= 1−x
1−x
1−x , d.h. A(n + 1) ist richtig.
Beweis. IA x0 = 1,
xn+1 =
=
n+1
i
n+1 IV
= 1−x
i=0 x + x
1−x
Pn
+
Mächtigkeit
X heiÿt gleichmächtig mit der Menge Y , wenn es eine bijektive Abbildung f : X → Y
f −1 : Y → X nach (2.21) ebenfalls bijektiv ist, ist dann auch Y gleichmächtig mit X .
Daher heiÿen X und Y gleichmächtig. Ist weiter Y gleichmächtig zu Z , dann sind X und Z
gleichmächtig, denn
Eine Menge
gibt. Da
f : X → Y, g : Y → Z bijektiv ⇒ g ◦ f : X → Z bijektiv
nach (2.23). Eine Menge
abzählbar, wenn X
(3.4)
X
heiÿt
abzählbar unendlich, wenn X
gleichmächtig mit
N
ist.
X
heiÿt
endlich oder abzählbar unendlich ist.
Satz. Sei A ⊂ N unendlich. Dann ist A abzählbar unendlich.
Beweis. Deniere eine Abbildung f : N → A, n 7→ an := f (n) wie folgt: a1 sei das kleinste Element
von
A.
Weiter sei
dann sei
an+1
a2
A \ {a1 }, usw. Seien a1 , . . . , an bereits bestimmt,
A \ {a1 , . . . , an } (6= ∅, weil A unendlich). Oenbar ist
das kleinste Element von
das kleinste Element von
a1 < a2 < . . . < an
für jedes
n. Hieraus folgt, dass f
injektiv ist. Auÿerdem ist
n ≤ an ∀ n ∈ N und damit insbesondere
b ≤ ab ∀ b ∈ A.
Zum Beweis der Surjektivität von
f
sei
x ∈ A \ {a1 }.
Dann existiert eine natürliche Zahl
ax ≥ x, gibt es eine gröÿte natürliche Zahl m < x
b ∈ A mit am < b < x. Dann ist am+1 ≤ b < x nach
Widerspruch zur Denition von m ist. Also ist am+1 = x.
an < x.
Da
existiere
(3.5)
am < x.
mit
Nehme nun an, es
Denition von
am+1 ,
was aber ein
Satz. Sei A abzählbar und f : A → B surjektiv. Dann ist B abzählbar.
Beweis. Für endliches A ist B
kung
mit
n
A = N
−1 ({b}). Es ist
Element von f
Damit sind
B
endlich. Sei daher
A
unendlich. Wegen (3.4) ist es keine Einschrän-
f −1 ({b}) =
6 ∅ ∀ b ∈ B . Sei g(b)
f (g(b)) = b ∀ b ∈ B , weshalb g : B → N injektiv ist
anzunehmen. Nach Voraussetzung ist
und
g(B)
gleichmächtig und die Behauptung folgt aus (3.4).
Bemerkung am Rande: das Auswahlaxiom wurde im Beweis von (3.5) vermieden.
16
das kleinste
nach (2.24).
(3.6)
Satz. N2 = N × N ist abzählbar.
Y
3
2
1
6
3
5
8
1
2
4
7
1
2
3
4
X
1
2
Beweis. f : N × N → N, f (x, y) := (x + y − 2)(x + y − 1) + y , ist bijektiv (s. Bild).
Üb
Zeige explizit, dass
f
in (3.6) bijektiv ist.
Familien und Folgen
Seien
I, X
(xι )ι∈I
nichtleere Mengen und
eine
Familie
X
I = N,
in
mit
f ∈ XI.
Schreibt man
Indexmenge I ,
und
xι
f (ι) =: xι ∀ ι ∈ I
heiÿt
Element
†) , dann nennt man
oder
Glied
der Familie
Index ι. Ist
dann heiÿt (xn )n∈N eine Folge und wird auch als unendliches
(x1 , x2 , x3 , . . .) geschrieben. Ist I = {1, . . . , n}, dann ist (xι )ι∈I = (x1 , . . . , xn ) ein n-Tupel.
Sei (Aι )ι∈I eine Familie von Teilmengen einer Menge. Dann heiÿen
[
\
Aι := {x ∈ X : ∃ ι ∈ I mit x ∈ Aι },
Aι := {x ∈ X : ∀ ι ∈ I gilt x ∈ Aι }
zum
ι∈I
die
ι∈I
Vereinigung
[
[
Aι =:
bzw. der
Durchschnitt der Aι , ι ∈ I . Eine andere Schreibweise dafür ist
{Aι : ι ∈ I},
ι∈I
Üb
Tupel
\
Aι =:
\
{Aι : ι ∈ I}.
ι∈I
Zeige:
!
[
• {
Aι
=
ι∈I
\
{Aι
ι∈I
!
•
[
!
∩
Aι
ι∈I
[
Bκ
κ∈K
\
Aι
!
∪
ι∈I
(3.7)
\
Bκ
Aι , ι ∈ I ,
\
=
κ∈K
Die Mengen
(Aι ∩ Bκ )
(ι,κ)∈I×K
!
•
[
=
(Aι ∪ Bκ )
(ι,κ)∈I×K
heiÿen
paarweise disjunkt, wenn Aι ∩ Aι0 = ∅ für ι, ι0 ∈ I
mit
ι 6= ι0 .
Satz zur Abzählbarkeit. Eine Vereinigung von abzählbar vielen abzählbaren Mengen ist
abzählbar.
Ist also I eine abzählbare Menge und ist Aι abzählbar für jedes ι ∈ I , dann ist
S
A
abzählbar.
ι∈I ι
Beweis
.
S
n∈I
†)
ι
I ⊂ N und die An ⊂ N × {n} sind paarweise disjunkt. Dann ist
2
N abzählbar nach (3.6). Die Behauptung folgt mit (3.4).
Ohne Einschränkung ist
An ⊂
S
n∈N N
× {n} =
iota 17
4 Gruppen, Körper, Vektorräume
Uns werden vornehmlich reelle und komplexe Vektorräume interessieren. In Hinblick auf spätere
Themen ist es jedoch angebracht, etwas allgemeiner zu sein und mit Gruppen und Körpern zu
beginnen.
(4.1)
Gruppe.
G mit einem Element e ∈ G und einer inneren
G × G in G, (x, y) 7→ xy derart, dass ∀ x, y, z ∈ G
Eine Gruppe ist eine Menge
knüpfung, d.i. eine Abbildung von
(a)
x(yz) = (xy)z
(b)
ex = x
(c)
∃ x−1 ∈ G
mit
Eigenschaft (a) ist die
Ver-
x−1 x = e
Assoziativität der Verknüpfung. In jeder Gruppe gelten für alle x ∈ G
• xx−1 = e
• xe = x
• e ist eindeutig
• x−1 ist eindeutig und x−1
−1
=x
(a)
(c)
(a)
(b)
Beweis. z := x−1 ⇒ z −1 zxz = (z −1 z)xz = exz = e(xz) = xz = xx−1 ;
(c)
(a)
(b)
(c)
andererseits
(a)
z −1 zxz =
(b)
z −1 (zx)z = z −1 ez = z −1 (ez) = z −1 z = e. Also gilt xx−1 = e. Damit folgt x = ex =
(a)
(c)
xx−1 x = x x−1 x = xe. Sei e0 ∈ G mit e0 x = x ∀ x ∈ G. Insbesondere ist e0 e = e.
0
0
Andererseits gilt e e = e wie gerade gezeigt. Schlieÿlich gelte für x ∈ G sowohl zx = e wie
z 0 x = e. Es folgt z = ze = z xx−1 = (zx) x−1 = ex−1 = x−1 . Ebenso folgt z 0 = x−1 . Also ist
−1
−1 −1
z = z 0 , d.h. x−1 ist eindeutig. Daher folgt x−1
= x aus x−1
x = e = xx−1 .
multiplikativ geschrieben. Dementsprechend heiÿt xy das
−1 das zu x inverse
das Einselement der Gruppe und x
Element. Man kann auch die additive Schreibweise x + y verwenden. Dann heiÿt x + y die
Summe von x mit y . In diesem Fall heiÿt e das Nullelement und wird mit 0 bezeichnet. Das inverse
Element wird mit −x bezeichnet und heiÿt entgegengesetztes Element. Die Gruppe G heiÿt
abelsch oder kommutativ, wenn xy = yx ∀ x, y ∈ G.
Wir haben die Gruppenverknüpfung
Produkt von
x
mit
y.
Weiter heiÿt
e
Beispiele für Gruppen
(4.2)
Die ganzen Zahlen Z = {. . . , −2, −1, 0, 1, 2, . . .} sind eine additive abelsche Gruppe: ∀ x, y, z ∈
Z gilt x + y = y + x ∈ Z, 0 + x = x + 0 = x, x − x = 0 und (x + y) + z = x + (y + z).
Die natürlichen Zahlen
N
vorhanden ist. Aber auch
Wie
Z
ist auch
Q,
mit der gewöhnlicher Addition ist keine Gruppe, da kein Nullelement
N0 := N ∪ {0}
ist keine Gruppe, da nur
die Menge der rationalen Zahlen, oder
R,
0
ein inverses Element besitzt.
die Menge der reellen Zahlen, eine
additive abelsche Gruppe bezüglich der gewöhnlichen Addition.
Q∗ := Q \ {0}
R∗ := R \ {0} sind multiplikative abelsche Gruppen bez. der gewöhnlichen
−1 = 1 das inverse Element, wobei 1 ∈ R das Einselement ist.
Multiplikation: Für r ∈ R, r 6= 0, ist r
r
∗
∗
Q+ := {r ∈ Q : r > 0}, R+ := {r ∈ R : r > 0} sind ebenso multiplikative abelsche Gruppen bez.
und
der gewöhnlichen Multiplikation.
18
(4.3)
Symmetrische Gruppe. Sei X eine nichtleere Menge. Dann ist S(X) := {f ∈ X X :
f bijektiv} eine Gruppe bez. der Komposition von Abbildungen. Einselement ist idX , das inverse Element von f ist die Umkehrabbildung f −1 . Zur Assoziativität siehe (2.25). S(X) heiÿt
die symmetrische Gruppe der Menge X . Für n ∈ N schreibt man kurz Sn := S({1, . . . , n}).
f ∈ Sn heiÿt Permutation der Zahlen 1, . . . , n.
Eine Gruppe
G
endlich, wenn G eine endliche Menge ist. |G| heiÿt die Ordnung
heiÿt
Üb
Zeige:
|Sn | = 1 · 2 · 3 · 4 · . . . · (n − 1) · n =: n!
Üb
Zeige:
Sn
(4.4)
ist für
n≥3
von
G.
( n Fakultät ).
nicht abelsch.
Direktes Produkt von Gruppen. Seien G, G0 Gruppen. Dann ist G × G0 eine Gruppe bez.
der inneren Verknüpfung
(x, x0 )(y, y 0 ) := (xy, x0 y 0 )
mit Einselement (e, e0 ). Das inverse Element (x, x0 )−1 lautet x−1 , x0−1 .
Dies ist leicht zu verizieren und lässt sich sofort auf mehrere Faktoren verallgemeinern:
G1 × . . . × G n
(4.5)
(x1 , . . . , xn )(x1 , . . . , xn ) = (x1 y1 , . . . , xn yn )
Gn = G × . . . × G (n Faktoren) eine Gruppe.
wird mit der Gruppenverknüpfung
hen. In diesem Sinn ist insbesondere
verse-
Additive Gruppe Rn . Rn ist mit der Verknüpfung (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) =
(x1 + y1 , . . . , xn + yn ), dem Nullelement 0 = (0, 0, . . . , 0) und dem entgegengesetzten Element
−(x1 , . . . , xn ) = (−x1 , . . . , −xn ) eine additive abelsche Gruppe.
Q
und
R
sind Körper, weil man in
Q
und in
R
addieren und multiplizieren kann. Genauer gelten
folgende Körperaxiome.
(4.6)
Körper. Ein Körper ist eine Menge K
mit Elementen
0 ∈ K , 1 ∈ K , 0 6= 1
und zwei inneren
Verknüpfungen
K × K → K, (x, y) 7→ x + y
K × K → K, (x, y) 7→ xy
derart, dass
K
mit
0
(Addition),
(Multiplikation)
und der Addition eine abelsche Gruppe ist, und
und der Multiplikation eine abelsche Gruppe ist, und die beiden
K ∗ := K \ {0}
Distributivgesetze
mit
1
x(y + z) = xy + xz
(x + y)z = xz + yz
∀ x, y, z ∈ K
gelten. Um die Klammerungen zu reduzieren, vereinbart man dabei die Konven-
tion Multiplikation vor Addition.
(4.7)
Körper der rationalen Zahlen. Q =
n
p
q
: p ∈ Z, q ∈ N
−1 =
−r = −p
q das entgegengesetzte Element und r
das inverse Element bez. der Multiplikation.
19
q
p
o
ist ein Körper: Zu r =
falls p > 0 bzw.
−q
−p
p
q
∈ Q ist
falls p < 0, kurz 1r ,
(4.8)
Lemma. Sei K ein Körper. Es gelten folgende Regeln für x, y ∈ K :
• 0x = x0
• xy = 0 ⇒ x = 0
oder
y=0
• x(−y) = (−x)y = −(xy) =: −xy.
Üb
Beweise obige Aussagen.
Körper der komplexen Zahlen
Gemäÿ (5) ist
R2
eine additive abelsche Gruppe bez. der Addition
(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
(4.9)
0 = (0, 0) als Nullelement und −(x, y) = (−x, −y) als entgegengesetztes Element. Nun wird auf
R2 auch noch eine Multiplikation erklärt, womit R2 ein Körper gemäÿ Denition (6) wird. Für alle
(x, y), (x0 , y 0 ) ∈ R2 sei
mit
(4.10)
(x, y)(x0 , y 0 ) := (xx0 − yy 0 , xy 0 + yx0 ).
Die Assoziativität und die Distributivgesetze sind leicht nachzuprüfen. Die Kommutativität ist
(1, 0), denn
+ 0 · x) = (x,
y). Das
(1, 0)(x, y) = (1 · x − 0 · y, 1 · y −y
−y
x
x
−1
inverse Element lautet (x, y)
= x2 +y2 , x2 +y2 für (x, y) 6= 0, denn x2 +y2 , x2 +y2 (x, y) =
2
2
xy
−xy
x
= (1, 0). Also ist R2 mit Addition (9) und Multiplikation (10)
− x−y
2 +y 2 , x2 +y 2 + x2 +y 2
x2 +y 2
ein Körper, der Körper der komplexen Zahlen. Er wird mit C bezeichnet.
klar. Das Einselement ist
(4.11)
Schreibweisen. Man setzt 1 := (1, 0) für das Einselement und i := (0, 1) für die imaginäre
Einheit. Dann ist i2 = (0, 1)(0, 1) = (0 · 0 − 1 · 1, 0 · 1 + 1 · 0) = −(1, 0) = −1. Weiter schreibt
man jede komplexe Zahl
z = (x, y) ∈ R2
in der Form
z = x + iy
und nennt Re z
:= x
den
Realteil von z
und Im z
:= y
den
Damit rechnet sich leicht formal. So lautet die Addition (9)
x + x0 + i(y + y 0 ).
(4.12)
z + z 0 = (x + iy) + (x0 + iy 0 ) =
Das letzte Klammernpaar muss gesetzt werden. Das Produkt (10) ergibt sich
durch Ausmultiplizieren
Die zu
Imaginärteil von z .
zz 0 = (x + iy)(x0 + iy 0 ) = xx0 − yy 0 + i(xy 0 + yx0 ).
z = x + iy konjugiert komplexe Zahl
z := Re z − i Im z = x − iy,
ist deniert als
d.h. Re z
= Re z,
Im z
= −Im z.
Für die komplexe Konjugation gelten folgende leicht zu verizierenden Rechenregeln:
20
• z + z0 = z + z0
• zz 0 = z z 0
• z∈R⇔z=z
• zz = (Re z)2 + (Im z)2 = x2 + y 2 .
Schlieÿlich deniert man den
(4.13)
|z| :=
√
q
zz =
Absolutbetrag
(Re )2 + (Im )2 =
von
z ∈ C.
p
x2 + y 2 .
|z|
= Länge des Vektors
z
nach Pythagoras
Dafür gelten die Rechenregeln
• |z| = 0 ⇔ z = 0
• |z| = |z|
• |zz 0 | = |z||z 0 |
Üb
Rechne die Regeln zu (12) und (13) nach.
Erwähnt sei noch die
Dreiecksungleichung,
die vornehmlich in der Analysis eine wichtige Rolle
spielt.
• |z + z 0 | ≤ |z| + |z 0 |
Später wird eine allgemeinere Aussage bewiesen.
Inversenbildung, Reellmachen des Nenners
z −1 =
1z
z
Re z
Im z
x
y
= 2 =
−i 2 = 2
−i 2
,
2
2
zz
|z|
|z|
|z|
x +y
x + y2
vgl. nach (10). Dazu rechnen wir abschlieÿend das Beispiel
1−i
(1 − i)(3 + 4i)
3 + 4 − 3i + 4i
7
1
=
=
=
+i .
2
2
3 − 4i
3 +4
25
25
25
21
(4.14)
Vektorraum über K .
Körper
K,
kurz
K
Sei
ein Körper. Ein Vektorraum oder linearer Raum über dem
K Vektorraum,
ist eine additiv geschriebene abelsche Gruppe
Verknüpfung, der Multiplikation mit Skalaren
α, β ∈ K
und
x, y ∈ V
• (αβ)x = α(βx)
gilt
K × V → V, (α, x) 7→ αx
V
mit einer
derart, dass für alle
∗)
Assoziativität

• α(x + y) = αx + αy 
• (α + β)x = αx + βx
Distributivgesetze

• 1x = x
Die Elemente von
V
heiÿen
Vektoren, die von K
heiÿen
Skalare. Meist werden wir Vektoren mit
lateinischen Buchstaben und Skalare mit griechischen Buchstaben bezeichnen. Es gilt die Konvention Multiplikation vor Addition. Damit kann man auf manche Klammerung verzichten. Ein
C-Vektorraum
(4.15)
heiÿt
R- bzw.
reeller bzw. komplexer Vektorraum. VR steht in Zukunft für Vektorraum.
Der Vektorraum K n .
Die wichtigsten reellen bzw. komplexen VR sind
n ∈ N.
K
Allgemeiner, ist
n ein
ein Körper, dann ist K
K -VR
Rn
bzw.
Cn
für
mit der komponentenweise
erklärten Addition
x + x0 = (x1 , . . . , xn ) + (x01 + . . . + x0n ) := (x1 + x01 , . . . , xn + x0n )
und Multiplikation mit Skalaren
λx = λ(x1 , . . . , xn ) := (λx1 , . . . , λxn ).
Insbesondere ist
K = K1
ein
K -VR.
Beachte, dass die Komponenten
Die Gültigkeit der VR-Axiome veriziert man direkt.
x1 , . . . , xn von x ∈ K n mit lateinischen Buchstaben bezeichnet
werden, obwohl es Körperelemente sind.
(4.16)
Der Vektorraum K X . Eine Verallgemeinerung von K n
K VR K X aller Funktionen
f : X → K für einen Körper K und einer nichtleeren Menge X . Für f, g aus K X und
λ ∈ K deniert man die Linearkombination f + λ g punktweise, d.h. als die Funktion x 7→
f (x) + λ g(x). Es gilt also
(f + λ g)(x) = f (x) + λ g(x)
∗)
α alpha , β
beta 22
ist der
∀x ∈ X.
Der Nullvektor
0 von K X
ist die Funktion auf
X , die konstant den Wert 0 ∈ K
X veriziert man leicht.
Gültigkeit der VR-Axiome für K
Üb
(4.17)
Inwiefern ist der
K -VR K X
aus (16) eine Verallgemeinerung von
Sei V ein K -VR. Dann gilt ∀ x ∈ V , α ∈ K
• 0x = 0
• α0=0
• αx = 0 ⇒ α = 0
oder
x=0
• −x = (−1) x
• (−α) x = −(α x) = α (−x)
Achtung, es treten zwei verschiedene Nullen auf:
Üb
0∈K
Beweise obige Gleichungen.
23
und
0∈V.
K n?
annimmt. Die
5 Lineare Unabhängigkeit, Basen, Dimension
In diesem Kapitel werden allgemeine strukturelle Eigenschaften eines Vektorraums untersucht.
Im Raum
x, y ∈ E
R3
E durch
λ ∈ R gilt:
hat eine Ebene
und jedem Skalar
den Ursprung die Eigenschaft, dass mit je zwei Vektoren
x + λy ∈ E.
Auch jede Gerade durch den Ursprung hat diese Eigenschaft. Gibt es noch andere Teilmengen von
R3
mit dieser Eigenschaft?
(5.1)
Untervektorraum.
raum (UVR) von
(5.2)
V,
Sei
V
ein
K VR und W ⊂ V
x, y ∈ W, λ ∈ K
wenn für alle
mit
gilt:
0 ∈ W . Dann
x + λy ∈ W .
heiÿt
W
Untervektor-
Lemma. Jeder UVR W eines K VR V ist selbst ein K VR bez. der auf V erklärten VR
Verknüpfungen.
Beweis.
x + y = x + 1y und λx = 0 + λx für x, y ∈ W, λ ∈ K bilden nach
W ab. Auÿerdem ist −x = (−1)x ∈ W für x ∈ W . Insbesondere ist W eine abelsche Gruppe. Die
übrigen VR-Axiome gelten, weil sie für V gelten.
Die VROperationen
W gegeben, dann ist oensichtlich U ein UVR von V . Es sind {0} und
V . Ebenen und Geraden in R3 durch 0 ∈ R3 sind (neben {0} und R3 )
3
3
die einzigen UVR von R . Das wird noch begründet. Eine Gerade in R durch den Nullpunkt ist
3
3
3
jede Teilmenge G = {λ x0 : λ ∈ R} von R mit x0 ∈ R \ {0}. Je zwei Vektoren x1 , x2 aus R , die
nicht auf einer Geraden durch den Nullpunkt liegen, d.h. {x1 , x2 } 6⊂ G ∀ G, spannen eine Ebene
E = {λ1 x1 + λ2 x2 : λ1 , λ2 ∈ R} ⊂ R3 durch den Nullpunkt auf. Zwei weitere Beispiele für UVR
U
Ist in (2) ein UVR
V
von
(triviale) UVR von
folgen.
(5.3)
Hyperebene in K n . Seien K ein Körper und α1 , . . . , αn ∈ K . Dann ist
(
W :=
n
x∈K :
n
X
)
αi xi = 0
i=1
ein UVR von K n .
6= 0 heiÿt W eine Hyperebene.
P
Beweis. Es ist 0 ∈ W , denn 0 = (0, . . . , 0) und ni=1 αi 0 = 0. Seien x, y ∈ W , λ ∈ K . Dann ist
x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) und somit λy = (λy1 , . . . , λyn ), x + λy = (x1 + λy1 , . . . , xn + λyn ).
Es ist zu prüfen, ob x + λy ∈ W . Rechnen in K ergibt
n
X
i=1
αi (xi + λyi ) =
Im Fall (α1 , . . . , αn )
n
X
(αi xi + λαi yi ) =
i=1
n
X
αi xi + λ
i=1
n
X
αi yi
x,y∈W
=
0 + λ0 = 0 ⇒ x + λy ∈ W.
i=1
(5.4)
Untervektorraum K (X) .
Seien
X
eine Menge und
K
ein Körper. Sei
K (X) := {f ∈ K X :
f −1 (K \ {0})) ist endlich}. Demnach ist f : X → K ein Element von K (X)
f (x) 6= 0 nur für höchstens endlich viele x ∈ X . K (X) ein UVR von K X .
24
genau dann, wenn
Üb
Weise (4) nach.
(5.5)
(a)
(b)
Üb
Erzeugter Untervektorraum. Sei V ein VR.
Der Durchschnitt von beliebig vielen UVR von V ist ein UVR von V .
T
Sei M ⊂ V und hM i := {W : W ⊂ V UVR, W ⊃ M }. Dann ist hM i ein UVR von V mit
folgender Eigenschaft: Ist W ein UVR von V mit M ⊂ W , dann ist hM i ⊂ W . Daher ist hM i
der kleinste UVR von V , der M enthält. Er heiÿt der von M erzeugte UVR.
Man beweise (5). Zu (b) beachte man, dass
hM i
UVR ,
W ⊃ M} =
6 ∅ und damit
deniert ist.
Im Folgenden bedeutet die Schreibweise
(5.6)
V ∈ {W : W ⊂ V
Linearkombination. Sei V
x
tionsgemäÿ
ein
x1 , . . . , xn ∈ V ,
K -VR,
seien
dass
(xi )i=1,...,n
eine Familie in
V
ist.
x1 , . . . , xn ∈ V und sei x ∈ V . Dann ist denix1 , . . . , xn , wenn es α1 , . . . , αn ∈ K gibt
eine Linearkombination der Vektoren
derart, dass
x = α1 x1 + α2 x2 + . . . + αn xn .
(5.7)
Lineare Hülle.
Sei
V
ein
K -VR und M ⊂ V , M 6= ∅.
M
Dann heiÿt die Menge aller Linear-
kombinationen von Vektoren aus
(
Span M
:=
x ∈ V : ∃ n ∈ N, x1 , . . . , xn ∈ M, α1 , . . . , αn ∈ K
mit
x=
n
X
)
αi xi
i=1
der von
(5.8)
M
aufgespannte lineare Raum oder die lineare Hülle von
M . Man setzt Span ∅ = {0}.
Satz. Es gilt: Span M = hM i.
Beweis.
Oensichtlich ist
und sind
x, y ∈
M ⊂ SpanM . Weiter ist Span M ein UVR, denn 0 ∈ Span M (klar)
λ
∈ K , dann existieren x1 , . . . , xn ∈ M P
und α1 , . . . , αn ∈ K mit x =
Pn
m
α
x
sowie
y
,
.
.
.
,
y
∈
M
und
β
,
.
.
.
,
β
∈
K
mit
y
=
i i P
1
m
1
m
j=1 βj yj , weshalb x + λy =
Pi=1
n
m
i=1 αi xi + j=1 λβj yj ∈ Span M . Ist nun W ein UVR mit M ⊂ W , dann gilt für x1 , . . . xn ∈ M :
(. . . (((α1 x1 ) + α2 x2 ) + α3 x3 ) + . . . + αn xn ) ∈ W . Daher W ⊃ Span M , was zu zeigen war.
(5.9)
Span M ,
Vektorraumsumme. Seien U , W UVR des VR V . Setze
U + W := {z ∈ V : ∃ x ∈ U, y ∈ W mit z = x + y} .
Oensichtlich ist U + W = Span (U ∪ W ).
Der UVR
U +W
heiÿt die Summe von
U
und
W.
Entsprechend deniert man die Summe von endlich vielen VR.
Für
x ∈ V
sei
Kx := {αx : α ∈ K}. Kx
ist ein UVR. Hiermit erhält man speziell die folgende
Aussage.
(5.10)
Lemma. Für x1 , . . . xn ∈ V gilt
Span {x1 , . . . , xn }
25
= Kx1 + Kx2 + . . . + Kxn .
(5.11)
Erzeugendenmenge.
Seien
Erzeugendenmenge von
W,
x1 , . . . , xn erzeugen V .
(5.12)
V
wenn
Standardeinheitsvektoren.
(0, . . . , 0, 1)
W ⊂ V ein UVR und M ⊂ W . Dann heiÿt M
Span M = W . Ist Span {x1 , . . . , xn } = V , dann sagt man,
ein VR,
In
Kn
e1 := (1, 0, . . . , 0), e2 := (0, 1, . . . , 0),..., en :=
Diese erzeugen K n , denn für x ∈ K n gilt:
seien
die Standardeinheitsvektoren.
x = (x1 , . . . , xn ) = x1 e1 + x2 e2 + . . . + xn en ∈ Ke1 + Ke2 + . . . + Ken .
(5.13)
Lemma. Seien V ein VR und A, B ⊂ V . Dann gelten:
(a)
B ⊂ Span A ⇔ Span (A ∪ B) = Span A.
(b) Span (Span A)
(c)
W
UVR
= Span A.
⇔ Span W = W .
Beweis. Wir beweisen (a). Sei B ⊂ Span A. Dann ist A∪B ⊂ Span A, woraus Span A∪B ⊂ Span A
⊂ Span A ∪ B
folgt. Span A
Üb
Weise (13) (b) und (c) nach.
Die Vektoren
mit
gilt oensichtlich. Die umgekehrte Richtung folgt ebenso einfach.
i 6= j .
(5.14)
x1 , . . . , xn ∈ V
heiÿen
paarweise verschieden,
(xi )i=1,...,n ist injektiv.
wenn
Lineare Unabhängigkeit. Sei V
ein
für
i, j ∈ {1, . . . , n}
K -VR.
(xi )i=1,...,n in V heiÿt linear unabhängig, wenn
i=1 αi xi = 0, dann folgt α1 = α2 = . . . = αn = 0.
(a) Die Familie
dass
xi 6= xj
Man sagt auch, die Familie
gilt: Sind
Pn
(b) Die Teilmenge
M ⊂ V
α1 , . . . , αn ∈ K
derart,
heiÿt linear unabhängig, wenn jede endliche injektive Familie in
M
linear unabhängig ist.
Sprechweise. Man sagt in (14) (a) etwas lax, dass x1 , . . . , xn ∈ V
linear unabhängig sind. Entspre-
chend heiÿt (14) (b), dass je endlich viele paarweise verschiedene Vektoren aus
M
linear unabhängig
sind.
(5.15)
Beispiel. In K n sind die Standardeinheitsvektoren (s. (12)) linear unabhängig.
Beweis.
Also gilt
Üb
Pn
= 0 für gewisse α1 , . . . , αn ∈ K . Nun ist
(α1 , . . . , αn ) = 0 = (0, . . . , 0), d.h. α1 = 0, . . . , αn = 0.
Sei
i=1 αi ei
Pn
i=1 αi ei
= (α1 , . . . , αn ),
Zeige, dass Monome, Splines oder trigonometrische Monome linear unabhängige Mengen von
Funktionen bilden.
(5.16)
s. (12).
Lemma zur linearen Unabhängigkeit 1. Es sind äquivalent:
(i)
(ii)
(iii)
x1 , . . . , xn sind linear unabhängig.
Keiner der Vektoren xi ist Linearkombination der anderen.
Die Darstellung eines Vektors als Linearkombination der xi ist eindeutig.
26
Beweis.
P
Pn
⇒ (ii): Angenommen xi0 =
i=1,i6=i0 βi xi mit βi ∈ K . Setze βi0 := −1. Dann ist
n
i xi = 0, wobei (β1 , . . . , βn ) 6= 0. Das ist ein Widerspruch zu (i). (ii) ⇒ (i): Angenommen
i=0 β
P
n
es ist
i=0 αi xi = 0 mit (α1 , . . . , αn ) 6= 0. Dann existiert i0 mit ai0 6= 0. Damit folgt
(i)
xi0 =
n
X
−αi
xi
αi0
i=1,i6=i0
P
P
P
⇒ (iii): Sei x ∈ V mit ni=1 αi xi = ni=1 βi xi . Dann ist ni=1 (αi −
βi )xi P= 0, weshalb αi − βi = 0 für alle i wegen (i), was (iii) bedeutet. (iii)⇒ (i): Wäre
0 = ni=1 αi xi mit (α1 , . . . , αn ) 6= 0, dann hätte 0 ∈ V zwei verschiedene Darstellungen als Linearkombination der xi im Widerspruch zu (iii).
im Widerspruch zu (ii). (i)
Insbesondere gilt für linear unabhängige Vektoren
x1 , . . . , xn ,
dass kein
xi = 0
ist und dass die
xi
paarweise verschieden sind. Beides reicht aber natürlich nicht für die lineare Unabhängigkeit, denn
z.B. für
x1 ∈ V \ {0}, α ∈ K \ {0, 1}
ist
x1 6= αx1 =: x2 6= 0
und dennoch
x1 + − α1 x2 = 0.
Allgemeiner als (16) ist das folgende Lemma.
(5.17)
Lemma zur linearen Unabhängigkeit 2. Seien V ein VR und M ⊂ V . Dann sind äquivalent:
(i)
(ii)
M ist linear unabhängig.
Keiner der Vektoren x ∈ M ist Linearkombination der Vektoren aus M \ {x}.
Die Darstellung eines Vektors als Linearkombination von Vektoren aus M ist eindeutig.
P
Beweis. Jedes y ∈ Span M läÿt sich in der Form y = x∈M αx x schreiben, wobei αx ∈ K und
αx 6= 0 nur für endlich viele x ∈ M . Damit ist die Summe wohldeniert. Diese Schreibweise ist sehr
(iii)
bequem.
P
y = x∈M βx x mit βx ∈ K \ {0} nur für endlich viele x ∈ M . Dann ist
0 = x∈M (αx − βx )x. Weil M linear unabhängig ist, folgt αx − βx = 0 ∀ x ∈ M .
P
(iii) ⇒ (i): Wäre 0 =
x∈M αx x mit {x ∈ M : αx ∈ K \ {0}} endlich aber nicht leer, dann hätte
0 ∈ Span M zwei verschiedene Darstellungen im Widerspruch zu (iii).
⇒
P
(i)
(i)
(5.18)
(5.19)
⇔
(iii): Sei nun auch
(ii): Der Beweis verläuft wie der zu (16), (i)
Basis. Sei V
ein VR und
M ⊂V.
Dann heiÿt
• M
ist linear unabhängig
• M
ist eine Erzeugendenmenge von
⇔
(ii).
M
eine Basis von
V,
wenn gelten:
V.
Standardbasis des K n . Die Menge der Standardeinheitsvektoren e1 , . . . , en ist eine Basis.
Das folgt aus (12),(15).
(5.20)
Standardbasis des K (X) . Sei X 6= ∅ eine Menge. Zu y ∈ X betrachte ey : X → K ,
ey (x) := 1 falls x = y und = 0 sonst. Dann ist {ey : y ∈ X} eine Basis von K (X) .
Üb
(5.21)
Weise (20) nach.
Basiskoordinaten. Es ist M ⊂ V genau dann eine Basis von V , wenn jeder Vektor eine
eindeutige Darstellung als Linearkombination von Vektoren aus M hat, d.h. wenn es zu jedem
y ∈ V eindeutige
αx ∈ K für x ∈ M mit αx = 0 bis auf endlich viele x ∈ M gibt derart,
P
dass y = x∈M αx x. Die zu y ∈ V eindeutig bestimmten Koezienten αx , x ∈ M , sind die
Koordinaten von y bez. der Basis M .
27
Beweis.
M
Ist
eine Basis, dann folgt die Behauptung aus
Umgekehrt gilt ebenfalls
(5.22)
V = Span M .
V =
Span M und (17), (i)⇒(iii). Wende (17), (iii)⇒(i) an.
Beispiel. Für x = (x1 , . . . , xn ) ∈ K n sind x1 , . . . , xn die Koordinaten von x bez. der Standardbasis.
(5.23)
Basisergänzungssatz. Seien x1 , . . . , xn ∈ V linear unabhängig. Weiter seien y1 , . . . , ym ∈ V
derart, dass Span {x1 , . . . , xn , y1 , . . . , ym } = V . Dann lassen sich die x1 , . . . , xn durch Hinzunahme von Vektoren aus {y1 , . . . , ym } zu einer Basis von V ergänzen.
Beweis. Ist bereits Span {x1 , . . . , xn } = V , dann gilt die Behauptung. Andernfalls ist {y1 , . . . , ym } 6⊂
Span {x1 , . . . , xn } nach (13) (a). Sei
j1 ∈ {1, . . . , m}
der kleinste Index mit
/ Span {x1 , . . . , xn }.
yj1 ∈
Dann gelten:
(a)
x1 , . . . , xn , yj1
sind linear unabhängig.
(b) Span {x1 , . . . , xn , yj1 , yj1 +1 , ym }
=V.
Pn
Zum Nachweis von (a) nehme an, dass (
i=1 αi xi )+βyj1 = 0 mit (α1 , . . . , αn , β) 6= (0, . . . , 0). Dann
Pn
. . . , 0)
ist β 6= 0, weil sonst
i=1 αi xi = 0 mit (α1 , . . . , αn ) 6= (0, im Widerspruch zur linearen UnPn
−αi
abhängigkeit von x1 , . . . , xn . Damit ist jedoch yj1 =
xi ∈ Span {x1 , . . . , xn } im Wideri=1
β
spruch zur Wahl von yj1 . Zum Nachweis von (b) beachte, dass {y1 , . . . , yj1 −1 } ⊂ Span {x1 , . . . , xn }
und damit bereits V = Span {x1 , . . . , xn , yj1 , . . . , ym } nach (13) (a).
Die Behauptung folgt nun, indem man dieses Argument höchstens m mal wiederholt.
Üb
Sei
M ⊂V
linear unabhängig und
y∈V
mit
y∈
/ Span M . Zeige: M ∪{y} ist linear unabhängig.
Lösung. Seien x1 , . . . , xn in M ∪{y} paarweise verschieden. Ist xi ∈ MP
∀ i, dann sind x1 , . . . , xn
n
linear unabhängig nach Voraussetzung. Sei daher o.E. xn = y und
i=1 αi xi = 0. Dann ist
α
= 0, weil sonst y ∈ Span {x1 , . . . , xn−1 } ⊂ Span M entgegen der Voraussetzung. Damit ist
Pnn−1
i=1 αi xi = 0, woraus α1 = · · · = αn−1 = 0 folgt, weil M linear unabhängig ist.
In einer etwas laxen Sprechweise sagt man, dass
paarweise verschieden sind und
(5.24)
{x1 , . . . , xn }
x1 , . . . , xn ∈ V
eine Basis von
V
sind, wenn die
xi
eine Basis ist.
Austauschlemma. Seien x1 , . . . , xn und y1 , . . . , xm Basen von V . Dann gibt es zu jedem
i ∈ {1, . . . , n} ein j ∈ {1, . . . , m} derart, dass aus x1 , . . . , xn eine Basis entsteht, wenn xi
durch yj ersetzt wird.
Beweis.
Ohne Einschränkung sei
x1 ∈ V =
Seien
V
ein VR,
y ∈ Span M
(5.25)
und
⊂
i = 1.
Dann ist
{y1 , . . . , ym } 6⊂
Span {x2 , . . . , xn }, da sonst
x1 ∈
/ Span {x2 , . . . , xn }.
Also existiert j ∈ {1, . . . , m} mit yj ∈
/ Span {x2 , . . . , xn }. Daraus folgt, dass yj , x2 , . . . , xn linear
unabhängig sind (s. Beweis von (a) in (23)). Es bleibt Span {yj , x2 , . . . , xn } = V zu zeigen.
Pn
Weil Span{x1 , . . . , xn } = V , gibt es α1 , . . . , αn ∈ K mit yj =
i=1 αi xi . Dabei ist α1 6= 0,
P
n
−α
weil yj ∈
/ Span {x2 , . . . , xn }. Damit gilt x1 = α11 yj + i=2 α1i xi . Also ist {x1 , x2 , . . . , xn } ⊂
Span {yj , x2 , . . . , xn }, woraus die Behauptung mit (13) (a) folgt.
Üb
Span {y1 , . . . , ym }
Span {x2 , . . . , xn } im Widerspruch zu
x, y ∈ V und M ⊂ V linear unabhängig. Zeige
y∈
/ Span M \ {x} ⇒ x ∈ Span ((M \ {x}) ∪ {y}).
Endlich erzeugt. Ein VR V
M
von
V
gibt.
Nach
(23)
die folgende Implikation:
heiÿt endlich erzeugt, wenn es eine endliche Erzeugendenmenge
Basisergänzungssatz enthält M eine Basis.
28
Üb
Sei
N ⊂ V, N 6= ∅, eine endliche Menge. Zeige: N enthält eine maximale linear unabhängige
M , d.h. für jede linear unabhängige Menge M 0 mit M ⊂ M 0 ⊂ N gilt M = M 0 .
Teilmenge
(5.26)
Dimension. Sei V ein endlich erzeugter VR. Dann sind alle Basen von V endlich mit gleicher
Anzahl von Elementen. Diese heiÿt die Dimension von V und wird mit dim V bezeichnet.
Beweis. Nach (25) besitzt V
eine endliche Basis
x1 , . . . , xn .
y1 , . . . ym ∈ V eine weitere endliche Basis. Angenommen n > m. Nach (24) kann jedes xi
gegen ein yj ausgetauscht werden. Es entsteht eine Basis, in der ein yj zweimal vorkommt (da
n > m). Dies ist ein Widerspruch. Ebenso wird m > n ausgeschlossen. Also ist m = n.
(a) Sei
(b) Seien nun
= V,
y1 , . . . , y r ∈ V
linear unabhängig. Da Span {y1
können nach (23) die
werden. Mit (a) folgt daher
y1 , . . . , y r
r ≤ n.
. . . , yr , x1 , . . . , xn } ⊃ Span {x1 , . . . , xn }
x1 , . . . , xn zu einer Basis ergänzt
durch Vektoren aus
Aus (a) und (b) folgt die Behauptung.
(5.27)
Unendlich dimensional. Ein VR V
V
erzeugt ist. Andernfalls heiÿt
heiÿt endlich dimensional genau dann, wenn er endlich
unendlich dimensional und man setzt dim V
(5.28)
Beispiel. Sei V ein K -VR und x ∈ V , x 6= 0. Dann ist dim Kx = 1.
(5.29)
Beispiel. Wegen
ist dim K n = n. Insbesondere ist jedes M ⊂ K n mit mehr als n
Elementen linear abhängig.
(19)
W ⊂ Rn
Üb
Man bestimme die Dimension der Hyperebene
Üb
Basis ist eine minimale Erzeugendenmenge.
folgende Äquivalenz:
in (3).
Sei V ein VR und N ⊂ M ⊂ V . Zeige
M ist Basis von V ⇔ Span M = V und Span N 6= V falls N 6= M .
Üb
Basis ist eine maximale linear unabhängige Menge.
Üb
Seien
V ein VR und M ⊂ N ⊂ V .
Zeige die folgende Äquivalenz: M ist Basis von V ⇔ M ist linear unabhängig und N ist linear
abhängig falls M 6= N .
V
ein VR und
W ⊂V
ein UVR. Zeige, dass dim W
•
dim V
< ∞, W 6= V ⇒ dim W < dim V .
•
dim V
< ∞,
dim W
Seien
V
ein VR und
U, W
W 6= V
und dim W
Weiter zeige:
= dim V (= ∞).
+ W ) + dim (U ∩ W ) = dim U + dim W
= ∞
oder dim W
N ∪ {0}, ∞ + ∞ = ∞. Insbesondere folgt
{0} ⇔ dim (U + W ) = dim U + dim W.
Jeder VR
≤ dim V .
UVR. Zeige die folgende Dimensionsformel
dim (U
auch für den Fall dim U
Sei
= dim V ⇒ W = V .
Schlieÿlich nde ein Beispiel mit
Üb
:= ∞.
= ∞,
∞+n = ∞ ∀ n ∈
dim W < ∞: U ∩ W =
wenn man vereinbart
im Fall dim U
<∞
und
6= {0} hat eine Basis. Um dies beweisen zu können, benötigt man ein mengentheoretisches
Hilfsmittel, das sog. Zornsche Lemma, was äquivalent zum Auswahlaxiom ist.
29
(5.30)
Halbordnung. Sei X
eine Menge. Eine Halbordnung
Eigenschaften. Für alle
• x≤x
x, y, z ∈ X
≤ auf X
ist eine Relation mit folgenden
gilt:
(Reexivität)
• x ≤ y, y ≤ x ⇒ x = y
(Antisymmetrie)
• x ≤ y, y ≤ z ⇒ x ≤ z
(Transitivität)
Y ⊂ X . Dann heiÿt Y total geordnet oder eine Kette, wenn für alle y, y 0 ∈ Y stets gilt
y ≤ y 0 oder y 0 ≤ y . Sei Y ⊂ X . Dann heiÿt a ∈ X eine obere Schranke von Y , wenn
y ≤ a für alle y ∈ Y . Ein Element b ∈ X ist ein maximales Element von X , wenn aus
x ∈ X und b ≤ x folgt x = b.
Sei
(5.31)
Beispiel. Sei X 6= ∅ eine Menge. Oensichtlich ist die gewöhnliche
Mengeninklusion ⊂ eine
S
Halbordnung auf P(X). Sei Y ⊂ P(X). Dann ist A := {Y : Y ∈ Y} eine obere Schranke
von Y . K := {{1, . . . , n} : n ∈ N} ist eine Kette in P(N).
Im allgemeinen hat nicht jede Teilmenge einer halbgeordneten Menge, auch nicht eine Kette, eine
obere Schranke.
(5.32)
(5.33)
Zornsches Lemma. Eine nichtleere halbgeordnete Menge, in der jede Kette eine obere Schranke besitzt, hat ein maximales Element.
Basisexistenzsatz. Jeder VR V 6= {0} besitzt eine Basis.
Beweis. Sei L die Menge aller linear unabhängigen Teilmengen in V . Ist x ∈ V \ {0}, dann ist {x}
L 6=
S ∅. L ist halbgeordnet mit der Mengeninklusion.
K ∈ L eine Kette. Setze L := {K : K ∈ K}. Dann ist K ⊂ L ∀ K ∈ K. Zeige zunächst, dass
L linear unabhängig ist. Dazu seien x1 , . . . , xn ∈ L paarweise verschieden. Dazu existieren Ki ∈ K
mit xi ∈ Ki für i = 1, . . . , n. Weil K eine Kette ist, gibt es ein K ∈ {K1 , . . . , Kn } mit Ki ⊂ K und
somit xi ∈ K für i = 1, . . . , n. Da K ∈ L, sind x1 , . . . , xn linear unabhängig.
Dies beweist, dass L ∈ L eine obere Schranke für K ist. Somit existiert nach (32) ein maximales
Element M in L. Dies ist eine Basis von V . Dazu bleibt zu zeigen, dass M eine Erzeugendenmenge
von V ist.
0
Angenommen es ist Span M 6= V . Sei y ∈ V \ Span V . Dann ist aber M := M ∪ {y} linear
unabhängig (s. Üb. nach (23)). Dies ist ein Widerspruch zur Maximalität von M .
linear unabhängig und damit ist
Sei
Üb
Basisergänzungssatz. Sei V 6= {0} ein VR. Seien weiter L ⊂ V
N⊂
V derart, dass Span (L ∪ N ) = V . Zeige: Es existiert eine Basis M von V mit L ⊂ M ⊂ L ∪ N .
Tipp:
Betrachte
L := {X ⊂ V : L ⊂ X ⊂ L ∪ N, X
geninklusion als partielle Ordnung.
30
linear unabhängig und
ist linear unabhängig} mit der Men-
6 Lineare Abbildungen
Lineare Abbildungen stehen im Mittelpunkt aller unseren weiteren Untersuchungen. Seien
W
KVR. Eine
Abbildung f : V 7→ W
• f (x + λx0 ) = f (x) + λf (x0 )
Es folgen sofort
n
X
• f
f (0) = 0
!
αi xi
=
i=1
heiÿt
linear, wenn
für alle
V
und
x, x0 ∈ V, λ ∈ K.
und mit Induktion
n
X
αi f (xi )
für alle
n ∈ N, αi ∈ K, xi ∈ V.
i=1
Beispiele und grundlegende Eigenschaften
(6.1)
Beispiel.
V = W und α0 ∈ K . Setze f : V → V, f (x) := α0 x. Dann ist f linear, denn
f (x + λy) = αo (x + λy) = α0 x + λα0 y, f (x) = α0 x, f (y) = α0 y und daher
f (x + λy) = f (x) + λf (y). Man nennt f eine Homothetie.
Sei
nach Denition ist
(6.2)
Beispiel. Sei f : K → K linear. Dann existiert α0 ∈ K mit f (z) = α0 z für alle z ∈ K , denn,
weil
f
linear ist, gilt
f (z) = f (z1) = zf (1) = f (1)z = α0 z
für alle
z∈K
mit
α0 := f (1).
(6.3)
Projektion in K n .
(6.4)
Beispiel. Die Abbildung f : C3 → C3 , f (x1 , x2 , x3 ) := (x2 , 0, x1 ), ist linear, denn
i ∈ {1, . . . , n}. Die Projektion auf die i-te Komponente pri : K n →
K, pri (x) := xi ist linear, denn wegen x+λy = (x1 , . . . xn )+λ(y1 , . . . , yn ) = (x1 +λy1 , . . . , xn +
λyn ) ist pri (x + λy) = xi + λyi = pri (x) + λpri (y).
Sei
(x1 , x2 , x3 ) + λ(y1 , y2 , y3 ) = (x1 + λy1 , x2 + λy2 , x3 + λy3 )
f↓
f↓
f↓
(x2 , 0, x1 ) + λ(y2 , 0, y1 ) =
(x2 + λy2 , 0, x1 + λy1 )
ist oenbar richtig.
Üb
Translationen sind nicht linear.
V → V, ta (x) := x + a
Seien
die Translation um
V
a.
ein VR und
a ∈ V \ {0}
fest. Dann heiÿt
ta :
Sie ist nicht linear, denn
ta (2x) = 2x + a, 2ta (x) = 2(x + a) = 2x + 2a ⇒ ta (2x) 6= 2ta (x).
a6=0
Üb
RR (s. (4.16)) sind die Vektorraumverknüpfungen punktweise deniert, d.h. für f, g ∈
λ ∈ R ist denitionsgemäÿ (f + λg)(x) = f (x) + λg(x) für alle x ∈ R. Sei ϕ ∈ RR fest.
R
R
Zeige, dass F : R → R , (F (f ))(x) := ϕ(x)f (x) für alle x ∈ R, linear ist. Man schreibt auch
kurz F (f ) = ϕf .
Im VR
RR ,
Lösung. (F (f + λg))(x) = ϕ(x)(f + λg)(x) = ϕ(x)(f (x) + λg(x)) = ϕ(x)f (x) + λϕ(x)g(x) =
(F (f ))(x) + λ(F (g))(x) ∀ x ∈ R, weshalb F (f + λg) = F (f ) + λF (g).
31
Üb
X, Y
Seien
V := K X , W := K Y die in (4.16) denierten VR mit
Verknüpfungen. Weiter sei ϕ : Y → X eine Abbildung. Zeige:
nichtleere Mengen und
den punktweise denierten
F : V → W, F (f ) := f ◦ ϕ
ist wohldeniert und eine lineare Abbildung.
Lösung. Für f ∈
f ◦ ϕ ∈ K Y . Daher ist F wohldeniert. Weiter ist F (f + λg) = (f +
λg)◦ϕ. Weil ((f +λg)◦ϕ)(x) = (f +λg)(ϕ(x)) = f (ϕ(x))+λg(ϕ(x)) = (f ◦ϕ)(x)+λ(g ◦ϕ)(x)
∀ x ∈ X ist (f + λg) ◦ ϕ = f ◦ ϕ + λ(g ◦ ϕ) = F (f ) + λF (g).
K X ist
(6.5)
Lineare Fortsetzung. Seien x1 , . . . , xn eine Basis in V und y1 , . . . , yn Vektoren aus W . Dann
gibt es genau eine lineare Abbildung f : V → W derart, dass f (xi ) = yi für alle i ∈ {1, . . . , n}.
Beweis.
. Sei x ∈ V .
Pnf, g : V → W linear mit f (xi ) = g(xi ) = yi ∀iP
n
α
x
.
Weil
f
und
g
linear
sind,
folgt
f
(x)
=
f
(
α
∈
K
mit
x
=
iP
i=1 αi xi ) =
Pn
Pn i=1 i i
Pn
n
i=1 αi g(xi ) = g ( i=1 αi xi ) = g(x). Weil x ∈ V beliebig ist, folgt
i=1 αi yi =
i=1 αi f (xi ) =
f = g.
Zur Existenz beachte, dass obige Koordinaten αi ∈ K von x ∈ V bez. der Basis x1 , . . . , xn
Pn
Pn
eindeutig bestimmt sind. Ausgehend von x =
i=1 αi xi setze f : V → W, f (x) :=
i=1 αi yi .
Damit ist f wohldeniert und f (xi ) = yi ∀i. Es bleibt die Lineraität von f zu zeigen:
!
!
n
n
n
X
X
X
0
0
0
f (x + λx ) = f
αi xi + λ
αi xi = f
(αi + λαi )xi .
Zur Eindeutigkeit seien
Dann gibt es
i=1
Letzteres ist nach Denition von
n
X
f
i=1
i=1
gleich
(αi +
λαi0 )yi
=
i=1
n
X
αi yi + λ
i=1
n
X
αi0 yi ,
i=1
was wieder denitionsgemäÿ gleich ist
n
X
f
i=1
!
αi xi
+ λf
n
X
!
αi0 xi
= f (x) + λf (x0 ).
i=1
Üb
Seien
V, W
K-VR,
M ⊂V
eine Basis von
V
Dann gibt es genau eine lineare Abbildung
Untersuche, wann
f
und (yx )x∈M
f : V → W
(irgend)eine Familie in
mit
f (x) = yx
W . Zeige:
x ∈ M.
für alle
injektiv, surjektiv oder bijektiv ist.
V, W K-VR
V . Ist ϕ : M → W (irgend)eine Abbildung, dann existiert genau eine
f : V → W von ϕ, d.h. f linear mit f |M = ϕ. Insbesondere ist eine lineare
Die Aussage von (5) und, allgemeiner, obiger Übung läÿt sich auch so ausdrücken: Seien
und
M ⊂V
eine Basis von
lineare Fortsetzung
Abbildung durch ihre Werte auf einer Basis bereits eindeutig bestimmt.
Üb
(6.6)
x1 := (1, 1, 1), x2 := (i, 1, 1), x3 := (0, i, 0) bilden eine Basis in C3 . Weiter seien y1 :=
(5i, 0, 1), y2 := (0, 0, 0), y3 := (0, 1 + i, 0). Nach (5) gibt es genau eine
lineare Abbildung von
3
3
C in C mit f (xi ) = yi für i = 1, 2, 3. Man berechne f (i, 1, i + 1) .
Zeige:
Bild und Kern.
−1 ({0})
und f
(6.7)
f : V → W linear. Dann heiÿen f (V ) =:
=: Kern (f ) ⊂ V der Kern von f .
Sei
Lemma. Bild(f ) bzw. Kern(f ) ist ein UVR von W bzw. V.
32
Bild (f )
⊂W
das Bild von
f
Beweis.
f (0) = 0 ∈ Bild (f ). Seien y, y 0 ∈ Bild (f ). Dann existieren x, x0 ∈ V mit f (x) =
y, f (x0 ) = y 0 . Mit λ ∈ K folgt für x + λx0 ∈ V wegen der Linearität f (x + λx0 ) = f (x) + λf (x0 ) =
y + λy 0 ∈ Bild (f ). Also ist Bild(f ) ein UVR von W . Für den Kern (f ) = f −1 ({0}) = {x ∈ V :
f (x) = 0} ist 0 ∈ Kern (f ) oensichtlich. Seien x, x0 ∈ Kern (f ) und λ ∈ K . Dann ist f (x + λx0 ) =
f (x) + λf (x0 ) = 0 + λ0 = 0, weshalb x + λx0 ∈ Kern (f ). Also ist Kern (f ) ein UVR von V.
Es ist
Allgemeiner gilt
(6.8)
Lineares Bild und Urbild. Seien f : V → W linear und V 0 ⊂ V und W 0 ⊂ W UVR. Dann
ist f (V 0 ) ein UVR von W und f −1 (W 0 ) ein UVR von V.
Üb
(6.9)
Weise (6.8) nach.
Rang einer linearen Abbildung. Sei f : V → W
der Rang von
f
surjektiv
Beweis. Zur nicht trivialen Richtung ⇐
dim W , ist nach (5.23), (5.26)
(6.10)
linear. Dann heiÿt Rang (f )
:= dim Bild (f )
f . Sei dim W < ∞. Dann gilt:
y1 , . . . , y r
sei
⇐⇒
Rang(f )
y1 , . . . , y r
=
dim W.
(f ). Da r = Rang (f ) =
damit Bild (f ) = W.
eine Basis von Bild
bereits eine Basis von
W
und
Injektivitätskriterium. Sei f : V → W linear. Dann gilt:
f
injektiv
⇐⇒
Kern (f )
= {0}.
Beweis. ⇒
Sei x ∈ Kern (f ). Dann ist f (x) = 0. Es ist auch f (0) = 0. Weil f injektiv ist, folgt
x = 0. ⇐ Seien x, x0 ∈ V mit f (x) = f (x0 ). Dann ist 0 = f (x) − f (x0 ) = f (x − x0 ). Weil nun
0
0
Kern (f ) = {0}, ist x − x = 0, d.h. x = x .
(6.11)
Beispiel. Die Abbildung f : K n → K m , f (x1 , . . . , xn ) := (
ist linear mit Rang(f ) = 1 und dim Kern(f ) = n − 1.
Pn
i=1 xi ,
Pn
i=1 xi , . . . ,
Pn
i=1 xi )
Beweis.
Die Linearität ist leicht nachzuweisen. Oenbar ist Bild(f ) = K(1, 1, . . . , 1). Daher ist
Rang(f
)
=
1. Jetzt wird dim Kern(f ) = n − 1 gezeigt. Es ist Kern(f ) = {(x1 , . . . , xn ) ∈ K n :
Pn
i=1 xi = 0}. Für n = 1 ist Kern(f ) = {0}. Sei nun n > 1. Oenbar liegen x1 := (1, −1, 0, . . . , 0),
x2 := (1, 0, −1, 0, . . . , P
0), . . . , xn−1 :=P(1, 0, . . . , 0, −1) in Kern(f ). Weiter sind x1 , . . . P
, xn−1 linen−1
n−1
n−1
α
,
−α
,
.
.
.
,
−α
)
=
(0,
.
.
.
,
0)
impliziert
α
x
=
(
ar unabhängig, denn
2
n
i=1 αi =
i=1 i i
i=1 i
0, α2 = · · · = αn = 0 und somit auch α1 = 0. Damit ist dim Kern (f ) ≥ n − 1. Andererseits ist
n
Kern (f ) 6= K , weil z.B. (1, 0, . . . , 0) ∈
/ Kern(f ), weshalb dim Kern(f ) < n.
In diesem Beispiel ist dim Kern(f ) + Rang(f )
=
dim
K n.
Das ist ein allgemeiner Sachverhalt, s.
(14).
Üb
Untersuche Bild und Kern für die bisher betrachteten linearen Abbildungen
Homothetie
ite
f
Projektion
aus (4)
F : RR → RR , F (f ) = ϕf
F : K X → K Y , F (f ) = f ◦ ϕ
33
(6.12)
Lemma. Seien V, W VR, M ⊂ V und f : V → W linear. Dann gilt:
f (Span M ) = Span f (M ).
Insbesondere ist f (M ) eine Erzeugendenmenge von W , wenn M eine solche von V ist und f
surjektiv ist.
Beweis.
Seien
x1 , . . . , xn ∈ M
und
α1 , . . . , αn ∈ K .
Dann gilt
Daraus folgt unmittelbar die Behauptung.
(6.13)
P
Pn
f ( ni=1 αi xi ) =
i=1 αi f (xi ).
Lemma. Seien V, W VR und f : V → W linear und injektiv. Weiter seien x1 , . . . , xn linear
unabhängig in V . Dann sind f (x1 ), . . . , f (xn ) linear unabhängig in W .
Beweis. Sei
P
P
= 0 für αi ∈ K . Dann folgt: f ( ni=1 αi xi ) = 0 ⇒ ni=1 αi xi = 0 (weil f
injektiv ist) ⇒ (α1 , . . . , αn ) = 0 (weil x1 , . . . , xn linear unabhängig sind). Also sind f (x1 ), . . . , f (xn )
linear unabhängig.
(6.14)
Pn
i=1 αi f (xi )
Dimensionsformel. Sei dim V < ∞ und f : V → W linear. Dann gilt:
dim
Beweis. Weil V
V = Rang(f ) +
dim Kern(f ).
endlich erzeugt ist, ist wegen (12) auch Bild(f ) endlich erzeugt. Damit ist Rang(f )
∞. Sei y1 , . . . , yr eine Basis von Bild(f ).
xr+1 , . . . , xr+s eine Basis von Kern(f ) ⊂ V .
Wähle
xi ∈
r+s
X
αi xi ⇒ 0 = f (0) =
r+s
X
i=1
αi f (xi ) =
i=1
{yi }
Es bleibt zu zeigen, dass
ist. Zunächst zeigen wir die lineare Unabhängigkeit der
0=
f −1
r
X
<
für i = 1, . . . , r . Weiter sei
x1 , . . . , xr+s eine Basis von V
xi :
αi f (xi ) + 0 =
i=1
r
X
αi yi ⇒ α1 = α2 = · · · = αr = 0
i=1
Pr+s
y1 , . . . , yr linear unabhängig sind. Damit ist 0 =
i=r+1 αi xi , woraus auch αr+1 = · · · =
αr+s = 0 folgt, weil xr+1 , . . . , xr+s linear unabhängig sind.
Pr
Jetzt wenden wir uns dem Span der xi zu. Sei x ∈ V . Dann ist f (x) =
j=1 αj yj mit bestimmten
P
αj ∈ K , da y1 , . . . , yr eine Basis des Bildes sind. Nun betrachte x0 := ri=1 αi xi . Dafür folgt
weil
f (x − x0 ) = f (x) − f (x0 ) =
r
X
r
r
r
X
X
X
αj yj − f (
αi xi ) =
αj yj −
αi f (xi ) = 0,
j=1
i=1
j=1
i=1
P
f (xi ) = yi . Deshalb ist x − x0 ∈ Kern(f ) und somit x − x0 = r+s
i=r+1 αi xi mit gewissen αi ∈ K .
P
P
r+s
r+s
0
Also ist x = x +
α
x
=
α
x
.
Das
beweist
Span
{x
,
.
1 . . , xr+s } = V .
i=r+1 i i
i=1 i i
weil
Sehen wir uns den Beweis von (14) genauer an. Der UVR
U+
Kern (f )
=V
und
U∩
Kern (f )
U :=
Span {x1 , . . . , xr } erfüllt
= {0},
V = Span {x1 , . . . , xr+s } ⊂ Span U ∪ Kern (f ) = U + Kern (f ) ⊂ V , und U ∩ Kern (f ) =
Span {x1 , . . . , xr } ∩ Span {xr+1 , . . . , xr+s } = {0}, weil x1 , . . . , xr+s linear unabhängig sind.
denn
(6.15)
Direkte Vektorraumsumme. Ein VR V
U + U0 = V
Man nennt
U
und
(bzw.
U 0)
heiÿt die direkte Summe der UVR
U
und
U 0 , wenn
U ∩ U 0 = {0}.
Komplement von U
ein VR
34
(bzw.
U 0)
und schreibt
V = U ⊕ U 0.
Beispiel.
(a)
R2 = G 1 ⊕ G2
(b)
R3 = E ⊕ G
(6.16)
für je zwei verschiedene Geraden durch den Ursprung.
für jede Ebene
E
und Gerade
G,
die den Ursprung enthalten und wofür
G 6⊂ E.
Lemma. Sei V = U ⊕ U 0 . Dann existieren zu jedem x ∈ V eindeutige Vektoren u ∈ U, u0 ∈ U 0
mit x = u + u0 .
Beweis.
u, u0 folgt aus U + U 0 = V . Zur Eindeutigkeit seien v ∈ U und v 0 ∈ U 0
0
0
0
0
0
0
derart, dass ebenfalls x = v + v . Dann ist u − v = v − u , wobei u − v ∈ U und v − u ∈ U . Daher
0
0
0
0
folgt u − v = v − u = 0, d.h. u = v und u = v .
Die Existenz von
Wendet man (16) auf die Situation in (14). an, so folgt, dass
fU : U →
Bild(f ),
fU (x) := f (x)
eine lineare Bijektion ist, d.h. ein sog. Isomorphismus (21).
Üb
Seien dim
V.
V < ∞ und f : V → W linear. Sei weiter U ein VR-Komplement
fU : U → Bild (f ), fU (x) := f (x) ein Isomorphismus (21) ist.
von Kern(f ) in
Zeige, dass
Es folgt ein wichtiges Korollar zu (14).
(6.17)
Korollar. Seien dim V = dim W < ∞ und f : V → W linear. Dann gilt:
f
Beweis.
injektiv
⇐⇒ f
surjektiv
Es gelten allgemein:
dim Kern(f )
=0
f
⇐⇒ f
surjektiv
bijektiv.
⇔
Rang(f )
= dim V
(nach (9)), und
f
injektiv
(nach (10)). Die Behauptung folgt daher aus der Dimensionsformel (14).
⇔
Die lineare Gleichung f (x) = b
Sei
f :V →W
linear und
b ∈ W.
Die Gleichung
inhomogen. Die Menge aller Lösungen x ∈ V
f (x) = b
der Gleichung
Im Fall der homogenen Gleichung ist daher
f (x) = 0 ⇐⇒ x ∈
heiÿt
Kern (f ).
35
homogen, wenn b = 0, ansonsten
f (x) = b ist denitionsgemäÿ f −1 ({b}).
Die homogene Gleichung hat stets (mindestens) eine Lösung, nämlich
lich, dass die Gleichung
b∈
f (x) = b
genau dann
lösbar
x = 0.
Allgemein gilt natür-
ist, d.h. (mindestens) eine Lösung hat, wenn
Bild (f ).
(6.18)
Lösungsmenge. Sei f : V → W linear und b ∈ Bild (f ). Weiter sei x0 ∈ V
f (x) = b. Dann gilt für die Lösungsmenge
f −1 ({b}) = x0 +
Alle Lösungen
x∈V
eine Lösung von
Kern (f ).
von
f (x) = b
sind also von der Form
x = x0 + z ,
wobei
spezielle oder partikuläre Lösung der inhomogenen Gleichung ist und z
x0
eine sog.
alle Lösungen der
homogenen Gleichung durchläuft.
Beweis.
x = x0 + z eine Lösung, denn f (x) = f (x0 + z) = f (x0 ) + f (z) = f (x0 ) = b.
Umgekehrt sei x ∈ V eine Lösung, d.h. f (x) = b. Da auch f (x0 ) = b, folgt: f (x) = f (x0 ) ⇒ 0 =
f (x) − f (x0 ) = f (x − x0 ) ⇒ x − x0 =: z ∈ Kern (f ).
(6.19)
Es ist
Korollar. Sei dim V = dim W < ∞. Dann sind äquivalent:
(a)
Die inhomogene Gleichung f (x) = b hat für jedes b ∈ W eine Lösung.
(b)
Die homogene Gleichung f (x) = 0 hat nur die triviale Lösung x = 0.
Gilt (a) oder
Lösung.
Beweis.
(b),
dann hat die inhomogene Gleichung f (x) = b für jedes b ∈ W genau eine
(a) bedeutet, dass
f
(17). Die restliche Behauptung besagt die Bijektivität
(6.20)
f
von f
surjektiv ist und (b), dass
Aner Unterraum. Seien V
ein VR,
U ⊂V
injektiv ist. Die Äquivalenz gilt nach
und folgt somit auch aus (17).
ein UVR und
a∈V.
Dann nennt man
a + U := {a + x : x ∈ U }
einen anen Unterraum von V.
Ist
u ∈ U,
a + U = (a + u) + U .
x0 + Kern (f ).
dann ist oenbar
ane Unteraum
Die Lösungsmenge von
f (x) = b
ist also der
Isomorphismen
(6.21)
Isomorphismus.
Seien V, W VR. Eine Abbildung f : V → W heiÿt (VR)Isomorphismus,
f linear und bijektiv ist. V und W heiÿen isomorph, wenn es einen Isomorphismus
f : V → W gibt. Man schreibt V ' W.
wenn
(6.22)
Lemma. Es gilt: f Isomorphismus ⇒ f −1 Isomorphismus.
Beweis.
f −1 seien y, y 0 ∈ W, λ ∈ K : f (f −1 (y + λy 0 )) = y + λy 0 , f (f −1 (y) +
λf −1 (y 0 )) = f (f −1 (y)) + λf (f −1 (y 0 )) = y + λy 0 ⇒ f −1 (y + λy 0 ) = f −1 (y) + λf −1 (y 0 ).
(6.23)
Zur Linearität von
Isomorphes Bild einer Basis. Seien f : V → W linear und M ⊂ V eine Basis. Dann ist f
genau dann ein Isomorphismus, wenn f |M injektiv und f (M ) eine Basis ist.
36
Beweis.
f |M injektiv
und f (M ) eine Basis. Dann ist f surjektiv nach (12). Zur Injektivität betrachte x ∈ Kern (f ). Weil
Pn
M eine Basis ist,Pist x =
i=1 αi xi mit αi ∈ K und paarweise verschiedenen xi ∈ M . Damit
n
ist 0 = f (x) =
i=1 αi f (xi ), wobei f (xi ) paarweise verschiedene Basiselemente sind. Es folgt
(α1 , . . . , αn ) = (0, . . . , 0) und somit x = 0. Nach (10) ist f injektiv.
(6.24)
Sei
f
ein Isomorphismus. Die Behauptung folgt aus (12), (13). Sei nun
Korollar. Seien V, W VR und dim V < ∞ Dann gilt:
V ' W ⇐⇒
Beweis. ⇒
dim V
=
dim W.
f : V → W . Sei x1 , . . . , xn eine Basis von V mit
n = dim V. Nach (23) ist f (x1 ), . . . , f (xn ) eine Basis in W , womit dim V = dim W . ⇐ Es existieren
Basen x1 , . . . , xn und y1 , . . . , yn von V bzw. W mit n = dim V = dim W . Nach (5) gibt es eine
lineare Abbildung f : V → W mit f (xi ) = yi für i = 1, . . . , n. Nach (23) ist f ein Isomorphismus.
Üb
Seien
Es gibt einen Isomorphismus
V, W
VR und
sind isomorph, wenn
(6.25)
M ⊂ V bzw. N ⊂ W eine Basis
M und N gleichmächtig sind.
von
V
bzw. von
W.
Zeige:
V
und
Korollar. Sei V ein K-VR mit dim V < ∞ und n ∈ N. Dann gilt:
V ' K n ⇐⇒ n =
dim V.
Beweis. Die Aussage folgt aus (24) wegen.(5.29).
Üb
(6.26)
V ein K-VR und M ⊂ V
mit ey aus (5.20).
Sei
Korollar. Seien dim V =
eine Basis. Zeige:
V ' K (M ) . Tipp:
Betrachte
y 7→ ey
für
y∈M
< ∞ und f : V → W linear. Dann ist f ein Isomorphismus
genau dann, wenn f injekiv oder surjektiv ist.
dim W
Beweis. Wende (17) an.
(6.27)
W
Lemma. Seien V , V 0 , W und W 0 VR, f : V → W linear, sowie s : V → V 0 und t : W → W 0
Isomorphismen. Setze f 0 := t ◦ f ◦ s−1 . Dann ist f 0 surjektiv bzw. injektiv genau dann, wenn
f surjektiv bzw. injektiv ist, und es gelten:
Rang(f
0
Üb
Beweise (27).
Üb
Sei
V
ein
) = Rang(f ) und
K VR, X
dim Kern(f
eine Menge und
0
)=
dim Kern(f ).
f :V →X
eine Bijektion. Führe auf
X
eine abelsche
Gruppenstruktur ein und deniere dazu eine Multiplikation mit Skalaren derart, dass
K VR
ist und
f
ein VRIsomorphismus.
37
X
ein
Mengen von linearen Abbildungen
nach
V und W
W . ∗)
(6.28)
Lemma.
Seien
K-VR. Dann bezeichnet Hom
Hom
Verknüpfungen.
(V, W )
die Menge aller linearen Abbildungen von
V
(V, W ) ist ein UVR von W V versehen mit den punktweise denierten VR
Beweis. Seien f, g : V → W
linear. Zu zeigen ist, dass
f +λg für λ ∈ K
linear ist:
αx0 )
(f +λg)(x+αx0 ) =
+
=
+ λg(x + αx0 ) (nach Denition der VR-Verknüpfungen in W V ) = f (x) + αf (x0 )
λ(g(x) + αg(x0 )) (weil f und g linear sind) = (f (x) + λg(x)) + α(f (x0 ) + λg(x0 ))
f (x +
λf (x0 ) +
(f + λg)(x) + α(f + λg)(x0 ) (nach Denition der VR-Verknüpfung in W V ).
V oensichtlich linear und somit 0 ∈ Hom (V, W ).
Nullabbildung 0 ∈ W
(6.29)
Schlieÿlich ist die
Lemma. Seien V, W, U VR, f : V → W linear und g : W → U linear. Dann ist g ◦f : V → U
linear.
Üb
Weise (29) nach.
Aut (V
von
V
(6.30)
)
bezeichnet die Menge aller
auf sich. Aut (V
)
idV
aber kein UVR.
∈ Aut (V ) und mit f, g ∈ Aut (V ) gilt: f ◦ g −1 ∈ Aut (V ).
Beweis. Oensichtlich ist idV
∗)
(V, V ),
Automorphismengruppe. Aut (V ) bildet eine Untergruppe der symmetrischen Gruppe S(V ),
d.h.
ist
Automorphismen von V , d.i. die Menge aller Isomorphismen
ist eine Teilmenge von Hom
f◦
ein Isomorphismus. Nach (22) ist
g −1
g −1 linear und nach (2.23) bijektiv, also ein Isomorphismus.
Hom steht für Homomorphismus.
38
ein Isomorphismus. Nach (29)
7 Matrizen
Lineare Abbildungen zwischen endlichdimensionalen Vektorräumen können in eektiver Weise mittels Matrizen beschrieben werden.
Die Abbildungsmatrix
Seien
V
dizierte
W
und
v1 , . . . , vn
Basen
K VR mit n := dim V und m := dim W . Weiter seien inw1 , . . . , wm von V bzw. W gegeben. Diese liegen den folgenden
endlichdimensionale
und
Konstruktionen zugrunde.
f : V → W
Sei nun
ten Basisvektors unter
eine lineare Abbildung. Für jedes
f
m
X
f (vl ) =
akl wk
akl ∈ K
f (vl ) des lwk , k = 1, . . . , m,
ist das Bild
eindeutig als Linearkombination der Basisvektoren
darstellbar. Es existieren also eindeutig bestimmte Skalare
(7.1)
l = 1, . . . , n
derart, dass
l = 1, . . . , n.
für
k=1
a1l , . . . , aml sind die Koordinaten von f (vl ) bez. der Basis w1 , . . . , wm (s. (5.21)).
l = 1, . . . , n. Sei nun x ∈ V beliebig. Seine Koordinaten bez. der Basis v1 , . . . , vn
Anders ausgedrückt,
Dies gilt für jedes
seien
(7.2)
∗) , d.h.
ξ1 , . . . , ξn
x=
n
X
ξl vl .
l=1
Entsprechend seien
(7.3)
f (x) =
m
X
η1 , . . . , ηm
†) die Koordinaten von
f (x)
bez. der Basis
w1 , . . . , wm ,
d.h.
ηk wk .
k=1
ξ1 , .. . , ξn und η
? Nach (2), (1)
1 , . . . , ηm
m
n
m
n
P
P
P
P
akl wk =
ξl akl wk =
akl ξl wk .
Welcher Zusammenhang besteht zwischen den Koordinaten
ist
f (x) = f
n
P
ξl vl
=
l=1
n
P
ξl f (vl ) =
l=1
n
P
l=1
ξl
m
P
k=1
k=1
l=1
k=1
l=1
Der Vergleich mit (3) zeigt
(7.4)
ηk =
n
X
akl ξl
für
k = 1, . . . , m.
l=1
Man beachte die unterschiedliche Stellung des Summationsindex in (1) und (4). Die
in (4) schreibt man in der Form

(7.5)
 
 
η1
a11 a12 . . . a1n
ξ1
 η2   a21 a22 . . . a2n   ξ2 
  
 
 ..  =  ..
.
.  . .
..
.
.
.
 .   .
.
.
.  . 
ηm
am1 am2 . . . amn
ξn
Dabei nennt man
 
ξ1
 .. 
ξ :=  . 
ξn
∗)
†)
ξ
η
xi
eta
39
m Gleichungen
Koordinatenvektor von x bez. der Basis v1 , . . . , vn . Entsprechend bildet man den Koordinatenvektor η . Koordinatenvektoren sind stets Spaltenvektoren. Durch Transponieren erhält man
aus einem Spaltenvektor einen Zeilenvektor und umgekehrt:
den
ξ T := ξ1 . . . ξn ,
ξ1 . . . ξn
T
:= ξ.
Weiter nennt man

a11
...
a1n


. 
..
. 
A := (akl )k=1,...,m =  ...
.
.
l=1,...,n
am1 . . . amn
eine
(m × n)-Matrix von Elementen aus K
ak1 ak1 . . . akn
lautet
, die
l-te
 m Zeilen und n Spalten. Die k -te Zeile
bestehend aus

Spalte lautet
a1l
 .. 
 . .
aml
Somit ist
k
der
Zeilenindex
und
l
der
Spaltenindex. Die Gleichung (5) schreibt man kurz in der Form
(7.6)
η = A ξ.
Die Gleichungen in (4) geben an, wie man eine
ξ
der Länge
n
(m × n)-Matrix A = (akl ) mit einem
η der Länge m zu erhalten.
Spaltenvektor
multipliziert, um einen Spaltenvektor
Beispiel.
  


7
4·1+0·2+1·3
4
0 1  
1
−8 · 1 + 2 · 2 + 0 · 3 −4
−8 2 0
  
  

 1 −1 0 2 =  1 · 1 − 1 · 2 + 0 · 3  = −1 .
3
10
3·1+2·2+1·3
3
2 1

A in (5), aus den Koordinaten des Vektors x ∈ V
v1 , . . . , vn die Koordinaten des Bildvektors f (x) ∈ W bez. der Basis w1 , . . . , wm zu
berechnen. A heiÿt die f darstellende Matrix oder die Abbildungsmatrix für f bez. der Basen
v1 , . . . , vn in V und w1 , . . . , wm in W .
Mit Hilfe dieser Multiplikation gestattet die Matrix
bez. der Basis
(7.7)
Beispiel. Ist f : K n → K m
aus den Koordinaten von
in
Kn
und
linear, dann ist die (m × n)-Matrix A, deren Spaltenvektoren al
f (el ) bestehen, die Abbildungsmatrix von f bez. der Standardbasen
K m.
(m × n)-Matrizen über K mit m, n ∈ N wird mit K m×n
ξ der Länge n ist eine (n × 1)-Matrix, d.h. ξ ∈ K n×1 .
Die Menge der
tenvektor
(7.8)
bezeichnet. Ein Koordina-
Koordinatenabbildung, Koordinatenraum. Sei ϕ : V → K n×1 die Koordinatenabbildung
bezüglich der Basis
x=
n
X
v1 , . . . , vn
ϕ(x)l vl
für
von
V,
d.h.
x ∈ V.
l=1
P
P
P
ϕ bijektiv. Wegen nl=1 ϕ(x + λx0 )l vl = x + λx0 = nl=1 ϕ(x)l vl + λ nl=1 ϕ(x0 )l vl
ϕ(x + λx0 )l = ϕ(x)l + λϕ(x0 )l für jedes l = 1, . . . , n. Wir versehen K n×1 mit der
Oenbar ist
folgt
40
komponentenweise denierten Addition und skalaren Multiplikation (so wie
K n×1 ein
K -VR,
der Koordinatenraum von
V
bez. der Basis
v1 , . . . , vn ,
und
K n ). Dann
ϕ ist linear
ist
ϕ(x + λx0 ) = ϕ(x) + λϕ(x0 ).
Somit ist
ϕ
mit der 1 an der l -ten Stelle für
ϕ(vl ) = el
für
l = 1, . . . , n
K m×1
W
bezüglich der Basis
el :=
T
l = 1, . . . , n.
Entsprechend gewinnt man den Koordinatenraum
(7.9)
bilden die
0 ... 0 1 0 ... 0
n×1 . Es gilt
Standardbasis von K
ein VR-Isomorphismus. Die Spaltenvektoren
von
und die Koordinatenabbildung
ψ ‡)
w1 , . . . , wm .
Darstellung von f in Koordinaten. Mit Hilfe der Koordinatenabbildungen ϕ, ψ
erhält
fˆ := ψ ◦ f ◦ ϕ−1 . Sie ist die Darstellung von f in Koordinaten
bezüglich der Basen v1 . . . , vn von V und w1 . . . , wm von W . Ist A die Abbildungsmatrix von
f , dann gilt oenbar fˆ(ξ) = A ξ für alle ξ ∈ K n×1 .
man aus
f
die lineare Abbildung

Im Folgenden bezeichne
(7.10)
a1l



al :=  ... 
aml
den l -ten Spaltenvektor von
A.
Matrix als lineare Abbildung. Sei A ∈ K m×n . Dann ist
LA : K n×1 → K m×1 ,
LA (ξ) := A ξ,
eine lineare Abbildung, d.h. die Matrixmultiplikation erfüllt für ξ, ξ 0 ∈ K n×1 , λ ∈ K :
A (ξ + λξ 0 ) = A ξ + λA ξ 0 .
Es ist LA (el ) = A el = al für l = 1, . . . , n und A ist die Abbildungsmatrix für LA bez. der
Standardbasen in K n×1 und K m×1 . Ist umgekehrt f : K n×1 → K m×1 linear, dann gilt
f = LA , wobei A die f bez. der Standardbasen darstellende Matrix ist.
Beweis. (A(ξ + λξ 0 ))k =
n
P
l=1
für
‡)
ψ
k = 1, . . . , m.
akl (ξ + λξ 0 )l =
n
P
l=1
akl (ξl + λξl0 ) =
Weiter gilt
psi
41
n
P
l=1
akl ξl + λ
n
P
l=1
akl ξl0 = (Aξ + λAξ 0 )k

a11
.
.
.

A el = 
am1
 
0
 . 

a1l
. . . a1n  .. 
m
X
   . 
.  
..
.
.
akl ek .
.
.  1 =  .  = al =
 .. 
k=1
aml
. . . amn  . 
0
LA (el ) = al und A die Abbildungsmatrix zu LA (vgl. (1)). Schlieÿlich
m
P
f (el ) =
akl el . Dann ist f (el ) = A el = LA (el ) für alle l. Daher ist f = LA .
Also ist
sei, gemäÿ (1),
k=1
Man deniert für jede Matrix naheliegenderweise
Kern(A) := Kern(LA ),
(7.11)
Bild(A) := Bild(LA ),
Rang(A) := Rang(LA ),
usw.
Spaltenraum und Rang einer Matrix. Sei A ∈ K m×n . Dann ist
Bild(A) = Span{a1 , . . . , an }.
Bild(A) auch der Spaltenraum von A. Insbesondere ist der Rang einer Matrix
gleich der maximalen Anzahl ihrer linear unabhängigen Spaltenvektoren.
Deswegen heiÿt
Beweis. Mit (6.12) ist Bild(A) = LA (K n×1 ) = LA (Span{e1 , . . . , en }) = Span{LA (e1 ), . . . , LA (en )}
=
Span{a1 , . . . , an }.
(7.12)
Korollar. Sei A ∈ K m×n eine darstellende Matrix von f ∈ Hom(V, W ). Dann ist LA surjektiv
bzw. injektiv genau dann, wenn f surjektiv bzw. injektiv ist, und es gelten:
Rang(A) = Rang(f ),
dim Kern(A) = dim Kern(f ).
Beweis. Nach (9), (10) ist LA = fˆ = ψ ◦ f ◦ ϕ−1 . Wende (6.27) an.
Linearkombination von Matrizen
B ihre Abbildungsmatrix (s. (1)). Sei λ ∈ K .
h := f + λg sei C P
die Abbildungsmatrix. In welcher Beziehung stehen
m
A, B und C ? Nach
ist einerseits h(vl ) =
kl wk und andererseits h(vl ) = (f + λg)(x) =
k=1
P(1)
Pm
Pcm
m
f (vl ) + λg(vl ) =
a
w
+
λ
b
w
=
k=1 kl k
k=1 kl k
k=1 (akl + λbkl )wk . Der Koezientenvergleich
Sei
g:V →W
eine weitere lineare Abbildung und
Für die Linearkombination
ergibt
(7.13)
ckl = akl + λbkl
für
k = 1, . . . , m, l = 1, . . . , n.
Alternativ zu dieser Herleitung gilt nach (9)
fˆ + λĝ .
f\
+ λg = ψ ◦(f +λg)◦ϕ−1 = ψ ◦f ◦ϕ−1 +λψ ◦g ◦ϕ−1 =
Das bedeutet nach (9)
C ξ = A ξ + λB ξ
∀ ξ ∈ K n×1 .
ξ = el ein, folgt, dass die Spaltenvektoren von C die Linearkombination der
A und B sind. D.h. es gilt (13). Also bildet man eine Linearkombination
von Matrizen (wie in K n×1 ) komponentenweise. (Natürlich können nur gleichartige Matrizen,
Setzt man speziell
Spaltenvektoren von
42
d.h. Matrizen mit jeweils gleicher Zeilenzahl und gleicher Spaltenzahl linear kombiniert werden.)
K m×n wird

0 0 ...
0 0 . . .

0 :=  . . .
 .. .. . .
0 0 ...
Die Menge
K -VR.

0
0

m×n
.
. ∈ K
.
.
0
so zu einem
Das Nullelement ist die
Nullmatrix
Beispiel.



4
0 1
2 2
−8 2 0 −2  4 1
1
1
1 −1 0
2 −2
1
2
 

4−2·2
0−2·2
1 − 2 · 12
0
−4 0
0  = −8 − 2 · 4
2−2·1
0 − 2 · 0  = −16 0 0 .
1
1
1 − 2 · 2 −1 − 2 · (− 2 ) 0 − 2 · 0
0
0
0 0


A
Bezeichnen wir die Abbildungsmatrix
der linearen Abbildung
f
(s. (1)) mit
M (f ),
um die Zuor-
dung deutlich zu machen, dann haben wir gerade
M (f + λg) = M (f ) + λM (g).
etabliert. Nimmt man (10), (9) hinzu, folgt zusammenfassend (für Liebhaber der Abstraktion) der
(7.14)
Darstellungssatz.
M : Hom(V, W ) → K m×n ,
f 7→ M (f ),
L : K m×n → Hom(K n×1 , K m×1 ),
A 7→ LA ,
sind VR-Isomorphismen und es gilt
fˆ = L(M (f ))
∀ f ∈ Hom(V, W ).
A ∈ K m×n .
Dann ist A die darstellende Matrix von
f := M (A). Aber A ist natürlich auch die Abbildungsmatrix anderer linearer Abbildungen, z.B.
0
0
0
0
0
0
von LA . Allgemeiner seien V , W K -VR mit Basen v1 , . . . , vn und w1 , . . . , wm . Dann bestimmt
Folgende Bemerkung ist hier angebracht. Sei
−1
f 0 (vl0 ) :=
m
X
akl wk0
für
l = 1, . . . , m
k=1
nach (6.5) eindeutig ein
0
f 0 ∈ Hom(V 0 , W 0 ),
wofür
A
ebenfalls die Abbildungsmatrix ist, d.h. wofür
(f 0 )
M
= A ist. Andererseits ändert sich die darstellende Matrix von f ,
V und W wechselt. Das wird im Abschnitt Basiswechsel untersucht.
Üb
Sei
A ∈ K m×n
Isomorphismen
(7.15) Die
f ∈ Hom(V, W ) und f 0 ∈ Hom(V 0 , W 0 ).
t : W → W 0 derart, dass f 0 = t ◦ f ◦ s−1 .
darstellende Matrix für
s:V →V
0 und
Standardbasis von K m×n

0



 ..
.



0
...
..
0
.
1
..
...
↑
l-te
Ihre Anzahl ist
wenn man die Basen in
.
besteht aus den Matrizen




.
.
.
 ← k -te


0
Zeile
Spalte
m · n. Nach
(14)
ist dim Hom(V, W ) = dim K m×n = m · n.
43
Zeige: Es gibt
(7.16)
Einheitsmatrix.
1, . . . , n,
Sei speziell
dim W = dim V = n.
f (vl ) := wl , l =
f : V → W . Die zugehörige
Betrachte die durch
gemäÿ (6.5) eindeutig bestimmte lineare Abbildung
Abbildungsmatrix ist die Einheitsmatrix
E n = E = (δkl )k=1,...,n
l=1,...,n
Dabei ist
(
1
δkl :=
0
für
für


1 0 ... 0
0 1 . . . 0


:=  . . .
. .
.
.
.
.
. .
.
.
0 0 ... 1
k=l
k 6= l
das
Kronecker Symbol. Oenbar ist LE = idK n×1 .
Produkt von Matrizen
Seien
U
ein weiterer
Abbildung. Damit ist
(7.17)
K -VR mit einer indizierten Basis u1 , . . . , up und g : W → U
h := g ◦ f eine lineare Abbildung von V nach U (s. (6.29)).
eine lineare
Satz. Sei A ∈ K m×n bzw. B ∈ K p×m die Abbildungsmatrix von f bezüglich der Basen
v1 , . . . , vn in V und w1 , . . . , wm in W bzw. von g bezüglich der Basen w1 , . . . , wm in W und
u1 , . . . , up in U . Sei C = (cjl )j=1,...,p ∈ K p×n die Abbildungsmatrix von h bezüglich der Basen
l=1,...,n
v1 , . . . , vn in V und w1 , . . . , wm in W . Dann gilt
(?)
cjl =
m
X
bjk akl
für
j = 1, . . . , p,
l = 1, . . . , n.
k=1
Man schreibt hierfür C = B A und nennt C das Produkt der Matrix B mit der Matrix A.
Beweis. Nach (1) ist h(vl ) =
h(vl ) = g f (vl ) = g
m
P
Pp
j=1 cjl uj und die Anwendung von (1) für
!
p
m
m
P
P
P
akl wk
k=1
=
akl g(wk ) =
k=1
bjk uj
akl
k=1
j=1
f
=
und für
p
P
j=1
g
m
P
ergibt
bjk akl uj .
k=1
Der Koezientenvergleich liefert (?). Ein Alternativbeweis erfolgt unter Verwendung der Koor-
ϕ : V → K n×1 , ψ : W → K m×1 und χ : U → K p×1 : g[
◦ f = χ ◦ (g ◦ f ) ◦ ϕ−1 =
(χ ◦ g ◦ ψ −1 ) ◦ (ψ ◦ f ◦ ϕ−1 ) = ĝ ◦ fˆ. §) Daher gilt nach (9)
dinatenabbbildungen
C ξ = B (A ξ)
Setzt man speziell
vektor von
A
∀ ξ ∈ K n×1 .
ξ = el
l-te Spaltenvektor von C sich aus dem l-ten
B gemäÿ (5) anwendet. Das ist (?).
ein, folgt, dass der
ergibt, indem man auf diesen
Zu (17)(?) gehört das kommutative Diagramm, woraus
§)
χ
chi
44
f[
◦ g = fˆ ◦ ĝ
ersichtlich ist.
Spalten-
(7.18)
Matrixmultiplikation. Die Formel (17)(?) gibt an, wie man eine (p×m)Matrix B mit einer
(m × n)Matrix A multipliziert, um eine (p × n)Matrix C = B A zu erhalten. Wichtig dabei
B mit der Zeilenzahl von A übereinstimmt. Formel (5) ist der
spezielle Fall der Multiplikation einer m × nMatrix mit einer n × 1Matrix. Formel (17)(?)
besagt auch LBA = LB ◦ LA . Als konkretes Beispiel rechnen wir


4 0 −3

1
2
3
4 
3 1 −1 =

2 2 −2
−4 −3 −2 −1
1 3 0
4+6+6+4
0 + 2 + 6 + 12 −3 − 2 − 6 + 0
20
20 −11
=
.
−16 − 9 − 4 − 1 0 − 3 − 4 − 3 12 + 3 + 4 + 0
−30 −10 19
ist, dass die Spaltenzahl von
Wir betrachten noch zwei Spezialfälle. Seien
ξ ∈ K n×1 , ζ ∈ K n×1 , η ∈ K m×1 .
¶) Dann sind
die Produkte
ξ T ζ = ξ1
 
ζ1
n
 .  X
. . . ξn  ..  =
ξl ζl ∈ K 1×1 = K,
l=1
ζn


 
ζ1 η1 ζ1 η2 . . . ζ1 ηm
ζ1


 .. 
 ζ2 η1 ζ2 η2 . . . ζ2 ηm 
T
n×m
ζ η =  .  η1 . . . ηm =  .
.
.  = (ζl ηk )l=1,...,n ∈ K
..
.
.
 ..

.
.
.
k=1,...,m
ζn
ζn η1 ζn η2 . . . ζn ηm
deniert. Letzteres heiÿt das
dyadische Produkt. Ebenso ist auch η ζ T
deniert.
Weil die Komposition von Abbildungen assoziativ ist (s. (2.25)), folgt aus (17), dass auch die Matrixmultiplikation assoziativ ist. Ebenso übertragen sich die Distributivgesetze für lineare Abbildungen
auf Matrizen.
(7.19)
Korollar. Die Matrixmultiplikation ist assoziativ und distributiv. Es gelten
A (B C) = (A B) C =: A B C,
λA = (λ E m ) A,
A (λ E n ) = λA,
(A + A0 ) B = A B + A0 B,
A(B + B 0 ) = A B + A B 0
für A, A0 ∈ K m×n , B, B 0 ∈ K n×p , C ∈ K p×q mit m, n, p, q ∈ N, λ ∈ K . Insbesondere ist
0 A = 0, 0 A = 0 für 0 ∈ K und den entsprechenden Nullmatrizen.
Üb
Zeige für
m, n, p ∈ N
und
A ∈ K m×n ,
dass
K n×p → K m×p ,
eine darstellende Matrix hierfür?
¶)
ζ
zeta
45
X 7→ AX ,
linear ist. Wie lautet
Invertierbare Matrizen
V ein K -VR der Dimension n ∈ N und v1 , . . . , vn eine indizierte Basis von V .
f : V → V linear. Man nennt f einen Endomorphismus. Wir bestimmen diejenige
Abbildungsmatrix für f , wofür auch die Bildvektoren f (x) nach der Basis v1 , . . . , vn entwickelt
Sei, wie bisher,
Weiter sei
werden:
(7.20)
f (vl ) =
m
X
akl vk
für
l = 1, . . . , n.
k=1
Die Abbildungsmatrix
durch
E
M (f ) = (akl )k,l=1,...,n
M (idV ) = E .
ist quadratisch. Die identische Abbildung
idV
wird
dargestellt, d.h.
Man nennt
End(V ) := Hom(V, V )
die
Endomorphismenalgebra,
weitere Verknüpfung besitzt, nämlich die Komposition von Abbildungen
End(V ), (g, f ) 7→ g ◦ f ,
wofür die
Algebragesetze gelten:
h ◦ (g ◦ f ) = (h ◦ g) ◦ f
(h + g) ◦ f = h ◦ f + g ◦ f
h ◦ (g + f ) = h ◦ g + h ◦ f
End(V ) eine
End(V ) × End(V ) →
weil der VR
Assoziativität
Distributivgesetze
(λg) ◦ f = g ◦ (λf ) = λ(g ◦ f ), λ ∈ K.
K n×n eine Algebra, die sogenannte Matrixalgebra,
K n×n × K n×n → K n×n , (A, B) 7→ A B .
Entsprechend ist
knüpfung
Üb
(7.21)
Weise für
End(V )
und
K n×n
bezüglich der Algebraver-
die Algebragesetze nach.
Algebraisomorphismus. Die Matrixdarstellung M : End(V ) → K n×n ist ein
somorphismus,
d.i. ein VRIsomorphismus mit M (idV ) = E
und
Algebrai-
M (g ◦ f ) = M (g)M (f ).
Beweis. Die Aussage folgt aus (14) und (17).
f ∈ End(V ) ist ein Automorphismus, wenn es ein g ∈ End(V ) gibt
f ◦ g = idV . Dies gilt nach (6.26) und (2.24). In diesem Fall folgt g = f −1 .
Ein Endomorphismus
mit
g ◦ f = idV
Die
oder
Anwendung von (21) ergibt
(7.22)
Invertierbare Matrix. Seien A, B ∈ K n×n . Wenn B A = E gilt, dann gilt auch A B = E .
Es ist B durch B A = E eindeutig bestimmt.
−1
und A
:= B die zu A inverse Matrix.
Wenn
BA = E
gilt, dann heiÿt
GL(n, K) := M (Aut(V )) = {A ∈ K n×n : A invertierbar} eine
meine lineare Gruppe über K . Daher gelten z.B. für A, B ∈ GL(n, K):
Insbesondere ist
(A−1 )−1 = A,
Auÿerdem folgt
(7.23)
A
invertierbar
Gruppe, die
allge-
(A B)−1 = B −1 A−1 .
LA−1 = (LA )−1 .
Invertierbarkeitskriterien. A ∈ K n×n ist invertierbar genau dann, wenn Rang(A) = n
oder wenn dim Kern(A) = 0.
Beweis. Wende (6.26), (6.9), (6.10), (12) an.
Üb
Zeige:
GL(n, R)
ist für
n≥2
nicht kommutativ.
46
(7.24)
Abbildungsmatrix eines Isomorphismus.
Isomorphismus und
A
Seien
die Abbildungsmatrix von
f
dim V = dim W = n, f : V → W
ein
aus (1). Es ist
h(vl ) := wl , g(wl ) := f (vl ) für l = 1, . . . , n gemäÿ
h durch E dargestellt. Deshalb
Automorphismus g . Insbesondere ist A invertierbar.
ein kommutatives Diagramm mit den durch
(6.5) eindeutig bestimmten Isomorphismen. Nach (16) wird
ist
A
auch die Abbildungsmatrix des
Basiswechsel
Wir kehren zur Ausgangssituation zurück. Die Frage ist, wie sich die Abbildungsmatrix
wenn man die Basis in
V
bzw. in
W
A verändert,
V . Wir
0
0
wechselt. Sei v1 , . . . , vn eine weitere indizierte Basis in
drücken die gestrichenen Basisvektoren durch die ungestrichenen aus:
(7.25)
vj0 =
n
X
slj vl
für
j = 1, . . . , n.
l=1
Dabei sind
s1j , . . . , snj
die eindeutig bestimmten Koordinaten von
Beachte, dass in (25) über den ersten Index von
f (vj0 ) = f
n
X
!
slj vl
=
l=1
n
X
slj f (vl ) =
l=1
n
X
slj
slj
l=1
vj0
bez. der Basis
v1 , . . . , vn .
summiert wird. Mit (1) folgt
n
X
akl wk =
k=1
n
n
X
X
k=1
!
akl slj
wk .
l=1
S := (slj )l,j=1,...,n ∈ K n×n ist invertierbar, denn S ist nach (1) auch die darstellende
0
Matrix des Automorphismus s : V → V , der durch s(vj ) = vj , j = 1, . . . , n eindeutig bestimmt
ist ((6.5), (6.23)). Schlieÿlich beschreibt S auch die Koordinatentransformation von den gestrichenen auf die ungestrichenen Koordinaten. Denn sei x ∈ V . Bezüglich der ungestrichenen
Pn
Basis sei x =
l=1 ξl vl . Dann gilt für die Darstellung von x bezüglich der gestrichenen Basis
P
P
P
Pn
Pn
0
0
0
x = j=1 ξj vj = nj=1 ξj0 nl=1 slj vl = nl=1
j=1 slj ξj vl , woraus
Die Matrix
(7.26)
ξ = S ξ0
folgt. Indem man beide Seiten von (26) von links mit
(7.27)
multipliziert, folgt äquivalent zu (26)
ξ 0 = S −1 ξ.
Jetzt betrachten wir auch in
(7.28)
S −1
wq0 =
m
X
tpq wp
für
W
eine weitere indizierte Basis
0 . Hierfür sei entsprechend
w10 , . . . , wm
q = 1, . . . , m.
p=1
Wie
S
T := (tpq )p,q=1,...,m ∈ K m×m einen Automorphismus t : W →P
W . Daher
T invertierbar. Sei T −1 = (t̂pq )p,q=1,...,m . Dafür gilt E = T T −1 , d.h. δpq = m
r=1 tpr t̂rq
bestimmt auch
ist auch
47
Pmp, q = 1, . . . , m. Damit
q=1 δqp wq = wp , d.h.
für
(7.29)
wp =
m
X
t̂qp wq0
folgt
für
Pm
0
r=1 t̂rp wr
=
Pm
r=1 t̂rp
Pm
q=1 tqr wq
=
Pm
q=1
Pm
r=1 tqr t̂rp
wq =
p = 1, . . . , m.
q=1
Man vergleiche dies mit (28). Hiermit können wir die obige Rechnung fortführen:
f (vj0 ) =
m
n
X
X
k=1
!
akl slj
t̂qk wq0 =
q=1
l=1
Für die Abbildungsmatrix
m
X
A0
m
m X
n
X
X
q=1
von
f
!
t̂qk akl slj
wq0 .
k=1 l=1
bez. der Basen
v10 , . . . , vn0
in
V
und
0
w10 , . . . , wm
in
W
gilt
denitionsgemäÿ
(7.30)
f (vj0 ) =
m
X
a0qj wq0 .
q=1
Wir schlieÿen daraus
0
(7.31) aqj
=
m X
n
X
t̂qk akl slj ,
q = 1, . . . , m,
j = 1, . . . , n.
k=1 l=1
Damit ist die folgende Aussage bewiesen.
(7.32)
Abbildungsmatrix nach Basiswechsel. Seien V , W K -VR mit dim V = n, dim W = m
und f : V → W linear. Weiter sei A die Abbildungsmatrix von f bez. der Basen v1 , . . . , vn
von V und w1 , . . . , wm von W . Dann ist
(?)
A0 = T −1 A S
0 in W , wobei S
die Abbildungsmatrix von f bez. der Basen v10 , . . . , vn0 von V und w10 , . . . , wm
und T in (25) und (28) die Basiswechsel beschreiben.
Das zu (32) (?) gehörige kommutative Diagramm ist
ϕ0 = ϕ ◦ s−1 , ψ 0 = ψ ◦ t−1 die Koordinatenabbildungen bezüglich der gestrichenen Basen.
0
−1 ◦ fˆ ◦ ŝ ersichtlich.
ist fˆ = t̂
Dabei sind
Hieraus
(7.33)
Invarianz von Rang und Dimension des Kerns. Gleichung (32)(?) ist die Transformation
der Abbildungsmatrix unter Koordinatentransformationen. Dabei ist
48
Rang (A
0
) = Rang (A),
) = dim Kern (A). Allgemeiner folgt hieraus für A ∈ K m×n , T ∈ GL(m, K) und
S ∈ GL(n, K), dass
dim Kern (A
0
Kern (T
A) = Kern (A),
dim Kern (A S)
Rang (T
Bild (A S)
= Bild (A).
Beweis. Die Aussage folgt aus LA0 = (LT )−1 ◦ LA ◦ LS
wegen (12).
(7.34)
= dim Kern (A),
A) = Rang (A),
Basiswechsel für einen Endomorphismus. Seien V = W , vl = wl für l = 1, . . . , n und
f ∈ End(V ). Dann ist t = s und somit
(?)
A0 = S −1 A S
die Transformation der Abbildungsmatrix A bei einem Basiswechsel
Koordinatentransformation (26).
49
(25)
bzw. unter einer
8 Lineare Gleichungssysteme
Für den Fall endlichdimensionaler Vektorräume
V
und
W
wird ein Verfahren zur Lösung der in
Kapitel 6 (speziell (6.18), (6.19)) untersuchten linearen Gleichung
(8.1)
f (x) = b
entwickelt. Sei
n :=
dim
Koordinatendarstellung
(8.2)
V , m := dim W . Wir wählen indizierte
von f , x und b (siehe (7.8), (7.9)) über
Basen in
V
und
W
und gehen zur
A x = b.
A = (akl ) ∈ K m×n die f darstellende Matrix, x = (x1 . . . xn )T und
T
(b1 . . . bm ) die Koordinatenvektoren von x und b. Ausgeschrieben lautet (2)
Dabei bezeichnen
(8.3)
a11 x1
a21 x1
+
+
.
.
.
a12 x2
a22 x2
+ ···
+ ···
+
+
.
.
.
a1n xn
a2n xn
=
=
.
.
.
am1 x1 + am2 x2 + · · ·
b =
b1
b2
.
.
.
+ amn xn = bm
lineares Gleichungssystem (LGS) für n Unbekannte x1 , . . . , xn aus K , was aus m
Koezienten akl ∈ K und Absolutgliedern bk ∈ K besteht. Das LGS (3) heiÿt homogen, wenn b = 0.
Das ist ein
skalaren Bedingungensgleichungen mit
Beispiel
3x1 + 2x2 = 1
3x1 + x2 = 5
hat genau eine Lösung, nämlich
x1 = 3, x2 = −4.
Beispiel
3x1 + 2x2 = 1
3x1 + 2x2 = 5
hat oenbar keine Lösung.
Beispiel
3x1 + 2x2 = 1
−9x1 − 6x2 = −3
hat unendlich viele Lösungen, nämlich
1
3
0
− 32
+R
1
1
x1 = (1 − 2λ), x2 = λ für jedes λ ∈ R, d.i. der ane Raum
3
.
50
Im ersten Schritt bildet man die


(A|b) := 
a11
···
.
.
.
am1 · · ·
erweiterte Koezientenmatrix

a1n b1
.. 
. 
amn bm
Der vertikale Strich dient lediglich der deutlichen Abgrenzung.
(8.4)
Lösbarkeitskriterium. Das LGS A x = b ist genau dann lösbar, wenn Rang ((A|b)) =
Rang (A).
Beweis.
(7.11))
⇔ b ∈ Bild (A) ⇔ Span {a1 , . . . , an , b} =
Span {a1 , . . . , an , b} = dim Span {a1 , . . . , an }.
Lösbarkeit des LSG
⇔ dim
Span {a1 , . . . , an } (wegen
x = (x1 . . . xn )T mit A ∈ K m×n und B ∈ K p×n nennt man
äquivalent, wenn sie dieselbe Lösungsmenge (⊂ K n×1 ) besitzen. Im Fall nichtleerer Lösungsmenn×1 existiert mit A x = b und B x = c und
gen (siehe (4)) bedeutet dies nach (6.18), dass x0 ∈ K
0
0
dass Kern (A) = Kern (B) gilt. Die folgende Aussage gilt oensichtlich.
Zwei LSG
(8.5)
Ax=b
und
B x=c
für
Übergang zu äquivalentem LGS. Sei T ∈ GL (m, K). Dann ist (T A|T b) = T (A|b) und
x ∈ K n×1 ist genau dann eine Lösung von A x = b, wenn es (T A)x = T b löst. D.h. (A|b)
und T (A|b) beschreiben äquivalente LGS.
Üb
A, B ∈ K m×n derart, dass es zu jedem b ∈ K m×1 ein c ∈ K m×1 gibt, wofür A x = b
B x = c äquivalent sind. Zeige: Es existiert T ∈ GL (m, K) mit B = T A.
Seien
und
Die Idee, die jetzt verfolgt wird, ist das LGS (2) gemäÿ (5) in ein äquivalentes System zu transformieren, wofür die Lösungen leicht zu bestimmen sind.
Elementare Zeilenumformungen
Oenbar geht das LGS (2),(3) in ein äquivalentes über, wenn man an
elementaren Zeilenumformungen vornimmt:
1
Vertauschung zweier Zeilen.
2
Multiplikation einer Zeile mit einem Skalar
3
Addition des Vielfachen einer Zeile zu einer anderen.
6= 0.
51
(A|b)
eine der folgenden
Betrachte dazu die folgenden

1







· · ·




1
Z := 




· · ·














3
Z := 






.
1
···
···
(8.6)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 ···
.
.
.
···
···
1 ···
1
..
···
1 ···
.
.
.
.
.
.
.
···
···

.
.
.
.
.
.
···
.
.
.
1
···
0 ···
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
···
1
..
.







· · · j-te Zeile









· · ·
 k-te Zeile






1

..
.
1
λ ···
1
···
..
.
.
.
.
1
..
.
.
.
.
1 ···
Alle übrigen Einträge in
zen. ∗)
- Matrizen
1





2
Z := 






..
(m × m)
..
.
α ···
.
.
.
1 ···
.
.
.
..
.
.
.
Z 1, Z 2, Z 3
.





· · ·
 k-te




1

Zeile
für
λ 6= 0




· · · j-te Zeile




· · · k-te Zeile



1
sind 0. Die Matrizen
Z κ , κ = 1, 2, 3
heiÿen
Elementarmatri-
Multiplikation mit Elementarmatrix von links. Die Elementarmatrizen sind invertierbar. Genauer gelten Z 1 Z 1 = Z 2 (λ)Z 2 ( λ1 ) = Z 3 (α)Z 3 (−α) = E m für λ =
6 0. Daher ist ein
Produkt von Elementarmatrizen invertierbar und die Inverse des Produkts wieder ein Produkt
von solchen. Seien C, C̃ ∈ K m×p . Entsteht C̃ aus C durch
1
1 Vertauschung der Zeilen j und k, dann ist C̃ = Z C .
2
2 Multiplikation der k-ten Zeile mit λ 6= 0, dann ist C̃ = Z C .
3
3 Addition des α-fachen der k-ten Zeile zur j-ten Zeile, dann ist C̃ = Z C .
Beweis. Man führe die entsprechenden Matrixmultiplikationen aus.
∗)
κ
kappa 52
Gauÿ Eliminationsverfahren
Sei
3
A ∈ K m×n , A 6= 0.
(8.7)
1
1, 2,
Durch wiederholte Anwendung von elementaren Zeilenumformungen auf spezielle Zeilenstufenform gebracht. Der erste Teil des Verfahrens besteht aus der
wird A
(Abwärts-) Elimination, Zeilenstufenform.
∈ {1, . . . , n}
Sei l1
die erste Zeile mit der k-ten Zeile. Es
β1 γ2 .. . γm 




mit
∗
k ∈ {1, . . . , m} existiert mit akl1 6= 0.
entsteht aus A eine Matrix der Gestalt
minimal derart, dass ein
Vertausche

∗ 

β1 6= 0 und gewissen γ2 , . . . , γm ∈ K
†) in der l -ten Spalte und unspezizierten Einträgen
1
. Alle übrigen Einträge sind null.
3
Addiere das
neue Matrix

(− γβk1 )-fache der ersten Zeile zur k-ten Zeile für k = 2, . . . , m.
A0 , wofür in der l1 -ten Spalte unterhalb β1 nur Nullen stehen:

β1

Es entsteht eine
∗

↑
l1 -te
Gibt es kein
Spalte
a0kl 6= 0

für
k ∈ {2, . . . , m},
∗
β1
A0 = 
dann ist


↑
l1 -te
Spalte
1 und 3 wiederholen:
und die Elimination endet hier. Andernfalls lassen sich 1
Sei
l2 ∈ {l1 + 1, . . . , n}
Vertausche die zweite Zeile mit der k-ten Zeile. Es

β2
δ3
.
.
.
↑
l1
mit
†)
†)
γ
δ
β2 6= 0

β1






δm
↑
l2 -te
k ∈ {2, . . . , m} existiert mit a0kl2 6= 0.
0
entsteht aus A eine Matrix der Gestalt
minimal derart, dass ein
∗






Spalte
in der l2 -ten Spalte.
‡)
gamma
delta
53
3
Addiere das
(− βδk2 )-fache
der zweiten Zeile zur k-ten Zeile für
neue Matrix, wofür in der l2 -ten Spalte unterhalb
β1

β2
↑
l1
∗
↑
l2 -te
(8.8)





(m × n)-Matrix
in
∗
β2
β3 . . .
βr
↑
l2
↑ ···
l3
↑
lr
Zeilenstufenform









β1
↑
l1
nur Nullen stehen:
Spalte
Die Elimination endet mit einer




















r
Zeilen







m−r
Zeilen
-te Spalte
β1 6= 0, . . . , βr 6= 0. In jeder Zeile der ersten r Zeilen stehen links von βk nur Nullen. Die
m − r Zeilen (falls überhaupt vorhanden) sind Nullzeilen. Es ist 1 ≤ l1 < l2 < · · · < lr ≤ n.
Dabei sind
letzten
(8.9)
Beispiel. Gegeben sei das homogenen LGS
2x4
x2
− 2x3 + 2x4
2x2 − 4x3 + 4x4
− 21 x2 + x3 − 5x4
Man schreibt es in der Form

0 0
0 1
A=
0 2
0 − 21
+ x5
+ 4x5
+ 7x5
− 4x5
A x = 0.
−
+
+
+
4x6
2x6
7x6
7x6
=
=
=
=
0
0
0
0
Die Koezientenmatrix

0
2
1 −4
−2 2
4
2

−4 4
7
7
1 −5 −4 7
wird auf Zeilenstufenform durch Abwärtselimination gebracht.
1
Vertausche erste Zeile mit zweiter Zeile:

0 1
0 0

0 2
0 − 21
3
Es entsteht eine







β2
k = 3, . . . , m.
Addiere das

−2 2
4
2
0
2
1 −4

−4 4
7
7
1 −5 −4 7
(−2)-fache

0 1
0 0

0 0
0 − 21
der
ersten Zeile zur dritten Zeile:

−2 2
4
2
0
2
1 −4

0
0 −1 3 
1 −5 −4 7
54
Addiere das

0
0

0
0
3
1
2 -fache der
ersten Zeile zur vierten Zeile:

1 −2 2
4
2
0 0
2
1 −4

0 0
0 −1 3 
0 0 −4 −2 8
Addiere das
2-fache
der
zweiten
Zeile zur vierten Zeile. Die entstehende Matrix hat Zeilen-
stufenform:

0

0
A0 := 
0
0
Es sind
1 −2 2 4 2
0 0 2 1 −4
.
0 0 0 -1 3 

0
0
0
0
0
r = 3 , l1 = 2 , l2 = 4 , l3 = 5
und
β1 = 1 , β2 = 2 , β3 = −1.
Der zweite Teil des Verfahrens besteht in der
Aufwärts-)Substitution.
(8.10) (
An der Matrix in Zeilenstufenform aus (8) werden folgende Zei-
3 vorgenommen: Addiere geeignete Vielfache der
lenumformungen vom Typ den Zeilen
r − 1, r − 2, . . . , 1,
um in der
fahre anschlieÿend so mit der
(m × n)-Matrix

β1










lr−1 -ten
lr -ten
Spalte oberhalb
βr
r-ten
Zeile zu
Nullen zu erzeugen. Ver-
Spalte und so fort. Die Substitution endet mit einer
der folgenden Gestalt:
∗

∗
β2
∗
β3 . . .
∗
...
βr










Der letzte Teil besteht in der Freistellung der abhängigen Variablen. Dazu benötigt man Zeilenum2.
formungen von Typ (8.11)
Freistellung, spezielle Zeilenstufenform.
−1
mit
βk für
k = 1, . . . , r.

−1






B=





Es entsteht eine
∗
−1
Multipliziere die
m×n
∗
- Matrix
in
Zeile der Matrix in (10)
spezieller Zeilenstufenform

∗
−1 . . .
∗
...
−1
Speziell gegenüber der Matrix in (8) ist also, dass die
k = 1, . . . , r.
B
k -te
lk -te




















r
Zeilen







m−r
Spalte von
B
Zeilen
gleich
−ek
ist für
Damit ist gemäÿ (7.11)
Rang (B)
= r.
Auch die maximale Anzahl linear unabhängiger Zeilenvektoren von
lenrang, ist oenbar r.
B
in
K 1×n ,
der sog.
Zei
55
Der Übergang von
βk
nach
−1
in (11) lässt sich bereits während der Elimination vollziehen. Das
hat den Vorteil, leichter rechnen zu können.
(8.12)
Satz zur speziellen Zeilenstufenform. Sei A ∈ K m×n . Dann existiert Z ∈ GL(m, K)
derart, dass B := Z A spezielle Zeilenstufenform besitzt. Dabei ist Z als Produkt von Elementarmatrizen Z κ , κ = 1, 2, 3, wählbar. Für B in der Form von (10) genügen Z 1 und Z 3
Matrizen.
Beweis.
Üb
Wende das Verfahren (7), (10), (11) an und beachte (6).
Eindeutigkeit der speziellen Zeilenstufenform.
A ∈ K m×n und Z ∈ GL (m, K)
0
derart, dass B := Z A spezielle Zeilenstufenform besitzt. Zeige: B ist eindeutig, d.h. ist Z ∈
0
0
0
GL (m, K) derart, dass auch B := Z A spezielle Zeilenstufenform besitzt, dann ist B = B .
Er Zeige weiter: Es existiert T ∈ GL (m, K) derart, dass T =
mit r := Rang (A) und
Seien
∗
Z0 = T Z.
(8.13)
Zeige schlieÿlich:
Z
ist eindeutig genau dann, wenn
r = m.
Spaltenrang gleich Zeilenrang. Für jede Matrix sind Spaltenrang und Zeilenrang gleich.
Beweis.
Nach (11) gilt die Behauptung für Matrizen in spezieller Zeilenstufenform. Elementare
Zeilenumformungen erhalten oenbar den Zeilenrang. Wegen (6) gilt dies nach (7.33) auch für den
Spaltenrang. Die Aussage gilt daher wegen (12).
(8.14)
Lösung des homogenen LGS. Das LGS A x = 0 wird durch Elimination (7), Substitution
B x = 0 transformiert, wofür B
Die Menge aller Lösungen von A x = 0 ist
(10), und Freistellung (11) in ein äquivalentes LGS
Zeilenstufenform (siehe (11)) besitzt.
Kern (A)
spezielle
= Kern (B).
xl1 , . . . , xlr heiÿen abhängige Variable, die restlichen heiÿen freie Variable. Das LGS B x = 0 mit freigestellten abhängigen Variablen lautet
Die Unbekannten
xlk =
n
X
bkl xl ,
k = 1, . . . , r,
l=1
wobei auf der rechten Seite eektiv nur die freien Variablen vorkommen. Diese können beliebig
gewählt werden. Jede Wahl liefert eine Lösung des LGS A x = 0. Um die Lösungsmenge
leichter beschreiben zu können, benennen wir die Unbekannten so um, dass die ersten r die
abhängigen Variablen sind. Dann lautet die Lösungsmenge



 n
X






b1l xl 











l=r+1


  






.
x


.
1




.


 ..   n





 .  X

 =
=
:
x
,
.
.
.
,
x
∈
K
Kern (A) =
r+1
n
brl xl 
 ..  








.




l=r+1




 xr+1 

x


n










.


.




.






xn
56






b1,r+2
b1,n
 .. 
 .. 
 .. 
 . 
 . 
 . 






br,r+1 
br,r+2 
br,n 






 1 
 0 
 0 





=K
 0  + K  1  + ··· + K  0 






 0 
 0 
 .. 




 . 
 .. 
 .. 


 . 
 . 
 0 
0
0
1
in der
(8.15)
b1,r+1
Parameter- bzw. Basisdarstellung. Es ist ein (n − r)dimensionaler UVR von K n×1 .
Bedeutung von m, n, r. Sei A ∈ K m×n
m
und
Ax=0
das zugehörige LGS. Dann ist
Anzahl der Gleichungen = Anzahl der Zeilen
n
Anzahl der Unbekannten = Anzahl der Spalten
r
Anzahl abhängiger Variablen = maximale Anzahl linear unabhängiger Zeilenvektoren
(Zeilenrang) = maximale Anzahl unabhängiger Spaltenvektoren (Spaltenrang) = Rang (A)
n−r
(8.16)
Anzahl freier Variablen = Dimension des Lösungsraums = dim Kern (A).
Folgerungen aus (15).
(a)
r ≤ n , r ≤ m.
(b)
r = n ⇐⇒ 0 ∈ K n×1 ist die einzige Lösung.
(c)
m < n (d.h. mehr Unbekannte als Gleichungen) ⇒ es gibt mindestens n − m linear
unabhängige Lösungen x ∈ K n×1 .
+ dim Kern (A) = r + n − r = n =
formel (6.14) für LA .
(d) Rang (A)
Üb
Sei
A ∈ K n×n .
Zeige:
Zeilenvektoren von
(8.17)
A
A ∈
n×1
⇔ Spaltenvektoren
1×n .
von K
GL (n, K)
bilden Basis
dim K
ist die altbekannte Dimensions-
von
A
bilden Basis von
K n×1 ⇔
Fortsetzung Beispiel (9). Die Matrix A0 in (9) wird auf spezielle Zeilenstufenform gebracht:

0

0
A0 → 
0
0


1 −2 2 0 14
0


0 0 2 0 −1
0
→
0
0 0 0 −1 3 
0 0 0 0
0
0

1 −2 0 0 15
0 0 2 0 −1

0 0 0 −1 3 
0 0 0 0
0


0 −1 2 0
0 −15
1 
0 0 0 −1 0
2 .
→ B := 
0 0 0 0 −1
3 
0 0 0 0
0
0
Also sind
x1 , x3 , x6
die freien Variablen. Das LGS mit freigestellten abhängigen Variablen ist
x2 = 2x3 − 15x6
x4 = 21 x6
x5 = 3x6 .
57
Sei
ν := x1 , µ := x3 , λ := x6 .§)
Hieraus folgt für die Lösungsmenge von
Ax=0
in Parame-
terdarstellung
  

ν
x1




x2  2µ − 15λ



 


x3  
µ
:
 = 1



x4   2 λ 






x5   3λ 



λ
x6
ν, µ, λ ∈ R















und in Basisdarstellung


 
 
0
0
1
−15
2
0


 
 
 0 
1
0





R  + R  + R 1 
.
 2 
0
0
 3 
0
0
1
0
0
Die Lösungsmenge Kern (A) ist also ein 3dimensionaler UVR von
Üb
gilt:
Üb
Z ∈ R4×4 als Produkt von Elementarmatrizen,
B = Z A. Bestimme Z −1 . Tipp: Siehe (6).
Bestimme
Zeilenstufenform
B
(8.18)
(A|b)
Ax=b
−1
∗







(B|c) = 






B
in (17)
erinnern wir uns an (5). Wir führen an der erweiter-
−1
b
in
c
über. Es ist
∗
B=Z A
∗
−1 . . .
∗
. . . −1
A
(siehe (12)) und
c1
c2
c3
auf spezielle
c=Z b
mit






. 
. 
.
.
cr 

cr+1 

. 
. 
.
cm
Lösbarkeit des inhomogenen LGS. Das LGS A x = b ist genau dann lösbar, wenn cr+1 =
cr+2 = · · · = cm = 0. Insbesondere ist A x = b lösbar, wenn r = m.
Beweis.
Nach (5) ist
Ax=b
genau dann lösbar, wenn
genau dann lösbar, wenn Rang ((B|c))
= Rang (B).
B x=c
lösbar ist. Letzteres ist nach (4)
Hieraus folgt die Behauptung.
Lösung des inhomogenen LGS. Im Fall der Lösbarkeit lautet das LGS B x = c mit
freigestellten abhängigen Variablen
xlk =
n
X
blk xl − ck ,
(14)
k = 1, . . . , r.
l=1
ν
in (9) und
die gleichen elementaren Zeilenumformungen aus, die
bringen. Dabei geht

§)
A
W := Span {a, b, c, d, e} ⊂ C4 , wobei a := (0, 0, i, 1 + i), b := (0, 2, 0, 1 − i), c := (2, 1 −
i, 0, 0), d := (−1, 0, 1, 0) und e := (0, 2i, 2, 0). Berechne eine Basis von W .
ten Koezientenmatrix
(8.20)
so dass für
Sei
Zur Lösung des inhomogenen LGS
(8.19)
R6×1 .
nü,
µ
mü
58
Eine partikuläre Lösung x0 = (γ1 , . . . , γn )T erhält man durch Nullsetzen der freien Variablen:
γlk = −ck
für
k = 1, . . . , r
und
γl = 0
sonst.
Die Lösungsmenge von A x = b ist der ane Raum x0 + Kern (A). Zum Kern (A) siehe
Beweis.
(8.21)
(14).
Siehe (6.18), (6.20) und vor (5).
Fortsetzung Beispiel (9) mit Inhomogenität. Wir betrachten jetzt das inhomogene LGS
b := (−1 |4 |18 | − 2)T . Wie man
leicht nachrechnet, transformieren die elementaren Zeilenumformungen, die A auf die spezielle
1
T
Zeilenstufenform B in (17) bringen, die Inhomogenität b in c := (−15 | − |2 |0) . Gemäÿ (17)
2
sind x1 , x3 , x6 die freien Variablen. Das LGS hat Lösungen wegen c4 = 0. Nach (20) lautet es
Ax = b
mit der Matrix
A
aus (9) und der Inhomogenität
x2 = 2x3 − 15x6 + 15
1
x4 = 12 x6 +
2
x5 = 3x6 −
2
Die abhängigen Variablen sind freigestellt. Setzt man die freien Variablen gleich Null, dann
x0 = (0 |15 |0 | 12 | − 2 |0)T . Eine andere partikuläre
sie, wenn man x1 = 0, x3 = 0 und x6 = 1 setzt.
erhält man die partikuläre Lösung
ist z.B.
(0 0 0 1 1 1).
Man erhält
59
Lösung
9 Weitere Folgerungen des
Eliminationsverfahrens
Das Eliminationsverfahren nach Gauÿ erönet weitere Einsichten in die Matrizenrechnung.
(9.1)
Transponierte Matrix.
Sei
A = (akl )k=1,...,m ∈ K m×n .
Die zu
A
transponierte Matrix
AT
l=1,...,n
hat als l te Zeile die l te Spalte von

A
l = 1, . . . , n:
für

a11 a21 . . . am1
 a12 a22 . . . am2 


AT =  .
.
. 
..
.
. 
 ..
.
.
.
a1n a2n . . . amn
Damit ist
AT =: (aTlk )l=1,...,n ∈ K n×m
mit
k=1,...,m
aTlk = akl .

1
8
T
 0 −7
1 0 −3 2i

=
Beispiel.
−3 i 
8 −7 i
0
2i
0

(9.2)
Regeln für das Transponieren. Seien A, B ∈ K m×n , C ∈ K n×p , λ ∈ K . Dann ist
(A + λ B)T = AT + λ B T ,
Üb
(B C)T = C T B T .
Weise (2) nach.
Beispiel. (Aξ)T = ξ T AT
(9.3)
(AT )T = A ,
für
A ∈ K m×n , ξ ∈ K n×1 .
(Schief)symmetrische Matrix. Sei A ∈ K n×n . Dann heiÿt A symmetrisch bzw. schiefsym-
AT = A bzw. AT = −A. Es gilt: A symmetrisch ⇔ akl = alk ; A schiefsymmetrisch ⇔ akl = −alk . Für schiefsymmetrische Matrizen sind die Diagonalelemente akk null.
Ist A ∈ K n×n , dann ist A = 12 (A + AT ) + 12 (A − AT ) die Summe einer symmetrischen und
einer schiefsymmetrischen Matrix. Ist A ∈ K m×n , dann sind AT A und AAT deniert und
symmetrisch.
metrisch, wenn
Üb
(9.4)
A, B, C ∈ K n×n mit A = B + C
B = 21 (A + AT ), C = 12 (A − AT ).
Seien
und
B
symmetrisch,
C
schiefsymmetrisch. Zeige:
Diagonalmatrix. Eine quadratische Matrix A heiÿt Diagonalmatrix, wenn akl = 0 für k 6= l,
d.h. wenn

∗
 ∗

A=


..


.

.
Man schreibt
∗

λ1

λ2

diag(λ1 , λ2 , . . . , λn ) := 


..


.

.
λn
60
Jede Diagonalmatrix ist symmetrisch, insbesondere ist es
(9.5)
λE
für
λ ∈ K.
Transponieren, Invertieren. Sei A ∈ GL(n, K). Dann ist AT ∈ GL(n, K) mit (AT )−1 =
(A−1 )T . Ist zudem A (schief-)symmetrisch, dann ist es auch A−1 .
Beweis.
Es ist:
−1
AT (A−1 )T = (A−1 A)T = E T = E ⇒ (AT )−1 = (A−1 )T . Für AT = A folgt daraus
= (A−1 )T . Da (−A)(−A−1 ) = AA−1 = E ,
sofort A
= (A−1 )T . Für AT = −A erhält man (−A)−1
−1 = −A−1 , gilt somit −A−1 = (A−1 )T .
weshalb (−A)
(9.6)
Dreiecksmatrix. A ∈ K n×n
heiÿt obere Dreiecksmatrix, wenn
akl = 0
für
k > l,
d.h.


a11 a12 . . . a1n

a22 . . . a2n 


A=
. .
..
. 

.
.
ann
A ∈ K n×n
(9.7)
heiÿt untere Dreiecksmatrix, wenn
AT
eine obere Dreiecksmatrix ist.
Invertierbare Dreiecksmatrix. Eine Dreiecksmatrix ist invertierbar genau dann, wenn die
Diagonalelemente ungleich Null sind.
Beweis.
x = 0,
Sei
A
eine Dreiecksmatrix. Das LGS
wenn die Diagonalelemente
Speziell ist
6= 0
Ax = 0
hat oenbar genau dann nur die Lösung
sind. Wende (7.23) an.
diag(λ1 , . . . , λn )−1 = diag( λ11 , . . . , λ1n )
für
λ1 , λ2 , . . . , λn 6= 0.
Zeilenraum und Spaltenumformungen
A ∈ K m×n . Nach (7.11) ist
x ∈ K n×1 }. Betrachte jetzt die
Sei
der Spaltenraum von
A
Span{a1 , . . . , an } = Bild(A) = {Ax
1×n
K
von A. Entsprechend heiÿt
gleich
0
0
Zeilenvektoren a1 , . . . , am
∈
:
Span{a01 , . . . , a0m } = {y A : y ∈ K 1×m }
Zeilenraum von A. Wie in (8.13) gezeigt, ist der Spaltenrang gleich dem Zeilenrang. Für T ∈
der
GL(m, K)
gilt oenbar, dass
A
und
TA
gleichen Zeilenraum haben. Vergleiche dazu die Aussagen
in (7.33).
A ∈ K m×n . Zeige, dass RA : K 1×m → K 1×n , RA (ζ) := ζA ∗) eine lineare Abbildung ist.
Oenbar ist Bild(RA ) der Zeilenraum von A. Bestimme die Abbildungsmatrix für RA bez. der
1×m und K 1×n .
Standardbasen in K
Üb
Sei
Üb
Sei
Üb
A ∈ K m×n , T ∈ GL(m, K), S ∈ GL(n, K). Welche Beziehungen bestehen zwischen
Bild(A), Kern(A), Bild(T A), Kern(T A), Bild(A S), Kern(A S), Bild(AT ), Kern(AT ),
Bild((T A)T ), Kern((T A)T ), Bild((A S)T ), Kern((A S)T ), den zugehörigen Dimensionen und
n, m, sowie den jeweiligen Spalten und Zeilenräumen?
∗)
ζ
C ∈ GL(n, K).
Zeige:
LC
und
RC
sind Automorphismen.
Sei
zeta
61
Analog zu den Zeilenumformungen deniert man die
Spaltenumformungen.
Multiplikation mit Elementarmatrix von rechts.
(9.8)
Elementarmatrizen aus Kap. 8. Seien
e∈
C, C
Seien
K p×m . Entsteht
Z κ ∈ K m×m für κ = 1, 2, 3 die
e aus C durch die elementare
C
Spaltenumformung
1
Vertauschen der Spalten
2
Multiplikation der
3
Addition des
Beweis.
1
Z ,Z
dass
(9.9)
αfachen
C Z T = (Z C T )T ,
Da
2
k ten
j
und
k,
Spalte mit
der
j ten
e = C Z 1.
C
e = C Z 2.
λ, dann ist C
dann ist
Spalte zur
k ten
Spalte, dann ist
e = C Z 3.
C
folgt die Behauptung aus (8.6) aufgrund von (1). Beachte dabei,
symmetrisch sind und dass
(Z 3 (j, k))T = Z 3 (k, j)
gilt.
Struktursatz für Matrizen. Seien A ∈ K m×n und r = Rang(A). Dann existieren T ∈
GL(m, K) und S ∈ GL(n, K) derart, dass
Er
.
T AS =
Jede invertierbare Matrix ist Produkt von Elementarmatrizen.
Beweis. Nach (8.12) existiert Z ∈ GL(m, K) derart, dass B := Z A spezielle Zeilenstufenform hat.
Indem man geeignete Vielfache der l1 -ten Spalte von
erste Zeile gleich
−eTl1 .
B
zu den folgenden Spalten addiert, wird die
Man verfahre ebenso mit den Zeilen
2, . . . , r.
Jetzt vertausche man die erste
Spalte mit der l1 -ten Spalte, dann die zweite Spalte mit der l2 -ten Spalte, u.s.w. Anschlieÿend mul
tipliziere jede Spalte mit
Produkt
nun
S∈
−1. Es entsteht aus B
K n×n von Elementarmatrizen gibt, so dass
A ∈ GL(n, K). Dann ist B = −E
Üb
die Matrix
und daher
Er
. Daher folgt aus (8), dass es ein
BS =
Er
. Man setze
T := Z .
Sei
A = −T −1 . Die Behauptung folgt nun mit (8.6). V und W endlichdimensionale VR, f : V → W eine lineare Abbildung und B eine
(m × n)Matrix. Es gelte: n = dim V , m = dim W und Rang(f ) = Rang(B). Gibt es Basen
in V und W derart, dass B die darstellende Matrix von f bez. dieser Basen ist?
Seien
A ∈ K m×n , B ∈ K m×p . Indem man A durch die p Spalten von B erweitert, erhält man
(A|B) ∈ K m×(n+p) . Für T ∈ K q×m ist T (A|B) = (T A|T B). Das bedeutet: Nimmt man an (A|B)
elementare Zeilenumformungen vor, so nimmt man diese gleichzeitig an A und B vor.
Seien
(9.10)
Anwendung: Spezielle Zeilenstufenform.
Sei
A ∈ K m×n .
Wie berechnet man
Z ∈
GL(m, K) derart, dass B := Z A spezielle Zeilenstufenform hat? Antwort: Man wende
auf (A|E m ) jene elementaren Zeilenstufenumformungen (Elimination, Substitution, Freistellung) an, die A in B überführen. E m geht dabei in Z über, denn Z (A|E m ) = (B|Z).
(9.11)
Berechnung der Inversen.
A
(9.12)
gleich
−E n .
Also ist
A
−1
Sei
= −Z
A ∈ GL(n, K).
Dann ist die spezielle Zeilenstufenform für
aus (10).
α β
und ∆ := αδ − βγ . Dann ist A genau dann invertierbar, wenn
γ δ
α β
δ −β
∆ 6= 0. Allgemein gilt
=∆ E 2 .
γ δ
−γ α
Beispiel. Sei A =
62
Beweis.
Gemäÿ (11) wird (A|E 2 ) umgeformt:
α β
1 0
α β 1 0
→
→
γ
γ δ 0 1 (α6=0) 0 ∆
−
(∆6=0)
α
α 1
−1
1
α β
δ −β
=
für ∆ 6= 0, auch
γ δ
∆ −γ α
α
0
falls
0
∆
α
αδ
∆
− αγ
α = 0.
− αβ
∆
1
→
δ
1 0 ∆
γ
0 1 −∆
β
−∆
α
∆
. So ist
Die angegebene Formel rechnet man
leicht nach.
m×n , C ∈ K p×n . Indem man A durch die p Zeilen von C erweitert, erhält man
A ∈ K
A
A
AS
A
(m+p)×n
n×q
∈K
. Für S ∈ K
ist
S =
. Das bedeutet: Nimmt man an
eleC
C
CS
C
mentare Spaltenumformungen vor, so nimmt man diese gleichzeitig an A und C vor.
Seien
(9.13)
Anwendung: Spaltenstufenform.
lenstufenform deniert.
C ∈ K m×n
Die Spaltenstufenform einer Matrix ist analog zur Zei-
hat Spaltenstufenform genau dann, wenn
fenform hat. Entsprechend lässt sich eine Matrix
A∈
dass man auf
A
En
C = AS
(9.14)
En
jene elementaren Spaltenumformungen anwendet, die
S
über, denn
A
En
A in C
überführen.
C
S=
.
S
Basis des Spaltenraums. Da elementare Spaltenumformungen den Spaltenraum nicht verändern, haben
r
Üb
in
S ∈ GL(n, K) von EleS dadurch,
Spaltenstufenform besitzt. Man berechnet
Dabei geht
Zeilenstu-
K m×n mittels elementarer Spaltenum-
formungen in Spaltenstufenform bringen. Damit gibt es ein Produkt
mentarmatrizen derart, dass
CT
Spalten von
Eine Basis davon bilden die ersten
v1 , v2 , . . . , vp linear unabhängige Vektoren aus V . Weiter seien q
P
ul = pk=1 akl vk mit akl ∈ K für l = 1, . . . , q aus V gegeben. Man berechne eine
Basis von Span{u1 , . . . , uq } für den Fall, dass p = 4, q = 5 und A = (akl ) die folgende Matrix
Sei
V
A und C in (13) den gleichen Spaltenraum.
C . Diese sind also eine Basis von Bild(A).
ein VR und seien
Vektoren
ist:

0
0
2
−1 0
 0
2
1 − i 0 2i
.
A=
 i
0
0
1 2
1+i 1−i
0
0 0

63
10 Determinanten
A ∈ K n×n
lässt sich ein Skalar det A ∈ K , die sog. Determinante
A berechnen, der genau dann nicht null ist, wenn A invertierbar ist. Es ist also GL (n, K) =
{A ∈ K n×n : det A 6= 0}. Die Determinatenfunktion hat weitere wichtige Eigenschaften wie z.B. die
Multiplikativität det (A B) = (det A)(det B).
Für jede quadratische Matrix
von
Für
(10.1)
(2 × 2)Matrizen haben wir die
a1 b1
det
:= a1 b2 − a2 b1 .
a2 b2
Im Fall
K=R
ist
det a1 b1 a2 b2 Determinante bereits kennengelernt (9.12):
die Fläche
F
des von den Vektoren
a = (a1 , a2 )
und
b = (b1 , b2 )
aufgespannten Parallelogramms.
F = a1 b2 − a2 b1 falls der kleine
Winkel von a nach b positiv ist
Üb
Rechne die Multiplikativität der Determinante (1) für
Für
(10.2)
(2 × 2)Matrizen
nach.
(3 × 3)Matrizen deniert man


a1 b1 c1
det a2 b2 c2  := a1 b2 c3 + b1 c2 a3 + c1 a2 b3 − a3 b2 c1 − b3 c2 a1 − c3 a2 b1 .
a3 b3 c3
Das ist das
Spatprodukt [a, b, c] = a· (b × c)
c = (c1 , c2 , c3 ).
Im Fall
K=R
ist
|[a, b, c]|
der Vektoren
das Volumen
64
V
a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 )
a, b, c.
des Spats mit den Kanten
und
V = [a, b, c]
für ein Rechtssystem
a, b, c
Merkregeln
det
det
a1 b1
a2 b2
a1
b1
%
&
=
a2
b2
a1
b1
c1
a1
b1


a1 b1 c1
%
%
%
a2 b2 c2  = a2
b2
c2
a2
b2
a3 b3 c3
&
&
&
a3
b3
c3
a3
b3
Dabei bezeichnen
& (%)
Regel von Sarrus
Produkte versehen mit einem positiven (negativen) Vorzeichen. Ihre
Summe ergibt die Determinante.
Also ist die Determinante im Fall
n = 2, 3
für
K=R
eine sog.
Volumenform. Sie ist genau dann
null, wenn das Parallelogramm zur Strecke oder der Spat zum Parallelogramm entartet, d.h. wenn
die Spaltenvektoren linear abhängig sind. Als Volumenform ist die Determinante, wie geometrisch
ersichtlich, linear in jeder Spalte.
Die Fläche des Parallelogramms mit Seiten
a, c ist die Suma, b und
me der Flächen der Parallelogramme mit Seiten
a, b0 .
3 × 3Matrix


 0

c1
a1 b1 c1
a1 b1 c1
c2  = det a2 b2 c2  + λ det a02 b2 c2 
c3
a3 b3 c3
a03 b3 c3
Z.B. gilt für die Determinante einer
a1 + λa01 b1
a2 + λa02 b2
a3 + λa03 b3

(10.3) det
Üb

Rechne die Linearität der Determinante in (3) nach.
Auÿerdem ist die Determinante normiert, indem
(10.4) det E2
=1,
det E3
= 1.
65
A ∈ K n×n
(K n×1 )n .
Im Folgenden schreiben wir
n×n mit
identizieren K
(10.5)
als nTupel
(a1 , a2 , . . . , an )
ihrer Spaltenvektoren. D.h. wir
Determinantenfunktion. Wir nennen eine Abbildung
det
: K n×n −→ K
eine Determinantenfunktion, wenn sie folgende Eigenschaften besitzt:
(a) det ist
multilinear bezüglich der Spalten, d.h. det (a1 , . . . , ak−1 , ak +λa0k , ak+1 , . . . , an ) =
det (a1 , . . . , an )
(b) det (a1 , . . . , an )
(c) det En
+ λ det (a1 , . . . , ak−1 , a0k , ak+1 , . . . , an )
=0
falls
a1 , . . . , an ∈
:= a,
wobei
n=1
gilt dies für
A = (a), a ∈ K.
Es geht nun darum, allgemein für
(10.7)
n∈N
die Existenz und Eindeutigkeit von det zu zeigen.
Lemma. Sei δ : K n×n −→ K multilinear im Sinne von
Aussagen
(i)
(ii)
(iii)
k ∈ {1, . . . , n}.
= 1.
Oenbar sind (a)(c) für (1) und (2) erfüllt. Im Fall
(10.6) det A
für jedes
K n×1 linear abhängig sind.
(i), (ii)
und
(iii)
Es gilt Eigenschaft
(5)(a).
äquivalent:
Dann sind die folgenden
(5)(b).
δ(a1 , . . . , an ) = 0 falls a1 , . . . , an nicht paarweise verschieden sind.
δ ist alternierend, d.h. δ ändert das Vorzeichen bei einem Platzwechsel, d.h. bei Vertauschung benachbarter Spaltenvektoren.
Beweis.
(ii) gilt, weil nicht paarweise verschiedene
von (ii)
ersetze die l -te und
(i) ⇒
⇒ (iii)
ak linear abhängig sind. Zum Nachweis
(l + 1)-te Komponente für l < n durch al + al+1 . Dann ist wegen
der Multilinearität
0 = δ(. . . , al + al+1 , al + al+1 , . . . )
= δ(. . . , al , al + al+1 , . . . ) + δ(. . . , al+1 , al + al+1 , . . . )
= δ(. . . , al , al , . . . ) + δ(. . . , al , al+1 , . . . ) + δ(. . . , al+1 , al , . . . ) + δ(. . . , al+1 , al+1 , . . . )
= δ(. . . , al , al+1 , . . . ) + δ(. . . , al+1 , al , . . . ).
Pn
Es bleibt (iii) ⇒ (i) zu zeigen. Sei aq =
k=1,k6=q αk ak mit αk ∈ K für ein q ∈ {1, . . . , n}. Dann ist
Pn
δ(a1 , . . . , aq , . . . , an ) = k=1,k6=q αk δ(a1 , . . . , ak , . . . , a1 ) mit ak als q -te Komponente. Weil k 6= q ,
stimmen für den k -ten Summanden die k -te und die q -te Komponente überein. Sind k und q benachbart, dann ist der Summand null als unmittelbare Folge von (iii). Den allgemeinen Fall führt
man auf diesen durch mehrfachen Platzwechsel zurück:
. . . , ∗, a, ∗, ∗, a, ∗. · · · → . . . , ∗, ∗, a, ∗, a, ∗. · · · → . . . , ∗, ∗, ∗, a, a, ∗. . . .
Eine Determinantenfunktion ist demnach eine
K n×n ' (K n×1 )n .
normierte alternierende Multilinearform
auf
Existenz und Eindeutigkeit der Determinantenfunktion ist gleichbedeutend
mit der Existenz des folgenden einfacheren Objekts.
(10.8)
Vollständig antisymmetrischer Tensor n-ter Stufe . Sei n ∈ N. Zu j1 , . . . , jn ∈
{1, . . . , n} gibt es j1 ...jn ∈ K derart, dass 12...n = 1 und bei Platzwechel der Indexwerte
das Vorzeichen ändert. ist eindeutig und nimmt für n ≥ 2 genau die Werte −1, 0, 1 an.
66
Beweis.
Zur Eindeutigkeit von
null ist, wenn zwei Indexwerte überein-
j1 ...jn für paarweise
j1 , . . . , jn liegt fest, weil man diese durch mehrfache Vertauschung benachbarter Indizes in die Ordnung 12 . . . n bringen kann, wofür eins ist. Damit ist auch klar, dass für
n ≥ 2 genau die Werte −1, 0, 1 annimmt.
(1)
Die Existenz wird durch rekursive Denition gezeigt. Für n=1 sei 1 := 1 := 1. Seien nun die
(1) , . . . , (n) bereits konstruiert. Setze
Tensoren (
0 falls zwei Indizes übereinstimmen
(n+1)
j1 ...jq ...jn jn+1 :=
(n)
(−1)n+1−q j1 ...\
jq ...jn jn+1 sonst
stimmen, weil
stellt man fest, dass
alternierend ist (vgl. Beweis von (7)). Aber auch der Wert von
verschiedene Indexwerte
q ∈ {1, . . . , n + 1} durch jq = n + 1 bestimmt ist. Zunächst beachte, dass jk ∈ {1, . . . , n} für
(n+1)
(n)
k ∈ {1, . . . , n+1}\{q}, womit die Denition sinnvoll ist. Weiter ist 1...n(n+1) = (−1)0 · 1...n = 1. Bei
wobei
jq nicht betrit, liefert (n) ein Minuszeichen. Rückt hingegen jq um einen
(n)
(n+1) normiert
Platz, bleibt unverändert aber der Vorfaktor liefert ein Minuszeichen. Also ist einem Platzwechsel, der
und vollständig antisymmetrisch.
Sind
j1 . . . jn
In diesem Fall
mutation.
idSn
π(k) := jk eine Permutation π ∈ Sn (siehe (4.3)).
schreibt man π := j1 ...jn und nennt π das Vorzeichen oder Signum der Per−1 durch die gleiche Anzahl von Platzwechsel aus
gilt stets π = π −1 , weil π und π
paarweise verschieden, dann deniert
Es
hervorgehen.
Produktschreibweise. Alternativ zur Pünktchenschreibweise benutzt man für m < n, m, n ∈ Z,
n
Y
αi := αm αm+1 . . . αn ∗)
i=m
(10.9)
Leibniz Formel für Determinanten. Es gibt genau eine Determinantenfunktion, nämlich
det A
X
:=
n
Y
π
π∈Sn
Beweis.
aπ(k)k
k=1
Zum Nachweis der Eindeutigkeit sei
alternierende Multilinearform auf

δ(A) = δ 
n
X
=
n
X
j1 =1 j2 =1
Oensichtlich ist
(K n×1 )n .
n
X
aj1 1 ej1 ,
j1 =1
n
X
n
X
δ
eine Determinantenfunktion, d.h. eine normierte
Dann ist
aj2 2 ej2 , . . . ,
j2 =1
···
A ∈ K n×n .
für
n
X

ajn n ejn 
jn =1
aj1 1 aj2 2 . . . ajn n δ(ej1 , ej2 , . . . , ejn ).
jn =1
δ(ej1 , ej2 , . . . , ejn ) = j1 j2 ...jn
Zur Existenz bleibt zu zeigen, dass
und somit
δ(A) =
P
π∈Sn π aπ(1)1 . . . aπ(n)n
= det (A).
det wie oben deniert wirklich eine Determinatenfunktion ist,
d.h. normiert, alternierend und multilinear ist.
Es ist det E
P
Q
P
= π∈Sn π ( nk=1 δπ(k)k ) = π∈Sn ,π=id π = 1. Bei einem Wechsel der Plätze l
A in die Matrix B über mit bk = aσ(k) , wobei σ ∈ Sn , σ(l) := l + 1, σ(l + 1) =: l und
l + 1 geht
σ(k) = k sonst.
und
n
Y
k=1
∗) Q
Demnach ist
bπ(k)k =
n
Y
aπ(k)σ(k) =
k=1
n
Y
aπ(σ−1 (j))j
j=1
Pi , das groÿe griechische P
67
und somit
det B
X
=
π
n
Y
aπ◦σ−1 (j)j =
j=1
π∈Sn
X
κ◦σ
n
Y
aκ(j)j =
j=1
κ∈Sn
X
(−κ )
n
Y
j=1
κ∈Sn
Es bleibt die Multilinearität zu zeigen. Ersetzt man die l -te Spalte durch
n
Y
bπ(k)k =
k=1
aπ(k)k + λ
k=1
a0k := ak
wobei
n
Y
für
n
Y
aκ(j)j = −det (A).
bl := al + λa0l ,
dann ist
a0π(k)k ,
k=1
k 6= l.
Einsetzen in die Leibniz Formel liefert die Behauptung.
Konkrete Berechnungen mit Hilfe der Leibniz Formel sind oftmals sehr umfangreich wegen der
n!
groÿen Anzahl
von Summanden (siehe die Übung zu (4.3)). Ausgehend von (9) werden jetzt
die wichtigsten Eigenschaften der Determinantenfunktion bewiesen.
(10.10)
Determinante der transponierten Matrix. Für A ∈ K n×n gilt
Beweis. Zunächst ist
det (A
T
),
weil
Qn
k=1 aπ(k)k
κ−1 = κ
Identiziert man
=
Qn
j=1 ajπ −1 (j) . Damit folgt det (A)
=
det (A
T
) = det (A).
P
κ∈Sn κ−1
Qn
j=1 ajκ(j)
nach (8).
K n×n ' (K 1×n )n
und schreibt
A ∈ K n×n
als
n-Tupel
=
ihrer Zeilenvektoren, dann
folgt aus (9) und (10) sofort
(10.11)
Korollar. det : K n×n → K ist eine (die einzige) normierte, alternierende Multilinearform
bezüglich der Zeilen.
Sei
A ∈ K n×n
Matrix, die aus
(10.12)
(k, l) ∈ {1, . . . , n}2 . Dann deniert man A(kl) ∈ K (k−1)×(n−1)
A durch Streichen der k -ten Zeile und der l-ten Spalte ensteht.
und
als diejenige
Lemma. Sei A ∈ K n×n und (k, l) ∈ {1, . . . , n}2 derart, dass al = ek , d.h. der l-te Spalten-
vektor von A ist der k -te Standardspaltenvektor. Dann gilt
det (A)
= (−1)k+l
det A(kl) ,
Die gleiche Formel gilt, wenn der k -te Zeilenvektor von A gleich dem l-ten Standardzeilenvektor
ist.
Beweis. Durch n − l
Platzwechsel
...∗
verschiebt man
ek
ek ∗∗∗ →
von der
l-ten
. . . ∗∗
ek ∗∗ →
Spalte in die
n-te
. . . ∗∗∗
ek ∗ →
. . . ∗∗∗∗
Spalte ohne die Reihenfolge der übrigen Spal-
tenvektoren zu verändern. Anschlieÿend verschiebt man analog durch
Zeilenvektor in die
n-te
Zeile. Für die neue Matrix
68
ek
B
gelten:
n−k
Platzwechsel den
k -ten
(i) der letzte Spaltenvektor von
(ii) durch Streichen der
(iii) det B
ist
en ,
n-ten
Zeile und der
Spalte von
B
A(kl) ,
entsteht
= (−1)(k+l) det A.
Letzteres gilt, weil
det B
n-ten
B
=
X
(n − l) + (n − k)
π
π∈Sn
n
Y
Platzwechsel vorgenommen werden. Jetzt wende (9) auf
(i)
X
bπ(k)k =
k=1
π
n−1
Y
bπ(k)k =
κ
π∈Sn−1
k=1
π∈Sn ,π(n)=n
X
n−1
Y
B
an:
(ii)
bκ(k)k = det A(kl) .
k=1
Schlieÿlich beachte (iii). Der Rest der Behauptung gilt wegen (10).
Es folgt der Entwicklungssatz von Laplace.
(10.13)
Entwicklung nach Zeile oder Spalte. Sei A ∈ K n×n beliebig. Dann gelten die Entwicklung
von det A nach der lten Spalte
(Sl )
det A
=
n
X
(−1)k+l akl
det A(kl)
k=1
und die Entwicklung von det A nach der k ten Zeile
(Zk )
det A
=
n
X
(−1)k+l akl
det A(kl) .
l=1
Beweis.
P
(10.14)
lten Spalte ist det A = det (a1 , . . . , al , . . . , an ) =
(Sl ) mit (12). Analog zeigt man (Zk ).
Aufgrund der Linearität bezüglich der
n
k=1 akl det (a1 , . . . , ek , . . . , an ). Hieraus folgt
Verhalten bei elementaren Umformungen. Seien Z κ , κ = 1, 2, 3, die drei Typen von
Elementarmatritzen und C ∈ K n×n , vgl.
(8.6)
1
det (Z
1
C) = det (C Z 1 ) = −det (C),
2
det (Z
2
C) = det (C Z 2 ) = λ det (C),
3
det (Z
3
C) = det (C Z 3 ) = det (C).
und
(9.8).
Dann gelten
Beweis. Diese Beziehungen sind eine unmittelbare Folge der Multilinearität und der vollständigen
Antisymmetrie der Determinantenfunktion.
Üb
Drücke in Worten die Bedeutung von (14) aus.
Die Sätze (13) und (14) erlauben in eektiver Weise Determinanten auszurechnen.
(10.15)
Beispiel. Vandermonde Determinante.



1 x x2
1
x
x2
y − x y 2 − x2
2
2
2




1 y y
0 y−x y −x
det
= det
= det
=
z − x z 2 − x2
1 z z2
0 z − x z 2 − x2
1 y+x
1 y
(y − x)(z − x) det
= (y − x)(z − x) det
= (y − x)(z − x)(z − y).
1 z+x
1 z

69
Allgemein gilt

1 x1 . . .
 1 x2 . . .

det  .
.
 .. ..
1 xn . . .
Üb
(10.16)

xn−1
1

Y
xn−1
2

(xj − xi ).
=

.
.

.
1≤i<j≤n
xn−1
n
Weise die allgemeine Formel für die Vandermonde Determinante aus (15) nach.
Multiplikationssatz. Für A, B ∈ K n×n
gilt det (A B)
= (det A)( det B).
Beweis. Da det (E) = 1, folgt aus (14) für C = E , dass
(?)
det (Z
1
) = −1,
Daher gilt det (Z
κ
C) =
det (Z
det (Z
2
κ
) = λ,
det (Z
) det (C)
für
3
) = 1.
κ = 1, 2, 3.
Dies wird nun mehrfach angewendet.
A invertierbar. Dann existieren nach (9.9) Elementarmatritzen Z 1 , . . . , Z m derart,
dass A = Z 1 . . . Z m . Daher gilt: det (A B) = det (Z 1 . . . Z m B) = det (Z 1 ) det (Z 2 . . . Z m B) =
det (Z 1 ) det (Z 2 ) det (Z 3 . . . Z m B) = · · · = det (Z 1 ) . . . det (Z m ) det (B). Letzteres ist nun gleich
det (Z 1 ) . . . det (Z m−2 ) det (Z m−1 Z m ) det (B) = · · · = det (Z 1 . . . Z m ) det (B) = det (A) det (B).
Sei zunächst
Jetzt sei
A
nicht invertierbar, d.h. Rang(A)<
Denition (5)(b) gelten det (A)
=0
Wir erinnern nochmals an (7.23):
wenn
(10.17)
n.
und det (A B)
A ∈ K n×n
Dann ist auch Rang(A B )<
n.
Nach (7.23) und
= 0.
ist invertierbar genau dann, wenn Rang (A)
=n
oder
dim Kern (A) = 0.
Invertierbarkeitskriterium. Es ist
K n×n
GL(n, K)
= {A ∈ K n×n :
det (A)
gilt:
6= 0}, d.h. für A ∈
A invertierbar ⇔ det (A) 6= 0.
Ist A invertierbar, dann ist det(A−1 ) = 1/ det(A).
Beweis.
ist det A
Üb
A nicht invertierbar ⇒ Rang (A) < n ⇒ det (A) = 0. Sei nun A
E = A A−1 ⇒ 1 = det (E) = det (A A−1 ) = det A det (A−1 ). Insbesondere
Wir wissen bereits:
invertierbar. Dann gilt:
6= 0.
Man beweise die folgenden Formeln für
A, B, C ∈ K n×n
und
S ∈ GL(n, K).
• det (A B C) = det (B A C) = det (B C A).
• det (Ak ) = (det A)k für k ∈ N, wobei Ak := (. . . ((A A) A) . . . )A
k mal.
• det (S −1 A S) = det (A).
Üb
Blockmultiplikation von Matrizen.
seien
Akl
eine
C kj :=
(mk × nl )Matrix
n
X
und
B lj
Für
k = 1, . . . , m, l = 1, . . . , n
(nl × pj )Matrix. Damit ist
eine
Akl B lj
l=1
70
und
j = 1, . . . , p
Pm (mk × pj )Matrix.
Pn Setze (Akl )k=1,...,m, l=1,...,n
k=1 mk und N :=
l=1 nl zusammen:


A11 A12 · · · A1n
 A

 21 A22 · · · A2n 
A= .

.
.
..
.
.
 ..

.
.
.
Am1 Am2 · · · Amn
eine
(M × N )Matrix A
mit
M :=
P
P := pj=1 pj . Zeige C = A B.
B C
B
n×n derart, dass als Blockmatrix A =
Sei A ∈ K
bzw. A =
,
D
C D
wobei B und D quadratisch sind. Zeige: det A = (det B)(det D).
B ∈ K N ×P
Ebenso bilde
Üb
zu einer
Tipp:
C ∈ K M ×P
und
mit
Zeige die Behauptung für den Spezialfall
D=E
A
in geeigneter Weise als
Aii , i = 1, . . . , p.
Man zeige die Formel
und schreibe
Produkt zweier Matrizen.
Üb
Dreiecksblockmatrizen. Sei


A11



A=








∗
A22
..
.
App
eine obere Dreiecksblockmatrix mit quadratischen
det A
=
Qp
i=1 det Aii . Entsprechendes zeige man für untere Dreiecksblockmatrizen.
Üb
Sei
B C
D
A=
Übung folgt, dass
von
Üb
B
−1
D
und
Eine Matrix
−1
mit
A
B, D
quadratische invertierbare Matrizen. Aus der vorangegangenen
invertierbar ist. Wie lautet die Blockmatrix für
A−1
unter Verwendung
?
P ∈ K n×n
heiÿt
Permutationsmatrix,
von Spalten hervorgeht, d.h. wenn es eine Permutation
wenn P aus E n durch Vertauschung
π ∈ Sn (siehe (4.3)) gibt derart, dass
P = (eπ(1) |eπ(2) | . . . |eπ(n) )
oder, anders ausgedrückt, wenn
P ek = eπ(k)
für
k = 1, . . . , n.
Also besteht eine eineindeutige
Zuordnung
π 7→ Pπ
zwischen den Permutationen aus
Sn
und den
(n × n)Permutationsmatrizen.
Sei
Πn ⊂ K n×n
die Menge der Permutationsmatrizen.
a) Zu welcher Permutation gehört

0
0

0
1
0
1
0
0
b) Wie sieht die Permutationsmatrix zu
π(5) := 1
1
0
0
0
π ∈

0
0
?
1
0
S5 mit π(i) := i + 1
für
i ∈ {1, . . . , 4}
und
aus?
c) Weise nach: Es ist
Πn ⊂ GL(n, K)
Gruppenhomomorphismus
Pπ◦κ = Pπ Pκ
und
ist ein injektiver
∀ π, κ ∈ Sn ,
Πn ist. Allgemein nennt man einen Gruppenhomomorphismus
GL(n, K) eine ndimensionale Matrixdarstellung von G.
dessen Bild gleich
Gruppe G in
Sn → GL(n, K), π 7→ Pπ ,
71
einer
d) Weise nach:
Πn
ist eine Gruppe bezüglich der Gruppenmultiplikation, d.h.
Untergruppe von
π
Tipp:
e) Sei
ist eine
GL(n, K).
π ∈ Sn .
das Vorzeichen der Permutation
Wie hängen
Pπ
und
π
Zeige:
nter
antisymmetrischen Tensor
π◦κ = π κ ∀π, κ ∈ Sn .
zusammen?
f ) Finde einen Zusammenhang zwischen gewissen
(10.18)
Πn
Stufe
(n × n)Matrizen
und dem vollständig
.
Cramer Regel. Seien A ∈ GL(n, K) und b ∈ K n×1 . Dann hat A x = b die eindeutige Lösung
x = (x1 . . . xn )T ∈ K n×1 mit
xk =
1
det A
det (a1 , . . . , ak−1 , b, ak+1 , . . . , an ).
Beweis. Es ist b = A x =
Pn
Pn
l=1 xl det (a1 ,
l=1 xl al und somit det (a1 , . . . , ak−1 , b, ak+1 , . . . , an ) =
P
n
. . . , ak−1 , al , ak+1 , . . . , an ) = l=1 xl δkl det A = xk det A.
(10.19)
Formel für die inverse Matrix. Sei A ∈ GL(n, K). Setze (âkl )k, l=1,...,n := A−1 . Dann ist
âkl =
1
(−1)k+l det A(lk) für k, l = 1, . . . , n.
det A
Beachte die Reihenfolge der Indizes.
Beweis. Für b = el
x = A−1 el = âl die lte Spalte von A−1 .
1
1
det (a1 , . . . , ak−1 , el , ak+1 , . . . , an ) =
(−1)k+l det A(lk) .
âkl = det
A
det A
(10.20)
in (18) ist
Adjunkte Matrix. Zu A ∈ K n×n
Die Matrix
Ã
setze
heisst die Adjunkte zu
à = (ãkl )k,l=1,...,n
mit
Also ist nach (18) und (12)
ãkl := (−1)k+l det A(lk) .
A. Sie erfüllt
à A = A à = (det A) E n .
Beweis. Mit (12) gilt
Pn
l=1 ãkl
alj =
Pn
l=1 det (a1 , . . . , ak−1 , el , ak+1 , . . . , an ) alj
=
det (a1 , . . . , ak−1 ,
aj , ak+1 , . . . , an ) = δkj det A.
à A = ( det A) E n . Nun ist (A˜T )T = Ã, wie man sich leicht überzeugt. Damit
A˜T AT = ( det AT )E n durch Transponieren A Ã = ( det A) E n . Man beachte dabei (10).
Also gilt
(10.21)
Üb
Beispiel. Die Adjunkte zu A =
Seien
f : Rn → Rn
linear und
α β
γ δ
b1 , . . . , b n
( n
X
ist
Vektoren des
Rn .
, vgl. (9.12).
Die Teilmenge des
)
λl bl : λl ∈ [0, 1]
l=1
heiÿt
à =
δ −β
−γ α
Spat mit Kanten b1 , . . . , bn .
72
für
l = 1, . . . , n
Rn
folgt aus
bl der Spaltenvektor in Rn×1 bestehend aus den Komponenten
(b1 . . . bn ) ∈ Rn×n . In Übereinstimmung mit der Anschauung im R2
Sei
von
und
bl ∈ Rn . Setze B :=
R3 (vgl. die Erläute-
rungen zu (1) und (2)) nennt man allgemein
V := | det B |
Volumen
b1 , . . . , bn . Zeige: Das Volumen des Spats mit Kanten
f (b1 ), . . . , f (bn ) ist | det f | V . (Dabei ist det f := det A für eine f darstellende Matrix A. Wegen
das
des Spats mit Kanten
(7.34) und (16), (17) kommt es dabei nicht auf eine spezielle Wahl der Abbildungsmatrix an.)
73
11 Eigenwerte und Eigenvektoren
Gegeben sei eine lineare Abbildung
f : V → W
von einem
ndimensionalen K VR V
in einen
mdimensionalen K VR W .
(11.1)
Struktursatz für Homomorphismen. Sei r := Rang (f ). Bei geeigneter Wahl von Basen
in V und W ist die Abbildungsmatrix A ∈ K m×n von f gleich
Er
A=
Jede weitere Abbildungsmatrix A0 von f ist von der Form A0 = T −1 A S mit T ∈ GL(m, K)
und S ∈ GL(n, K).
Beweis. Die Behauptung folgt sofort aus (9.9) und (7.32).
Ähnlichkeit von quadratischen Matrizen
V bestimmt man eine Abbildungsmatrix A ∈ K n×n von f ,
indem man auch die Bildvektoren f (x) bezüglich derselben Basis entwickelt. Ein Basiswechsel in V
0
führt auf eine zu A ähnliche Matrix A , nämlich
Im Fall eines Endomorphismus
(11.2)
mit
f
von
A0 = S −1 AS
S ∈ GL(n, K), siehe (7.34). Die Aufgabe ist S
so zu bestimmen, dass
A0
eine möglichst einfache
Gestalt hat. Diese Aufgabenstellung hat einen prinzipiellen Aspekt, auf den wir kurz eingehen
wollen.
(11.3)
Äquivalenzrelation.
Eigenschaften für
Sei X eine Menge. Eine Äquivalenzrelation ∼ auf X hat
x, y, z ∈ X . Dabei steht x ∼ y für "x ist äquivalent zu y ".
die folgenden
x ∼ x (Reexivität)
x ∼ y ⇒ y ∼ x (Symmetrie)
x ∼ y, y ∼ z ⇒ x ∼ z (Transitivität).
Zu jedem
x∈X
bildet man nun die zugehörige
Äquivalenzklasse von Elementen aus X
[x] := {y ∈ X : y ∼ x}.
Je zwei Äquivalenzklassen [x] und [x0 ] sind gleich [x] = [x0 ], wenn x ∼ x0 , und disjunkt
[x] ∩ [x0 ] = ∅, wenn x x0 . (Denn ist x ∼ x0 und sind y, y 0 ∈ X mit y ∈ [x] und y 0 ∈ [x0 ], dann
0
0
0
0
0
gilt y ∼ x ∼ x ∼ y , weshalb y ∈ [x ] und y ∈ [x]. Ist hingegen x x , dann ist für jedes
0
0
y ∈ [x] auch y x und somit y ∈
/ [x ].) Damit ist X die Vereinigung der paarweise disjunkten
Äquivalenzklassen. Ist K ⊂ X eine Äquivalenzklasse und x ∈ K , dann ist [x] = K und x
heiÿt ein Repräsentant von K .
Es folgen einige Beispiele für Äquivalenzrelationen.
(11.4)
Partition.
Sei
X
eine Menge. Sei
K ⊂ P(X).
Ist
K
eine Partition von
aus K sind nichtleer und paarweise disjunkt und ihre Vereinigung
y :⇔ ∃K ∈ K mit x, y ∈ K eine Äquivalenzrelation auf X .
74
ist
X,
X,
d.h. die Mengen
dann deniert x∼
(11.5)
Isomorphe Vektorräume.
endlichdimensionalen
(11.6)
Die Isomorphie ist eine Äquivalenzrelation auf der Menge der
K -VR.
Quotientenraum. Seien V
ein VR und
eine Äquivalenzrelation auf
V.
x.
Zu
W ⊂ V ein UVR. Dann deniert "x ∼ y : y −x ∈ W "
x ∈ V ist [x] = x + W der ane Unterraum (6.20) zu
Die Äquivalenzklassen heiÿen auch Nebenklassen und die Menge der Nebenklassen heiÿt
Quotientenraum und wird mit
V /W
bezeichnet. Der Quotientenraum ist ein VR bezüglich
(x + W ) + λ(x0 + W ) := (x + λx0 ) + W und
0 + W = W als Nullvektor. Diese Verknüpfung ist wohldeniert, denn sind x + w und x0 + w0
0
0
mit w, w ∈ W zwei weitere Repräsentanten der beiden Nebenklassen, dann ist (x + w + λ(x +
0
0
0
w )) + W = (x + λx ) + W , weil (w + λw) ∈ W .
der repräsentantenweise denierten Verknüpfung
(11.7)
(11.8)
Üb
Äquivalente Matrizen.
A, B ∈ K m×n sei A ∼ B , falls T ∈ GL(m, K) und S ∈
−1
A S . Damit ist eine Äquivalenzrelation auf K m×n deniert.
GL(n, K) existieren mit B = T
Die Anzahl der Äquivalenzklassen ist endlich, nämlich min{n, m} + 1. Repräsentanten der
Er
Äquivalenzklassen sind die Nullmatrix und
für r = 1, . . . , min{n, m}. Vgl. (1).
Für
Ähnliche Matrizen. Die Ähnlichkeit (2) für Matrizen aus K n×n ist eine Äquivalenzrelation.
Weise die Behauptungen in (4) (8) nach.
Die Aufgabe besteht also darin, möglichst einfache Repräsentanten der
nden. Diagonalmatrizen
D :=
diag(λ1 , . . . , λn ),
Abbildungsmatrix eines Endomorphismus
v1 , . . . , vn
von
f (vl ) =
V
n
X
f
von
Ähnlichkeitsklassen
zu
λl ∈ K , sind besonders einfach. Wann ist D die
V ? Die Antwort ist oenbar, wenn es eine Basis
gibt derart, dass nach (7.20)
(λk δkl ) vk = λl vl
für
l = 1, . . . , n.
k=1
(11.9)
Eigenwert, Eigenvektor.
f,
von f
V ein K -VR, f ∈ End (V ) und λ ∈ K . Dann heiÿt λ ein
v ∈ V , v 6= 0, existiert mit f (v) = λv . Man nennt v einen
Eigenwert λ.
Eigenwert von
wenn ein
Eigenvektor
zum
Sei
Beachte, Eigenvektoren sind stets ungleich
x ∈ Kern (f ) \ {0}
0 ∈ V,
ist Eigenvektor zum Eigenwert
während
0∈K
ein Eigenwert sein kann. Jedes
0.
f diagonalisierbar, wenn es eine Basis in V aus Eigenvektoren
f gibt. Im Fall n = dim V < ∞ wird f bez. einer solchen Basis durch die Diagonalmatrix
n×n eine
diag (λ1 , . . . , λn ), λl ∈ K dargestellt, wobei λl die zugehörigen Eigenwerte sind. Ist A ∈ K
Abbildungsmatrix von f , dann ist wie wir gesehen haben, f genau dann diagonalisierbar, wenn A
Man nennt einen Endomorphismus
von
ähnlich zu einer Diagonalmatrix ist.
A ∈ K n×n . Im Sinne von (7.10). spricht man von Eigenwerten, Eigenvektoren
lisierbarkeit von A anstelle von LA . Zusammenfassend können wir feststellen
Sei
(11.10)
(i)
(ii)
Lemma. Sei A ∈ K n×n . Dann sind äquivalent:
A ist diagonalisierbar.
A ist ähnlich zu einer Diagonalmatrix.
Genaueres sagt der nächste Satz aus.
75
und Diagona-
(11.11)
Diagonalisierung. Sei A ∈ K n×n und sei s1 , . . . , sn eine Basis in K n×1 von Eigenvektoren
von A zu den Eigenwerten λ1 , . . . , λn in K . Dann ist
S := (s1 . . . sn ) ∈ K n×n
invertierbar und S −1 A S = diag (λ1 , . . . , λn ). Umgekehrt, ist A ∈ K n×n und sind S =
(s1 . . . sn ) ∈ GL(n, K) und λ1 , . . . , λn aus K derart, dass S −1 A S = diag (λ1 , . . . , λn ), dann
ist s1 , . . . , sn eine Basis in K n×1 von Eigenvektoren von A zu den Eigenwerten λ1 , . . . , λn .
Beweis.
S el = sl und somit el = S −1 sl
A S el = S A sl = S (λsl ) = λS −1 sl = λel für alle l. Zur
für l = 1, . . . , n. Damit folgt: S
Umkehrung beachte S el = sl und somit A sl = A S el = S diag(λ1 , . . . , λn ) el = Sλl el = λl sl .
Üb
= n,
Da Rang (S)
ist
S
invertierbar (7.23). Weiter ist
−1
Man zeige: Ist
A ∈ K n×n
−1
−1
äquivalent zu einer Diagonalmatrix, so ist letztere bis auf die
Reihenfolge der Diagonalelemente eindeutig.
(11.12)
Lineare Unabhängigkeit von Eigenvektoren. Seien v1 , . . . , vm Eigenvektoren zu paarweise verschiedenen Eigenwerten λ1 , . . . , λm von f ∈ End (V ). Dann sind v1 , . . . , vm linear
unabhängig.
Beweis. Der Beweis erfolgt durch Induktion nach mP
. Für m = 1 gilt die Aussage, weil v1 6= 0. Für
den Induktionsschluss von
0 = λm+1 0 =
0
= f (0)
=
m+1
X
k=1
m+1
X
m
nach
m+1
betrachte
m+1
k=1 αk vk
=0
mit
αk ∈ K .
Dann ist
λm+1 αk vk ,
λk αk vk .
k=1
Die Dierenz der beiden Ausdrücke ist
zung folgt
vm+1 6= 0
(λm+1 − λk )αk = 0
Pm
und somit
als Eigenvektor, ist auch
αm+1
k=1 (λm+1 − λk )αk vk = 0. Aus der Induktionsvoraussetαk = 0 für k = 1, . . . , m. Daher ist αm+1 vm+1 = 0. Weil
= 0.
Die folgende Aussage ist ein unmittelbares Korollar zu (12).
(11.13)
Diagonalisierbarkeitskriterium.
verschiedene Eigenwerte, dann ist
f
Ist
n :=
dim V
<∞
und hat
f ∈
End (V
)n
paarweise
diagonalisierbar.
Natürlich ist die Verschiedenheit der Eigenwerte keine notwendige Bedingung für die Diagonalisierbarkeit, wie
f = idV
lehrt. Seien
V
und
W
(beliebig dimensionale)
Isomorphismus. Das Diagramm
ist mit
f 0 := s ◦ f ◦ s−1
kommutativ.
76
K -VR
und
s:V →W
ein
(11.14)
Eigenwert als Invariante. Sei v ein Eigenvektor zum Eigenwert λ von f ∈ End (V ). Dann
ist λ ein Eigenwert und s(v) dazu ein Eigenvektor von f 0 .
Üb
Weise (14) nach.
Charakteristisches Polynom
Wie aus dem Bisherigen hervorgeht und wie besonders die Aussage (13) zeigt, ist es wichtig, die Eigenwerte eines Endomorphismus
dass jede Darstellungsmatrix
(11.15)
A
f
zu kennen. Im Fall dim
von
f
V < ∞ folgt aus (14) mit (7.9), (7.10),
f besitzt.
die gleichen Eigenwerte wie
Hauptlemma. Für f ∈ End (V ) gilt: λ Eigenwert von f ⇔
Für A ∈ K n×n gilt: λ Eigenwert von A ⇔
Kern (A
Kern (f
− λidV ) 6= {0}.
− λE n ) 6= {0} ⇔ det (A − λ En ) = 0.
Beweis. Oenbar ist f (x) = λx äquivalent zu (f − λidV )(x) = 0, d.h. x ∈ Kern (f − λidV ). Ferner
gilt: Kern (A − λE n )
6= {0} ⇔ A − λE n
nicht invertierbar
⇔ det (A − λE n ) = 0.
Siehe dazu (7.23)
und (10.17).
Sei
X
eine Unbestimmte und

a11 − X
a12
···
 a21
a
−
X
·
··
22

A − XE n = 
.
.
.
.
.
..

.
.
an1
an2
···
a1n
a2n
.
.
.



.

ann − X
Dann bezeichne
χA := det (A − XE n )
(11.16)
das Polynom in
χA =
n
Y
X
gemäÿ der Leibniz Formel (10.9). Danach ist
(akk − X) + Q,
k=1
π = id ist und Q die Summe über π ∈ Sn \ {id} bezeichnet. Q
≤ n − 2. Nach fallenden Potenzen in X geordnet ist
wobei das Produkt der Summand zu
ist ein Polynom in
(11.17)
X
vom Grad
χA = (−1)n X n + (−1)n−1 (Spur A)X n−1 + . . . + det A.
Dabei ist die
Spur von A als die Summe der Diagonalelemente von A
(11.18) Spur A
:=
n
X
akk
k=1
deniert. Man nennt
vom Grad
n
χA
das
charakteristische Polynom von A ∈ K n×n . Es ist also ein Polynom
in einer Unbestimmten mit Koezienten aus
K.
n−1 Spur A und das Absolutglied lautet
Koezient zur zweithöchsten Potenz ist (−1)
Üb
Sei
B ∈ K m×n
und
C ∈ K n×m .
Zeige: Spur (B
77
(−1)n .
det A.
Der Leitkoezient ist
C) = Spur (C B).
Der
Polynome über K
Polynomrings K[X] einzuschieben. Die ElePolynome über K in einer Unbestimmten. K[X] ist der VR K (N0 )
Hier ist es angebracht, eine strenge Denition des
mente von
K[X]
heiÿen
(siehe (5.4)) versehen mit einer weiteren inneren Verknüpfung, einem Produkt. Zu seiner Denition
wird die kanonische Basis in
K (N0 )
X l := (0, . . . , 0, 1, 0, . . .)
für
wie folgt bezeichnet:
l ∈ N0 ,
wobei
l
Nullen vor der
1
stehen.
X 0 = (1, 0, . . . , 0, . . .). Ein Polynom p ∈ K[X] schreibt man als Linearkombinal
tion der Basisvektoren X , l ∈ N0 , d.h. es existiert ein n ∈ N0 und eindeutig bestimmte αl ∈ K für
l = 0, . . . , n mit
Insbesondere ist
p=
n
X
αl X l .
l=0
αl = 0, dann heiÿt p = 0 das Nullpolynom. Andernfalls existiert ein maximales d ∈ N0
mit d ≤ n und αd 6= 0. Dann heiÿt p ein Polynom von Grad d, bezeichnet mit d =: grad p, und
Leitkoezient αd . Im Fall d = 0 schreibt man p = α0 X 0 =: α0 , wobei α0 6= 0. Das Nullpolynom
hat keinen Grad. Die Sprechweise "p ist ein Polynom vom Grad ≤ n" schlieÿt jedoch das Nullpoly-
Sind alle
nom mit ein.
Ist
q=
Pm
k=0 βk X
p q :=
k ein weiteres Polynom, dann deniert man das
n X
m
X
αl βk X
l+k
=
n+m
X
γj X j
mit
j=0
l=0 k=0
αl βk .
l,k mit
l+k=j
Dieses Produkt hat folgende Eigenschaften für
(a)
p (q r) = (p q) r
(b)
pq = qp
(c)
p (q + r) = p q + p r, (p + q) r = p r + q r
p, q, r
in
K[X]:
assoziativ
kommutativ
(d) grad (p q)
= (grad p) + (grad q)
für
n
X
l=0
αl
m
X
distributiv
p 6= 0, q 6= 0.
Mit Hilfe des Produkts deniert man auch die
p ◦ q :=
X
γj :=
Produkt
Komposition zweier Polynome:
!l
βk X k
.
k=0
Auch hierfür gilt die Assoziativität
(p ◦ q) ◦ r = p ◦ (q ◦ r),
die man mit etwas formalem algebraischen Aufwand beweist.
P
p ∈ K[X] ist die Polynomfunktion p̂ : K → K, p̂(λ) := nl=0 αl λl , zugeordnet.
Die Abbildung p 7→ p̂ ist für unendliche Körper injektiv, siehe (20) unten. Für endliche Körper ist
das nicht der Fall. Eine Nullstelle von p ist denitionsgemäÿ ein λ ∈ K mit p̂(λ) = 0. Wenn
es nicht zu Missverständnissen führt, schreiben wir p(λ) anstelle von p̂(λ).
Jedem Polynom
Für
p, q, r ∈ K[X], λ ∈ K
gelten
(p + q)(λ) = p(λ) + q(λ)
und
(pq)(λ) = p(λ)q(λ),
78
sowie
(p ◦ q ◦ r)(λ) = p(q(r(λ))).
Üb
Polynomdivision mit Rest. Sei q ∈ K[X]\{0} und p ∈ K[X]. Zeige: Es existieren eindeutig
bestimmte
h ∈ K[X]
und
r ∈ K[X]
derart, dass
p = hq + r
mit
r=0
oder grad r
< grad q .
Wir fahren mit der Untersuchung des charakteristischen Polynoms fort. Aus (15) folgt sofort
(11.19)
Eigenwerte als Nullstellen des charakteristischen Polynoms. Die Nullstellen von χA
in K sind genau die Eigenwerte von A.
Sei
A0
ähnlich zu
A,
siehe (2). Dann ist
χA (λ) = χA0 (λ)
für alle
λ ∈ K,
d.h. die charakteristischen
Polynomfunktionen sind gleich, denn
χA0 (λ) = det(A0 −λE n ) = det(S −1 A S −λS −1 S) = det(S −1 (A−λE n )S) = det(A−λE n ) = χA (λ).
Im Fall, dass
K
unendlich viele Elemente hat, wie etwa
Q, R oder C, folgt daraus, dass χA
und
χA0
selbst gleich sind, denn es gilt
(11.20)
Gleichheit von Polynomen. Seien p, p0 zwei Polynome über K vom Grad ≤ n, die für
n + 1 paarweise verschiedene Werte λ1 , . . . , λn+1 aus K übereinstimmen. Dann ist p = p0 .
P
Beweis. Oenbar genügt es zu zeigen, dass q := p−p0 das Nullpolynom ist. Sei q = nl=0 αl X l mit al ∈
K, l = 1, . . . , n. Dazu betrachte man das LGS q(λj ) = 0, j = 1, . . . , n + 1, d.h.



1 λ1 · · ·
λn1
x1
1 λ2 · · ·


λn2 

  x2 
 ..
.
.   .  = 0.
.
.  . 
.
.
.
.
n
1 λn+1 · · · λn+1
xn+1
(x1 , . . . , xn+1 ) = (α0 , . . . , αn ). Die Vandermonde
(λ
−
λ
)
=
6
0. Daher hat das LGS nur die Nulllösung.
j
k
1≤k<j≤n+1
Eine Lösung davon ist
Q
(11.21)
Determinante (10.15) ist
Charakteristisches Polynom als Invariante. Die charakteristischen Polynome für ähnli-
che Matrizen sind gleich.
Beweis.
Für den Fall unendlichem
K
siehe nach (19). Der Fall endlichen Körpers folgt mit etwas
formalen Aufwand, indem man direkt von det(S
(11.22)
Determinante für Endomorphismen.
χf := χA ,
wobei
A
−1
(A − XE n )S)
Ist dim V
ausgeht.
< ∞ und f ∈ End (V ), dann setzt man
f ist. Dies ist sinnvoll wegen (21) und
(irgend)eine Abbildungsmatrix von
(7.34). Ebenso ist detf
:= detA
wohldeniert.
Eigenräume
Zu einem Eigenwert
einfaches Beispiel ist
λ ∈ K von f kann es mehrere linear unabhängige Eigenvektoren geben. Ein
f := α idV mit α ∈ K : Einziger Eigenwert von f ist α und jedes x ∈ V \ {0}
ist Eigenvektor dazu.
− λ idV ) den Eigenraum von f bezüglich λ.
Oenbar ist λ genau dann ein Eigenwert von f , wenn Ef (λ) 6= {0} ; in diesem Fall heiÿt γf (λ) :=
dim Ef (λ) die geometrische Vielfachheit von λ. Jedes x ∈ Ef (λ) \ {0} ist ein Eigenvektor
zu λ von f . Aufgrund von (12) ist für paarweise verschiedene λ1 , . . . , λm aus K gemäÿ folgender
Denition die Summe der Eigenräume Ef (λi ) direkt.
Für
λ ∈ K
nennt man
E(λ) := Ef (λ) :=
Kern(f
79
(11.23)
Direkte Summe von UVR. Seien V
W1 , . . . , Wn UVR von V . In Verallgemeinerung von (6.15) heiÿt die Summe W := W1 + W2 + . . . + Wm direkt, wenn {x1 , . . . , xm } \ {0}
linear unabhängig ist, falls xk ∈ Wk für k = 1, . . . , m. Man schreibt
ein VR und
W = W1 ⊕ W2 ⊕ . . . ⊕ Wm .
Üb
Sei
W1 , . . . , Wm . Zeige: Jedes v ∈ V lässt sich in eindeutiger
v = w1 + . . . + wm mit wk ∈ Wk für k = 1, . . . , m schreiben. Zeige weiter: Ist Mk
Basis von Wk für k = 1, . . . , m, dann ist M := M1 ∪ . . . ∪ Mm eine Basis von V .
V
die direkte Summe der UVR
Weise als
eine
Üb
Verallgemeinere die obige Denition der direkten Summe von UVR für beliebig viele UVR
und beweise dafür die Aussagen der vorangegangenen Übung.
Für
A ∈ K n×n
EA (λ) := Ef (λ) mit f := LA . Zur Berechnung von EA (λ)
(A − λE) x = 0. Es folgen drei typische Beispiele dazu, wofür die
n×1 oder {0} ergibt, oder eindimensional ist.
Eigenräume entweder ganz K
setzt man natürlich
löst man das homogene LGS
direkte Summe der
(11.24)
Beispiel 1.


0 −1 1
A = −3 −2 3 ∈ K 3×3 .
−2 −2 3
Sei
χA = −X det
−2 − X
3
−2
3−X
Dann ist
+ 3 det


−X
−1
1
3 
A − XE 3 =  −3 −2 − X
−2
−2
3−X
−1
1
−2 3 − X
− 2 det
und
−1
1
=
−2 − X 3
−X((−2 − X)(3 − X) + 6) + 3(−(3 − X) + 2) − 2(−3 + 2 + X) = −X 2 (X − 1) + 3(X − 1)
−2(X − 1) = (X − 1)(−X 2 + 1) = −(X − 1)2 (X + 1) = −X 3 + X 2 + X − 1.
Also ist
1, −1.
χA = −X 3 + X 2 + X − 1.
Die Nullstellen von
χA
sind die Eigenwerte von
A.
Sie lauten
Jetzt lassen sich die Eigenräume dazu berechnen.
EA (1) = Kern(A − E 3 )
(A − E 3 ) X = 0,
ist die Lösungsmenge des LGS
d.h.

   
x1
−1 −1 1
0
−3 −3 3  x2  = 0 .
−2 −2 2
0
x3
EA (1) wende das Gauÿ




−1 −1 1
−1 −1 1
−3 −3 3 −→  0
0 0
−2 −2 2
0
0 0
Zur Berechnung von
Verfahren an:
λ := x2 , µ := x3 die freien

  

 
 
−1
1
−λ + µ

 x1







x2 =
λ
1 + K 0
: λ, µ ∈ K = K
EA (1) =


x3
µ
0
1
ist bereits die spezielle Zeilenstufenform. Damit sind
in Parameter und Basisdarstellung. Also ist der Eigenwert
Vielfachheit von
1
ist
γA (1) = dim EA (1) = 2.
80
Variablen und
1 zweifach entartet, d.h. die geometrische
EA (−1) = Kern(A + E 3 ):









1 −1 1
−1 0 12
1 −1 1
1 −1 1
1 0 − 21
A + E 3 = −3 −1 3 −→  0 −4 6 −→  0 −4 6 −→  0 −4 6  −→  0 −1 32 
0 0
0
−2 −2 4
0
0 0
0 −4 6
0 0 0
Berechne jetzt

λ := x3 die freie
   1 

1
 x1

2λ
2
EA (−1) = x2  =  32 λ : λ ∈ K = K  32 


λ
1
x3
ist die spezielle Zeilenstufenform. Damit ist
in Parameter und Basisdarstellung. Also ist
von
−1
nicht entartet, d.h. die geometrische Vielfachheit
γA (−1) = dim EA (−1) = 1.
ist
Es folgt
−1
Variable und
K 3×1 = EA (1) ⊕ EA (−1).
Damit ist
A
diagonalisierbar. Explizit erhält man nach (11)

−1 1 12
S :=  1 0 32  .
0 1 1

S −1 A S = diag(1, 1, −1)
(11.25)
Sei
mit
Beispiel 2.
ϕ∈R
und
Dϕ :=
Die Matrix
Winkel
ϕ,
Dϕ
beschreibt eine Drehung in der Ebene
R2 (' R2×1 )
in positivem Drehsinn um den
denn:
Dϕ
cos(ϕ) − sin(ϕ)
∈ R2×2 .
sin(ϕ) cos(ϕ)
cos(α)
cos(ϕ) cos(α) − sin(ϕ) sin(α)
cos(ϕ + α)
=
=
.
sin(α)
sin(ϕ) cos(α) + cos(ϕ) sin(α)
sin(ϕ + α)
χ = (cos(ϕ) − X)2 + sin2 (ϕ) = X 2 − (2 cos(ϕ))X + 1 hat eine reelle
− 4 ≥ 0, d.h. nur für ϕ ∈ πZ, wozu zwei unterschiedliche Fälle gehören:
D0 = E 2 und Dπ = −E 2 haben jeweils 2-fach entartete Eigenwerte 1 bzw. −1. Die Eigenräume
2
dazu sind jeweils ganz R . Für ϕ ∈
/ πZ ist E(λ) = {0} für jedes λ ∈ R.
Das charakteristische Polynom
2
Lösung nur für 4 cos (ϕ)
Wir fassen nun
Dϕ ∈ C2×2
auf. Dann gibt es Nullstellen von
χ,
λ1,2 = cos(ϕ) ± i sin(ϕ) =: e±iϕ .
81
nämlich
Berechne
E(eiϕ )
für
ϕ∈
/ πZ:
cos(ϕ) − eiϕ
− sin(ϕ)
−i sin(ϕ) − sin(ϕ)
−i −1
=
= sin ϕ
sin(ϕ)
cos(ϕ) − eiϕ
sin(ϕ)
−i sin(ϕ)
1 −i
−i −1
−1 i
−→
−→
0
0
0 0
λ := x2 die
x1
iλ
i
iϕ
E(e ) =
=
:λ∈C =C
.
x2
λ
1
ist die spezielle Zeilenstufenform. Damit ist
−iϕ )
Analog folgt E(e
2×1
Also ist C
Fazit:
(11.26)
Sei
Dϕ
=
−i
=C
.
1
E(eiϕ )
ϕ∈
/ πZ
für
⊕
R
S
−1
AS =
iϕ −iϕ ) mit
diag(e , e
S=
nicht diagonalisierbar, wohl aber über
i −i
.
1 1
C.
Beispiel 3.

λ 1


J n (λ) := 


λ
λ
E(e−iϕ ) und
ist über

..
.
..
.
Dreiecksmatrix und somit
ist
freie Variable und


 ∈ K n×n , n ≥ 2 die Jordanmatrix zu λ ∈ K . Es ist eine obere

1
λ
n
P
n n−i i
n
λ X ) ihr charakteristisches Polynom. Also
χ = (λ − X) (=
i=0 i
einziger Eigenwert.
Berechne

0 1


E(λ) : J n (λ) − λE n = 


0

..
.
..
.

0 −1




0
 −→ 



1
0
hat bereits spezielle Zeilenstufenform. Die freie Variable ist
µ := x1

..
.
..
.




−1
0
und
   

 
x1
µ
1






 x2   0 

0
 
   
E(λ) =  .  =  .  : µ ∈ K = K  .  6= K n×n .
.
.


 .. 
 .  .






xn
0
0
Ist
J n (λ)
diagonalisierbar? Nein, denn sonst müsste
Eigenwert ist. Aber
λ∈K
λ En
und jeden Körper
D = (dkl )
J n (λ)
zu
λ En
ist nur zu sich selbst ähnlich. Beachte, dass dies für
K
λ der einzige
jedes n ≥ 2, jedes
ähnlich sein, weil
gilt.
(n × n)−Dreiecksmatrix.
χD =
Qn
l=1 (dll
− X).
Üb
Sei
Üb
Wie lautet die Verallgemeinerung des Ergebnisses der vorangegangenen Übung auf Dreiecks-
eine
Zeige:
blockmatrizen?
82
12 Diagonalisierbarkeit und
Trigonalisierbarkeit
Im Folgenden ist
V
stets ein
n-dimensionaler K -VR.
Wir verfolgen hier weiter die am Anfang des
vorangegangenen Kapitels gestellte Aufgabe, einen Repräsentanten möglichst einfacher Gestalt für
jede Ähnlichkeitsklasse zu nden. Das charakteristische Polynom, das für ähnliche Matrizen gleich
ist, ist das entscheidende Hilfsmittel dazu.
Diagonalisierbarkeit
Aus den bisherigen Ergebnissen schlieÿen wir
(12.1)
Lemma. Sei f ∈ End(V ) diagonalisierbar. Dann ist
χf = (λ1 − X)γ1 (λ2 − X)γ2 . . . (λs − X)γs ,
wobei λ1 , λ2 , . . . , λs die paarweise verschiedenen Eigenwerte von f bezeichnen und γi := γf (λi )
ihre geometrischen Vielfachheiten sind.
Beweis. Für die f

darstellende Diagonalmatrix

λ 1 E γ1

D := 
..


.
λ s Eγs
ist
χf = χD
nach (11.22), und
Umgekehrt, wenn für
f ∈ End(V )
nearfaktoren (λ − X)
χf
hat die behauptete Gestalt.
das charakteristische Polynom in
zerfällt, dann ist
sich, wenn Nullstellen von
(12.2)
χD = det(D − XEn )
f
n
paarweise verschiedene
Li-
diagonalisierbar nach (11.13). Schwierigkeiten ergeben
mehrfach auftreten.
Vielfachheit eines Linearfaktors.
p ∈ K[X] vom Grad n ∈ N0 und λ ∈ K . Das
α
maximale α ∈ {0, . . . , n}, wofür q ∈ K[X] existiert derart, das p = (λ − X) q , heiÿt die
α
Vielfachheit αp (λ) von λ. Ist p = (λ − X) q für α = αp (λ), dann ist q(λ) 6= 0. Ist
p = (λ − X)β q 0 mit β ∈ {0, . . . , n} und q 0 ∈ K[X] mit q 0 (λ) 6= 0, dann ist α = β und q = q 0 .
Sei
Beweis. Angenommen es ist q(λ)
folgt für q̃ := q ◦ l mit l := λ − X ∈ K[X]: q̃(0) =
Pn= 0. Dann
j mit β ∈ K und β = 0 ⇒ q̃ ◦ l = q ◦ (l ◦ l) =
q(l(0)) = q(λ) = 0 ⇒ q̃ =
β
X
j
0
j=0 j
P
Pn
n
j
j−1 =:
q ◦ (λ − (λ − X)) = q ◦ X = q und somit q = j=0 βj (λ − X) = (λ − X)
β
(λ
−
X)
j
j=1
(λ − X)q1 ⇒ p = (λ − X)α+1 q1
im Widerspruch zur Maximalität von
α.
α ≥ β und somit (λ − X)β ((λ − X)α−β q − q 0 ) = 0.
β
Allgemein gilt für Q ∈ K[X], dass Q = 0 falls (λ − X) Q = 0. Für β = 0 ist dies oensichtlich.
0
0
β−1 Q folgt λQ0 = XQ0 . Der Fall λQ0 6= 0 ist nicht möglich,
Aus (λ − X)Q = 0 für Q := (λ − X)
0
0
0
0
0
weil sonst grad(λQ ) < grad(XQ ). Also ist 0 = λQ = XQ , weshalb Q = 0. Nach β Schritten
folgt Q = 0.
0
α−β q . Wegen q 0 (λ) 6= 0 folgt α = β und somit q = q 0 .
Diese Überlegung zeigt q = (λ − X)
Zur Eindeutigkeit beachte
83
Üb
Man weise das Ergebnis von (2) alternativ mit Hilfe der Polynomdivision mit Rest (siehe die
Aufgabe vor (11.19)) nach.
λ ∈ K
Sei
ein Eigenwert von
Vielfachheit von
(12.3)
λ
f ∈ End(V ).
Die
algebraische Vielfachheit αf (λ)
von
λ
ist die
als Nullstelle des charakteristischen Polynoms.
Geometrische und algebraische Vielfachheit. Es ist stets γf (λ) ≤ αf (λ), d.h. die geometrische Vielfachheit eines Eigenwertes ist höchstens gleich der algebraischen.
Beweis. Sei γ := γf (λ). Ergänze eine Basis v1 , . . . , vγ
von
V.
Ef (λ)
durch
vγ+1 , . . . , vn
zu einer Basis
Bezüglich dieser Basis ist
M (f ) =
λE γ
∗
B
χf = (λ − X)γ det(B − XE n−γ )
γ ≤ αf (λ) nach (2).
und damit
ist
von
mittels Entwicklung nach den ersten
Spalten. Daher
Bemerkung. Weil χf = χA für jede Abbildungsmatrix A von f
αA (λ) := αf (λ)
γ
gilt (s. (11.22)), ist die Bezeichnung
sinnvoll.
Bemerkung. Für Jn (λ) aus (11.26) gilt der Extremfall γ(λ) = 1 < n = α(λ).
(12.4)
Satz zur Diagonalisierbarkeit. Seien V ein K VR mit n := dim V < ∞ und f ∈ End(V ).
Dann sind äquivalent:
(i)
(ii)
(iii)
f ist diagonalisierbar.
χf zerfällt in Linearfaktoren
und γf (λ) = αf (λ) für alle Eigenwerte λ von f .
+ . . . E
+ f (λs ), wobei λ1 , . . . , λs die paarweise verschiedenen Eigenwerte von
V = Ef (λ1 )
f sind.
Beweis. (i) ⇒ (ii) gilt wegen (1) und
· · · + αf (λs ) = γf (λ1 ) + · · · + γf (λs ).
(2). Aus (ii) folgt in Hinblick auf (iii), dass
Schlieÿlich bedeutet (iii), dass es eine Basis von Eigenvektoren von
(12.5)
Beispiel.
n = αf (λ1 ) +
Wegen (11.12) folgt daraus (iii), wie vor (11.23) bemerkt.
Es soll der Endomorphismus
f
gibt, d.h. es gilt (i).
f : R3 −→ R3 , f (x, y, z) := (y, −2x + z, −2x + 5y)
wenn möglich diagonalisiert werden.
1. Schritt. Man bestimme die Abbildungsmatrix A von f
bez. einer Basis
v1 , . . . , vn .
Bezüglich der kanonischen Basis liest man ab, dass


0 1 0
A = −2 0 1 .
−2 5 0
2. Schritt. Man berechne des charakteristische Polynom χA .
Nach der Regel von Sarrus ist
−X 3
χA = det(A−XE 3 ) = −X 3 +(−2)+0−0−(−X)· 5−1 (−2)(−X) =
+ 3X − 2.
3. Schritt. Finde die Linearfaktoren von χA . Eine explizite Angabe der Linearfaktoren ist oftmals
prinzipiell nicht möglich. Wenn
χA
nicht Produkt von Linearfaktoren ist, ist f nicht diagonalisierbar.
Als Beispiel siehe dazu (11.25).
84
χA (1) = 0. Polynomdivision liefert χA = (1 − X)(X 2 + X − 2) = (1 − X)2 (−2 − X).
Eigenwerte sind also 1 und −2. Der Eigenwert 1 ist doppelt.
Oenbar ist
Die
4. Schritt. Für jeden Eigenwert bestimme man eine Basis des Eigenraums Ef (λ) = Kern(A−λE n ).
Dazu löst man das LGS
Eigenwert
(A − λE n ) x = 0
und schreibt die Lösungsmenge in der Basisdarstellung.
−2:









1
2 1 0
2 1 0
2 1 0
2 0 − 13
−1 0
6
A+2E = −2 2 1 −→ 0 3 1 −→ 0 3 1 −→ 0 3 1  −→  0 −1 − 13  .
−2 5 2
0 6 2
0 0 0
0 0 0
0
0
0

µ := x3 die freie

   1 
 1 
 x1

6µ
6
EA (−2) = x2  = − 31 µ : µ ∈ R = R − 13  .


µ
1
x3
Das ist die spezielle Zeilenstufenform. Damit ist
Eigenwert
Variable und
1:








−1 1
0
−1 1
0
−1 1 0
−1 0 31
A − E = −2 −1 1  −→  0 −3 1  −→  0 −3 1 −→  0 −1 13  .
0
0 0
−2 5 −1
0
3 −1
0
0 0
µ := x3
   1 

1
 x1

3µ
3
EA (1) = x2  =  13 µ : µ ∈ R = R  13  .


x3
µ
1
Das ist die spezielle Zeilenstufenform. Damit ist
5. Schritt.
Ist für einen Eigenwert
γf (λ) < αf (λ),
die freie Variable und
dann ist
f
nach (4) nicht diagonalisierbar.
Andernfalls bilde aus den Basisvektoren der Eigenräume in der Reihenfolge der Eigenwerte mit
Vielfachheiten die
A
diagonalisierende Matrix
S,
d.h.
diag(λ1 , . . . , λn ) = S −1 A S.
γA (1) = 1 < 2 = αA (1) (!) und somit A nicht diagonalisierbar. Ein Beispiel
diagonalisierbare Matrix ist A aus (11.24).
In diesem Beispiel ist
für eine
6. Schritt. Im Fall der Diagonalisierbarkeit von f
Diese gewinnt man nach (7.25) aus
n
X
v1 , . . . , vn
bleibt eine Basis von Eigenvektoren anzugeben.
(siehe 1. Schritt) wie folgt
sjl vj , l = 1, . . . , n.
j=1
Trigonalisierbarkeit
Nach den Diagonalmatrizen sind Dreiecksmatrizen von nächst einfacher Gestalt. Wenn eine Matrix
schon nicht ähnlich zu einer Diagonalmatrix ist, so könnte sie es doch wenigstens zu einer Dreiecksmatrix sein. Welche Eigenschaft hat ein Endomorphismus mit einer solchen Abbildungsmatrix?
(12.6)
Trigonalisierbarer Endomorphismus. f ∈ End(V )
Basis
v1 , . . . , vn
in
V
gibt derart, dass
f (Vl ) ⊂ Vl
85
für
heiÿt trigonalisierbar, wenn es eine
Vl := Span{v1 , . . . , vl }, l = 1, . . . , n − 1.
Beachte,
f (V1 ) ⊂ V1
bedeutet genau, dass
v1
Eigenvektor zu
besitzt einen Eigenvektor, siehe (11.25). Ein UVR
(12.7)
W
von
V
f
mit
ist. Nicht jeder Endomorphismus
f (W ) ⊂ W
heiÿt
f invariant.
Darstellung durch obere Dreiecksmatrix. f ∈ End(V ) ist trigonalisierbar genau dann,
wenn es eine Basis in V gibt, wofür die Abbildungsmatrix von f eine obere Dreiecksmatrix ist.
In der Diagonalen stehen die Eigenwerte von f , die gemäÿ ihren algebraischen Vielfachheiten
auftreten.
Beweis.
Sei f trigonalisierbar.
l = 1, . . . , n − 1:
Sei
v1 , . . . , vn
f (vl ) =
l
X
akl vk
eine Basis dazu gemäÿ Denition (6). Dann ist für
mit
akl = 0
für
k > l.
k=1
Also ist
A := (akl )
eine obere Dreiecksmatrix. Umgekehrt, ist die Abbildungsmatrix
v1 , . . . , vn eine obere Dreiecksmatrix, dann besagt die obige
Vl := Span{v1 , . . . , vl } die Denition
Qn (6) erfüllen. Die letzte Behauptung folgt
Formel (10.9), weil danach χA =
k=1 (akk − X).
bezüglich einer Basis
Gemäÿ der allgemeinen Verabredung wird eine Martrix
ist. Das ist gleichbedeutend damit, dass
(12.8)
A
A trigonalisierbar
A
von
f
Gleichung, dass
aus der Leibniz
genannt, wenn
LA
es
ähnlich zu einer oberen Dreiecksmatrix ist.
Trigonalisierbarkeitskriterium. f ∈ End(V ) ist trigonalisierbar genau dann, wenn χf
Produkt von (nicht notwendig verschiedenen) Linearfaktoren ist.
Beweis. Q
Für eine Dreiecksmatrix D = (dkl ) gilt nach der Leibniz Formel (10.9), dass χD = det(D −
n
ll − X). Nach (7) bleibt zu zeigen, dass
l=1 (dQ
n
ist, wenn χA =
l=1 (λl − X).
XE n ) =
A ∈ K n×n
ähnlich zu einer Dreiecksmatrix
t1 ∈ E(λ1 ) \ {0}. Ergänze t1 zu einer Basis t1 , . . . , tn von K n×1 . Dann
invertierbar und A T = (A t1 . . . A tn ) = (λ1 t1 ∗ . . . ∗) = T (λ1 e1 ∗ . . . ∗), d.h.
Sei

∗
λ1

T −1 A T = 

A
0
ist
T := (t1 . . . tn )




(n−1)×(n−1) . Da χ = (λ −X)χ 0 nach (11.22) und dem Determinantenentwicklungssatz,
A0 ∈ K
1
A
A
Qn
0
ist χA0 =
(λ
−
X)
.
Wie
eben
gezeigt,
gibt es daher zu A eine invertierbare (n − 1) × (n − 1)
l
l=2
−1
0
0
Matrix T mit T
A0 T 0 = (λe2 ∗ . . . ∗). Dann gilt

 



1
λ1
1

 T −1 A T 
=
.
λ2
−1
0
0
T
T
mit
∗
In insgesamt
n−1
solchen Schritten folgt die Behauptung.
Der Beweis von (8) gibt auch bereits ein Verfahren zur praktischen Trigonalisierung eines Endomorphismus an. Die erzielte Darstellung durch eine obere Dreiecksmatriz nennt man die
Normalform von f .
(12.9)
Schur
Beispiel. Es soll der Endomorphismus f : R3 −→ R3 , f (x, y, z) := (3x + 4y + 3z, −x − z, x +
2y + 3z)
wenn möglich trigonalisiert werden.
86
1. Schritt. Man bestimme eine Abbildungsmatrix A von f .
Bezüglich der kanonischen Basis liest man ab


3 4 3
A = −1 0 −1 .
1 2 3
2. Schritt. Man berechne das charakteristische Polynom χA .
Nach der Regel von Sarrus ist χA = det(A − XE 3 ) = (3 − X)(−X)(3 − X) + 4 (−1) 1 + 3 (−1) 2 −
3 (−X) 1 − (3 − X)(−1) 2 − 4 (−1)(3 − X) = −X 3 + 6X 2 − 9X − 4 − 6 + 3X + 6 − 2X + 12 − 4X =
−X 3 + 6X 2 − 12X + 8.
3. Schritt.
Man nde die Linearfaktoren von
χA . f
ist genau dann trigonalisierbar, wenn
χA
Produkt von Linearfaktoren ist.
χA = (2 − X)3 . Also ist f trigonalisierbar. Der einzige Eigenwert 2 ist 3fach. Damit
γA (2) < 3 = αA (2) (!) und f nicht diagonalisierbar.
Oenbar ist
ist
4. Schritt.
Für den Eigenwert λ1 nde einen Eigenvektor t1 . Nach dem Austauschlemma (5.24)
q ∈ {1, . . . , n} derart, dass t1 , e1 , . . . , e\q , . . . , en eine Basis von K n×1 ist. Bestimme zu dieser
Basis die Abbildungsmatrix von f


λ1



.
0


A
existiert
∗
Wiederhole diesen Schritt für
Eigenvektor zu Eigenwert
A0
u.s.w., bis die Abbildungsmatrix trigonal ist.
2:







1 0 −1
1 4 3
1
4
3
1
4
3
A − 2E 3 = −1 −2 −1 −→ −1 −2 −1 −→ 0 2 2 −→ 0 2 2 
0 0 0
0 0 0
0
0
0
1
2
1


−1 0
1
−→  0 −1 −1 .
0
0
0

µ := x3 die freie Variable und

   
 
1
µ

 x1
E(2) = x2  = −µ : µ ∈ R = R −1 .


1
x3
µ
 


1
1 0 0
Also ist t1 = −1 Eigenvektor zu 2. Wähle t1 , e2 , e3 als neue Basis. T := −1 1 0 besorgt
1
1 0 1
0
−1
den Basiswechsel. Um A zu bestimmen, benötigt man T
:




1 0 0 1 0 0
1 0 0 1 0 0
−1 1 0 0 1 0 −→ 0 1 0 1 1 0 .
1 0 10 0 1
0 0 1 −1 0 1




1 0 0
2 4 3
4 2
−1
−1
0




1 1 0 folgt T A T = 0 4 2 und A =
Mit T
=
. Bekannt ist χA0 =
−2 0
−1 0 1
0 −2 0
(2 − X)2 . Nun wiederholt man den Schritt 4 für A0 .
Das ist die spezielle Zeilenstufenform. Damit ist
87
2:
Eigenvektor zu Eigenwert
0
A − 2E 2 =
2
2
−2 −2
−→
2 2
0 0
−→
−1 −1
.
0
0
Das ist die spezielle Zeilenstufenform mit freier Variable
E(2) =
x1
x2
=
Ergänze den Eigenvektor
Daher ist
Basis.
0
T =
−1 0
1 1
besorgt den Basis-
−1
T0 :
1 0 −1 0
−1 0 1 0
−1 0 1 0
,
−→
−→
0 1 1 1
0 1 1 1
1 10 1
−1 0
2 −2
0 −1
0 −1 0 0
T
=
. Hiermit folgt T
AT =
. Damit
1 1
0 2
wechsel. Bestimme
d.h.
−µ
−1
: µ∈R =R
.
µ
1
−1
0
0
t1 =
mit
zu neuer
1
1
x2 .



2 4 3
1
S −1 A S = 0 2 −2 mit S := T 
0 0 2

T0
ist die Dreiecksform erreicht:


 

1 0 0
1 0 0
1
0 0
 = −1 1 0 0 −1 0 = −1 −1 0.
1 0 1
0 1 1
1
1 1
5. Schritt. Gebe gemäÿ (7.25) die Basis an, wofür f
trigonal ist.
Die trigonalisierende Basis lautet:
3
X
skl ek ,
l = 1, 2, 3,
das ist
(1, −1, 1), (0, −1, 1), (0, 0, 1).
k=1
Üb
(12.10)
Trigonalisiere den Endomorphismus aus (5).
Polynome über C. Der Fundamentalsatz der Algebra besagt: Jedes Polynom p ∈ C[X] mit
grad p ≥ 1 hat mindestens eine Nullstelle.
Hieraus folgt sofort mit (2), dass
p = c (λ1 − X)α1 (λ2 − X)α2 . . . (λs − X)αs
c, λ1 , . . . , λs aus C, und α1 , . . . , αs
λ1 , . . . , λs paarweise verschieden sind.
mit gewissen
wenn
(12.11)
aus
N,
wobei diese Darstellung eindeutig ist,
Trigonalisierbarkeit über C. Sei V ein endlich dimensionaler C-VR. Dann ist jeder Endomorphismus von V trigonalisierbar.
Beweis. Folgt aus (8) und (10).
(12.12)
Polynome über R.
Reelle Polynome zerfallen bekanntlich i. allg. nicht in reelle Linearfak-
1 + X 2 . Jedoch lässt sich folgende Überlegung anstellen: Sei p ∈ R[X]. Fasse
p ∈ C[X] auf. Sei λ ∈ C eine Nullstelle von p. Dann ist auch λ eine Nullstelle von p, denn
P
P
p(λ) = nl=0 αl (λ)l = nl=0 αl λl = p(λ) = 0, weil αl ∈ R. Die nicht reellen Nullstellen treten
also in Paaren konjugierter Nullstellen auf. Diese ergeben einen Faktor
toren, wie z.B.
88
q := (λ − X)(λ − X) = X 2 − 2(Re λ)X + |λ|2 =: X 2 + βX + γ
Daraus schlieÿt man:
mit
β, γ ∈ R
und
β 2 < 4γ .
Jedes Polynom p ∈ R[X] mit grad p ≥ 1 besitzt eine Darstellung
p = c (λ1 − X)α1 . . . (λs − X)αs q1δ1 . . . qtδt
mit c ∈ R, λi ∈ R, αi ∈ N für i = 1, . . . , s und qj = X 2 + βj X + γj mit βj , γj ∈ R, βj2 < 4γj ,
δj ∈ N für j = 1, . . . , t. Dabei kann s oder t auch null sein.
Diese Darstellung ist eindeutig, wenn λ1 , . . . , λs und q1 , . . . , qt paarweise verschieden sind.
Vorstufe der Jordan Normalform
Eine Dreiecksmatrix läÿt sich mittels einer Ähnlichkeitstransformation auf diagonale Blockmatrixform bringen, deren Blöcke Dreiecksmatrizen mit nur einem Eigenwert sind.
(12.13)
Hauptvektoren.
Hauptvektor der
λ ein
Stufe l ∈ N
Sei
A ∈ K n×n . Dann
Matrix A, wenn
Eigenwert der Matrix
zum Eigenwert
λ
der
heiÿt
v ∈ K n×1
ein
(A − λE)l v = 0 und (A − λE)l−1 v 6= 0.
Entsprechend deniert man einen Hauptvektor und seine Stufe für einen Endomorphismus.
Bemerkung. Ein Hauptvektor der Stufe 1 ist ein Eigenvektor und umgekehrt, denn beide sind durch
(A − λE)v = 0
(12.14)
und
(A − λE)0 v = v 6= 0 deniert.
Kette von Hauptvektoren. Ist v ein Hauptvektor der Stufe l, dann sind oenbar
v,
(A − λE)v,
(A − λE)2 v, . . . , (A − λE)l−1 v
Hauptvektoren der Stufen l, l − 1, . . . , 1. Diese Vektoren sind linear unabhängig. Sie bilden
die durch v bestimmte Kette von Hauptvektoren.
P
i
Beweis. Zum Nachweis der linearen Unabhängigkeit werde die Gleichung l−1
i=0 αi (A − λE) v =
0 von links mit (A − λE)l−1 multipliziert. Es folgt α0 (A − λE)l−1 v = 0, weshalb α0 = 0. Die
l−2 , womit α = 0 folgt, u.s.w.
verbleibende Summe multipliziert man nun mit (A − λE)
1
(12.15)
Lineare Unabhängigkeit von Hauptvektoren. Seien v 1 , . . . , v s Hauptvektoren zu den
paarweise verschiedenen Eigenwerten λ1 , . . . , λs der Matrix A ∈ K n×n . Dann sind v 1 , . . . , v s
linear unabhängig.
Beweis.
Seien l1 , . . . , ls die Längen der Hauptvektoren und k ∈ {1, . . . , s}. Die Faktoren des ProQ
Pk := (A − λk E)lk −1 sj=1,j6=k (A − λj E)lj lassen sich vertauschen, da jeder Faktor eine
l −1 v ein Eigenvektor zu
Linearkombination von Potenzen von A ist. Weiter ist uk := (A − λk E) k
Qk
λk . Daher ist (A − λj E)lj uk = (λk − λj )lj uk . Damit ndet man Pk v i = δik sj=1,j6=k (λk − λj )lj uk .
Ps
Qs
lj
Wendet man nun Pk auf die Gleichung
i=1 αi v i = 0 an, so folgt αk
j=1,j6=k (λk − λj ) uk = 0,
weshalb αk = 0. Dies gilt für jedes k , woraus die Behauptung folgt.
dukts
(12.16)
Invariante UVR von Hauptvektoren. Das charakteristische Polynom χA der Matrix
A ∈ K n×n sei Produkt von Linearfaktoren. Weiter sei λ ein Eigenwert der algebraischen
Vielfachheit k . Dann ist HA (λ) := Kern (A − λE)k ein Untervektorraum der Dimension
k . Oenbar ist jedes v ∈ HA (λ) \ {0} ein Hauptvektor zu λ. Schlieÿlich ist HA (λ) unter A
invariant, d.h. für jedes v ∈ HA (λ) ist A v ∈ HA (λ).
89
Beweis. Gemäÿ (8), (7) kann man davon ausgehen, dass A eine obere Dreiecksmatrix ist, deren ers(A − λE)k eine
k
deren ersten k Spalten null sind und deren Diagonalelemente gleich (λi − λ)
ten
k
Diagonalelemente gleich
λ
sind. Deshalb ist die Matrix
obere Dreiecksmatrix,
sind, wobei
λ1 , . . . , λ n
k ihrer DiagonaleleRang(A − λE)k = n − k , woraus mit (8.15) dim HA (λ) = k folgt. (A − λE)k A v = A(A − λE)k v = A 0 = 0 für v ∈ HA (λ), weshalb A v ∈ HA (λ). die Eigenwerte mit algebraischen Vielfachheiten sind. Insbesondere sind genau
mente gleich null. Damit ist
Schlieÿlich gilt
Seien
λ1 , . . . , λ s
die paarweise verschiedenen Eigenwerte von
A
und
Vielfachheiten. Für den Fall, dass das charakteristische Polynom
ist, ist
Ps
j=1 αj
= n.
χA
α1 , . . . , αs
ihre algebraischen
Produkt von Linearfaktoren
In dieser Situation zeigen (15) und (16), dass
+ . . . H
+ A (λs )
K n×1 = HA (λ1 )
gemäÿ Denition (11.23), wobei jeder Untervektorraum
aus
αj
(12.17)
HA (λj ) invariant unter A ist und eine Basis
Hauptvektoren besitzt. Damit erhält man folgendes Ergebnis.
Vorstufe der Jordan Normalform. Sei A ∈ K n×n eine Matrix, deren charakteristisches
Polynom χA Produkt von Linearfaktoren ist. Dann existiert eine Basis t1 , . . . , tn von K n×1
derart, dass die ersten α1 Elemente Hauptvektoren zum Eigenwert λ1 sind, die nächsten α2
Elemente Hauptvektoren zum Eigenwert λ2 sind und so fort. Mit der invertierbaren Matrix
T := (t1 . . . tn ) ist


B1
B2


T −1 A T = 

..




.
Bs
eine diagonale Blockmatrix mit Blöcken B j ∈ K αj ×αj . Das charakteristische Polynom von B j
ist (λj − X)αj . Wendet man auf jeden Block das Trigonaliserungsverfahren aus (8) an, erhält
man B j in der Schur Normalform


λj
λj


Bj = 

∗
..
.


,

λj
das ist eine obere Dreiecksmatrix, deren Diagonalelemente alle gleich λj sind.
Aus der Denition von
man
HA (λj )
N ∈ K n×n nilpotent,
wenn es ein
α
N j j = 0 für N j := B j − λj E .
k ∈ N gibt mit N k = 0.
folgt sofort, dass
Allgemein nennt
Das Ergebnis (17) ndet eine wichtige praktische Anwendung in der Theorie der Linearen Dierentialgleichungssysteme bei der Berechnung der Matrix-Exponentialfunktion.
Üb
Man zeige: Ist
A ∈ K n×n
Linearfaktoren ist (was für
Matrix
D
K =C
und
χA
Produkt von
stets der Fall ist), dann existieren eine diagonalisierbare
und eine nilpotente Matrix
A=D+N
Hinweis:
eine Matrix, deren charakteristisches Polynom
N
mit
D N = N D.
Benutze (17) und überlege, warum eine Matrix genau dann diagonalisierbar bzw.
nilpotent ist, wenn sie ähnlich zu einer solchen ist.
90
Üb
Seien
r, s ∈ N
akl = 0
und
für
A = (akl ), B = (bkl ) (n × n)Matrizen
k ≥l−r+1
und
bkl = 0
für
derart, dass
k ≥ l − s + 1.
r − 1 bzw. s − 1 Nebendiagonalen
von A bzw. B null sind. Zeige: Für C := A B gilt ckj = 0 für k ≥ j − r − s + 1, d.h. die
Diagonale sowie die anschlieÿenden r + s − 1 Nebendiagonalen von C sind null. Also


0 ··· 0


..
..


.
.




..
C=
.
0 




.
..
.

 r + s Nullzeilen
.
.

0
Das bedeutet, dass die Diagonale sowie die anschlieÿenden
∗
addieren sich bei der Multiplikation von
A
mit
B
die Anzahlen der Nullzeilen.
Jordan Normalform
Die Blöcke
Bj
in (17) lassen sich durch eine spezielle Wahl der Basis von Hauptvektoren noch weiter
vereinfachen. In der Jordan Normalform erzielt man in der ersten oberen Nebendiagonalen Einträge
0
oder
1.
Alle anderen Nebendiagonalen sind null. Wir verzichten auf einen Beweis des folgenden
Satzes.
Eine quadratische Matrix
n ∈ N,
(12.18)
wobei
J 1 (λ) := (λ)
J
K heiÿt Jordan Matrix,
J n (λ) aus (11.26) für n ≥ 2.
über
und
wenn
J = J n (λ)
für ein
λ∈K
und
Jordan Normalform. Sei V ein endlichdimensionaler K VR. Sei f ∈ End(V ) und χf
sei Produkt von Linearfaktoren. Dann gibt es eine Basis in V aus Hauptvektoren, wofür die
Abbildungsmatrix A von f die Jordan Normalform besitzt, d.h.


J1


J2


A=
,
.
.


.
Jm
wobei J 1 , . . . , J m Jordan Matrizen sind. Sie sind nicht notwendigerweise verschieden und sind
bis auf Reihenfolge eindeutig.
J n (λ) = λE n + N n


0 1
 .. ..



.
.
,
N n := 


..

. 1
0
Man bemerkt, dass
wofür
N nn = 0
mit
gilt.
Üb
N ∈ K n×n nilpotent. Zeige: Es existiert ein k ∈ N mit k ≤ n,
k
k−1
jedes k ∈ {1, . . . , n} ein Beispiel N an mit N = 0 und N
6= 0.
Üb
Bestimme die Potenzen
Sei
Aj , j ∈ N ,
für
A
wofür
N k = 0.
aus (18). Betrachte dazu zunächst
91
Gebe für
(J n (λ))j .
13 Vektorräume mit Skalarprodukt
Der Anschauungsraum
R3
ist mehr als nur ein Vektorraum. In ihm lassen sich Längen und Win-
kel bestimmen. Der Begri der Orthogonalität und die Gültigkeit des Satzes von Pythagoras sind
fundamental für die Geometrie des
R3 .
Sie sind auch fundamental für den sich der Anschauung
entziehenden Zustandsraum eines quantenmenchanischen Systems, dem Hilbertraum. Diese zusätzliche Struktur eines Vektorraums wird im Sinne der analytischen Geometrie am einfachsten mit
Hilfe eines Skalarprodukts eingeführt.
Im Folgenden werden nur reelle und komplexe Vektorräume betrachtet. Das Symbol
R
oder
(13.1)
C.
Mit
z
wird nach (4.12) die konjugiert komplexe Zahl zu
Skalarprodukt. Sei V
produkt (SP) auf
V,
ein
z∈C
K
steht für
bezeichnet.
K-VR. Eine Abbildung V × V → K, (x, y) 7→ hx, yi,
x, y, y 0 aus V und λ ∈ K gelten
heiÿt Skalar-
wenn für
hx, y + λy 0 i = hx, yi + λhx, y 0 i (linear im zweiten Argument)
hy, xi = hx, yi (konjugiert symmetrisch)
hx, xi ≥ 0 und hx, xi = 0 nur für x = 0 (positiv denit)
Ein VR mit SP
Fall
(13.2)
(V, h·, ·i)
heiÿt
euklidischer Raum im Fall K = R und unitärer Raum im
K = C.
Bemerkungen.
Aus der Linearität im zweiten Argument und der konjugierten Symmetrie
λx0 , yi
= hy, x + λx0 i = hy, xi + λhy, x0 i = hy, xi + λ hy, x0 i = hx, yi + λ hx0 , yi für
alle
aus V und λ ∈ K, d. i. die konjugierte Linearität im ersten Argument. Im
euklidischen Raum ist hx, yi = hy, xi = hy, xi, d.h. das SP ist symmetrisch. Als Folge ist
es linear auch im ersten Argument und damit bilinear. Man beachte, dass hx, xi = hx, xi
wegen der konjugierten Symmetrie. Daher ist hx, xi stets reell. Die positive Denitheit fordert
insbesondere hx, xi ≥ 0. Für jedes x ∈ V ist hx, 0i = 0, weil hx, ·i linear ist.
hx +
x, x0 , y
folgt
(13.3)
StandardSP.
(a) In
Kn
deniert man für
hx, yi := x1 y1 + . . . + xn yn =
n
X
x = (x1 , . . . , xn )
und
y = (y1 , . . . , yn )
xl yl ,
l=1
P
hx, xi = nl=1 |xl |2 ≥ 0
P
hx, yi = nl=1 xl yl .
was das StandardSP ist. Insbesondere ist
d.h. für
(b) In
x = 0.
K(X)
Im Fall
K=R
ist
und
=0
nur für
xl = 0 ∀ l,
(vgl. (5.4)) lautet das StandardSP
hf, gi :=
X
f (x) g(x).
x∈X
(13.4)
Eigenschaft von Erzeugendenmengen. Sei x ∈ V und M eine Erzeugendenmenge von V .
Dann gilt:
hx, yi = 0 ∀ y ∈ M
⇒
x = 0.
92
Beweis.
Weil
M
P
x
=
y y mit gewissen αy ∈ K, die bis auf
y∈M α
P
P
hx, y∈M αy yi = y∈M αy hx, yi = 0 nach Vorrausset
eine Erzeugendenmenge ist, ist
endlich viele Null sind. Daher ist
zung. Wegen der Denitheit folgt
hx, xi =
x = 0.
p
|x| p
= x21 + x22 + x23 die Länge
|x| = hx, xi. Dies verallgemeinert
Bekanntlich ist
des Vektors
schreibt sich
man auf
(13.5)
Zugehörige
Norm.
p
hx, xi
(13.6)
Sei
V
ein
K-VR
V.
x ∈ R3 .
K-VR
Mit Hilfe des StandardSP
mit SP.
mit SP. Dann heiÿt die Funktion
V → R, x 7→ kxk :=
die zugehörige Norm auf
Eigenschaften. Sei V ein K-VR mit SP. Die Norm erfüllt für x, y aus V und λ ∈ K
kxk ≥ 0 und kxk = 0 nur für x = 0 (positiv denit)
kλxk = |λ| kxk (positiv homogen)
kx + yk ≤ kxk + kyk (Dreiecksungleichung (DU))
|hx, yi| ≤ kxkkyk (CauchySchwarzUngleichung (CSU))
Für die CSU gilt Gleichheit genau dann, wenn x und y linear abhängig sind. Für die DU ist
dies für die Gleichheit notwendig.
Beweis.
Positive Denitheit und Homogenität sind oensichtlich. Wir beweisen erst die CSU. Of-
fenbar ist
|hx, 0i| = kxkk0k (= 0)
ϕ(λ) := kx − λyk2
für
=
x, 0
sind linear abhängig. Sei jetzt
y 6= 0
und betrachte
λ ∈ K.
Wir suchen das Minimum von
λhx, yi + λλkyk2
und
ϕ
auf. Dazu formen wir
ϕ(λ) = hx − λy, x − λyi = kxk2 − λhy, xi −
=
=
dann vorliegt, wenn x − λ0 y = 0, d.h. wenn
2
− kyk−1 hy, xi um. Beachte dazu, dass |hx, yi|2
= kyk−2 hy, xi =: λ0 . Es folgt 0 ≤ kx − λ0 yk2
kxk2 − kyk−2 |hx, yi|2 + λkyk
hx, yihy, xi. Also ist ϕ minimimal genau für λ
ϕ(λ0 ) = kxk2 − kyk−2 |hx, yi|2 , wobei Gleichheit genau
x und y linear abhängig sind.
Zur DU beachte zunächst, dass hx, yi + hy, xi = 2 Re(hx, yi) ≤ 2 |hx, yi| ≤ 2kxkkyk, wobei Gleich2
heit wegen CSU nur bestehen kann, wenn x und y linear abhängig sind. Damit folgt kx + yk =
hx + y, x + yi = kxk2 + kyk2 + hx, yi + hy, xi ≤ kxk2 + kyk2 + 2kxkkyk = (kxk + kyk)2 , woraus DU
mit dem Zusatz folgt.
Ein Spezialfall ist die DU für den Betrag in
C
(siehe (4.13)), die aus der DU in
R2
mit dem
Standard-SP folgt.
Üb
Der Hilbertraum l2 , eine Verallgemeinerung von (3). Hierzu ist etwas Analysis erforderlich.
Es ist
l2
die Teilmenge von
CN ,
die aus den Folgen
sup
N
X
(xn )
besteht, wofür
|xn |2 < ∞
N ∈N n=1
2
2
2
N
P∞C ist. (Tipp: Zeige und benutze |xn + yn | ≤2 2 |xn | + 2 |yn | .)
Zeige weiter, dass hx, yi :=
n=1 xn yn absolut konvergiert und ein SP auf l deniert. (Tipp:
N an.) Wie lautet explizit die zugehörige CSU?
Wende DU in C und CSU in R
ist. Zeige, dass
(13.7)
l2
ein UVR von
Adjungierte Matrix. Das Standard-SP in Kn×1
hξ, ηi :=
n
X
ξl ηl .
l=1
Zu einer Matrix
A = (akl ) ∈ Km×n
führen wir die
93
lautet
(i)
konjugiert komplexe Matrix
(ii)
adjungierte Matrix
A := (akl )
A∗ := (A)T
ein. Hiermit lässt sich insbesondere
(13.8)
T
hξ, ηi = ξ η = ξ ∗ η
schreiben.
Adjungieren, Transponieren, Invertieren. Seien A, B aus Km×n , C ∈ Kn×p , S ∈ GL(n, K).
Dann gelten
Üb
(13.9)
A∗ = (A)T = (AT )
(A∗ )∗ = A
(A + λ B)∗ = A∗ + λ B ∗
(BC)∗ = C ∗ B ∗
(S ∗ )−1 = (S −1 )∗
hξ, A ηi = hA∗ ξ, ηi für alle ξ ∈ Km×1 , η ∈ Kn×1 .
Weise (8) nach.
Skalarprodukte auf Kn×1 . Sei D := diag(λ1 , . . . , λn ) mit λl > 0 für alle l und sei S ∈
GL(n, K). Dann sind
(a) ξ, η := hξ, Dηi
∗
(b) ξ, η := hξ, S Sηi
SP auf Kn×1 .
√
√
Beweis. (b) ist wegen S := diag( λ1 , . . . , λn ) eine Verallgemeinerung von (a). Es genügt (b) zu
hξ, S ∗ Sηi = hSξ, Sηi (siehe (8)), ist [·, ·]
2
konjugiert symmetrisch. Es ist auch positiv denit, da aus ξ, ξ = 0 zunächst kSξk = 0 und somit
Sξ = 0 folgt, weshalb ξ = 0, weil S invertierbar ist.
zeigen. Oenbar ist
[·, ·]
linear im zweiten Argument. Da
A ∈ Kn×n gegeben. Wir
(13.10) ξ, η := hξ, A ηi
Sei
für
ξ, η
aus
Kn×1
können nun umgekehrt fragen, welche Eigenschaften
hat? Zunächst ist klar, dass
[·, ·]
aus (10) linear im zweiten und konjugiert linear
[·, ·] nennt man daher sesquilinear. Wann ist [·, ·] konjugiert
η, ξ = hη, A ξi = hA∗ η, ξi = hξ, A∗ ηi. Daher ist [·, ·] aus (10) genau
∗
∗
dann konjugiert symmetrisch, wenn hξ, A ηi = hξ, A ηi, d.h. hξ, (A − A) ηi = 0 für alle ξ, η aus
∗
∗
n×1
n×1
K
. Wegen (4) folgt daraus (A − A) η = 0 für alle η ∈ K
und somit A = A.
im ersten Argument ist. Die Form
symmetrisch? Dazu beachte
Zum Folgenden siehe auch (14.21).
(13.11)
Sesquilinearformen.
A.
[·, ·] aus (10) ist genau dann konjugiert symmetrisch, wenn A∗ =
man A hermitesch oder selbstadjungiert. (Für K = R ist A
(a)
In diesem Fall nennt
symmetrisch.)
[·, ·] aus (10) ist genau dann positiv denit (siehe (1)) und somit ein SP, wenn A positiv
und, falls K = R, A symmetrisch ist. Dabei heiÿt A positiv, wenn hξ, A ξi > 0 (insbesondere
n×1 \{0}.
reell) für alle ξ ∈ K
(b)
94
Beweis. Aufgrund der Überlegungen zu (10) bleibt nur noch zu zeigen, dass
(13.12)
A ∈ Cn×n
positiv
⇒A
selbstadjungiert
R 3 hξ, A ξi = hA∗ ξ, ξi = hA∗ ξ, ξi = hξ, A∗ ξi und somit 0 = hξ, A ξi −
hξ, A ξi = hξ, A ξ − A ξi = hξ, B ξi für alle ξ ∈ Cn×1 mit B := A − A∗ . Hieraus folgt mit (13), dass
hξ, B ηi = 0 für alle ξ, η aus Cn×1 , woraus (wie nach (10) argumentiert) B = 0.
gilt. Zum Beweis betrachte
∗
(13.13)
∗
Polaridentität für Sesquilinearformen. Seien V ein C-VR und [·, ·] : V × V → C sesqui-
linear, d.h. linear im zweiten und konjugiert linear im ersten Argument. Dann gilt
[x, y] =
1X
α [αx + y, αx + y]
4
für alle
x, y
aus
V,
α∈Ω
wobei Ω := {1, −1, i, −i}. Daraus folgt, dass [·, ·] genau dann konjugiert symmetrisch ist, wenn
[x, x] ∈ R für alle x ∈ V .
Üb
Üb
Man weise (13) nach.
Polaridentität für symmetrische Bilinearformen. Seien V
R
[x, y] =
für alle
Üb
ein
R-VR und [·, ·] : V × V →
bilinear und symmetrisch. Man zeige:
x, y
aus
1
1
[x + y, x + y] − [−x + y, −x + y]
4
4
V.
Man zeige an einem Beispiel, dass (12) im Reellen nicht gilt, d.h. dass aus
hξ, Aξi > 0
für alle
ξ∈
Rn×1
\ {0}
nicht
A=A
T
A ∈ Rn×n
mit
folgt.
[·, ·] eine konjugiert symmetrische Sesquilinearform auf dem K-VR V , was im Fall
K = R eine symmetrische Bilinearform ist. Wie mehrmals bemerkt, ist [x, x] reell für alle x ∈ V .
Ist [x, x] > 0 für x 6= 0, dann ist [·, ·] positiv denit und somit ein SP. Gilt lediglich [x, x] ≥ 0 ∀x,
dann heiÿt [·, ·] positiv semidenit. Entsprechend heiÿt [·, ·] negativ (semi)denit, wenn − [·, ·]
0
0 0
positiv (semi)denit ist. Liegt keiner dieser Fälle vor, d.h. ∃ x, x ∈ V : [x, x] > 0, [x , x ] < 0,
dann nennt man [·, ·] indenit. Wir werden solche Formen im Zusammenhang mit der HauptachSei allgemein
sentransformation näher untersuchen.
Üb
1
1
R-VR mit SP und x, y ∈ V \{0}. Zeige: h kxk
x, kyk
yi ∈ [−1, 1]. Damit existiert genau
1
1
3
ein Winkel α ∈ [0, π] derart, dass cos(α) = h
kxk x, kyk yi. Zeige: Für V = R ist α der von
3
den Vektoren x und y eingeschlossene (kleine) Winkel. Zeige den Kosinussatz in R , nämlich
2
2
2
a = b + c − 2bc cos(α).
Sei
V
ein
95
Orthogonale Mengen
V ein K-VR mit SP. Zwei Vektoren x, y aus V heiÿen orthogonal bzw. orthonormal, wenn
hx, yi = 0 bzw. zusätzlich kxk = kyk = 1 gilt. Allgemeiner heiÿt eine Menge M ⊂ V orthogonal
bzw. orthonormal, wenn hx, yi = 0 für alle x, y aus M mit x 6= y bzw. wenn
(
0 für x 6= y
hx, yi = δxy =
1 für x = y
Sei
für alle
x, y
aus
M
gilt. Ist
M
orthonormal und eine Basis, so heiÿt
M
eine
Orthonormalbasis
(ONB). Statt orthogonal sein sagt man auch aufeinander senkrecht stehen. Für
man auch
(13.14)
hx, yi = 0 schreibt
x ⊥ y.
Lineare Unabhängigkeit orthogonaler Mengen. Sei M ⊂ V \ {0} orthogonal. Dann ist
M linear unabhängig.
Beweis.
x1 , ..., xn
M . Gemäÿ (5.14)(b) ist ihre lineaPn
α
x
mit
α
0
=
i ∈ K. Dann folgt 0 = hxj , 0i =
i=1 i i
Pn
Pn
Pn
2
hxj , i=1 αi xi i = i=1 αi hxj , xi i = i=1 αi δji kxj k = αj kxj k2 . Daraus folgt αj = 0 für jedes
j ∈ {1, . . . , n}. Das ist die Behauptung.
Seien
paarweise verschiedene Vektoren aus
re Unabhängigkeit zu zeigen. Sei also
(13.15)
Basisentwicklungssatz. Sei M ⊂ V eine ONB. Dann gilt für jedes y ∈ V
X
y=
hx, yi x,
x∈M
wobei nur endlich viele Produkte hx, yi nicht Null sind. M.a.W. die Koordinaten von y bezüglich
der Basis M sind hx, yi, x ∈ M , vgl. (5.21).
Beweis.
Nach (5.21) ist y =
P
P
x∈M
(13.16)
αx
hx0 , xi
=
x∈M
P
αx x. Hieraus folgt für jedes x0 ∈ M : hx0 , yi = hx0 ,
= αx0 .
x∈M
αx δx0 x
P
αx xi =
y0 = y,
so folgt
x∈M
Parsevalgleichungen. In (15) gelten für y, y 0 aus V die Parsevalgleichungen
hy 0 , yi =
X
hy 0 , xi hx, yi,
x∈M
2
kyk =
X
|hx, yi|2 .
x∈M
Beweis. Nach (15) ist hy 0 , yi = hy 0 ,
P
x∈M hx, yi xi
=
P
x∈M hx, yi hy
0 , xi. Setzt man
die zweite Gleichung.
(13.17)
Satz von Pythagoras.
Sei M ⊂ V eine endliche orthogonale Menge und y :=
P
Dann ist kyk2 =
2
x∈M kxk .
Beweis. kyk2 = hy, yi = h
P
x∈M
x,
P
x0 ∈M
x0 i =
P
x∈M
2
x∈M kxk .
P
Man sagt etwas lax, dass
dass die
xi
x1 , . . . , xn
96
=
P
x∈M
x,x0 ∈M hx, xi δxx0
x.
=
hxi , xj i = δij für alle i, j . Das bedeutet,
{x1 , . . . , xn } eine orthonormale Menge ist.
orthonormal sind, wenn
paarweise verschieden sind (siehe (14)) und
0
x0 ∈M hx, x i
P
P
(13.18)
Beispiel. Die Standardbasis in Kn ist eine ONB bez. des Standard-SP. Die Basis {ey : y ∈ X}
in K(X) (siehe
Üb
(5.20))
ist eine ONB bez. des Standard-SP (siehe
(3)(b)).
Man prüfe (18) nach.
Die Existenz von ONB im Fall endlichdimensionaler
(13.19)
K-VR
folgt aus dem
Orthonormalisierungsverfahren von Gram und Schmidt. Sei V ein K-VR mit SP
und seien x1 , . . . , xp linear unabhängig. Dann existieren orthonormale v1 , . . . , vp derart, dass
Span{v1 , . . . , vj } = Span{x1 , . . . , xj } für jedes j ∈ {1, . . . , p}.
Beweis. Setze v10 := x1 . Weil x1 linear unabhängig ist, ist x1 6= 0 und kv10 k = kx1 k > 0. Damit lässt
sich
mit
v10 auf 1 normieren. Setze v1 := kv10 k−1 v1 . Es ist kv1 k = 1. Seien nun orthonormale v1 , . . . , vj
j ≥ 1 und j ≤ p − 1 bereits konstruiert, so dass Span{v1 , . . . , vj } = Span{x1 , . . . , xj }. Setze
0
vj+1
:= xj+1 −
j
X
hvl , xj+1 i vl .
l=1
Dann ist
0
hvk , vj+1
i = hvk , xj+1 i −
{1, . . . , j}.
Weiter ist
0
vj+1
6= 0,
Voraussetzung. Schlieÿlich ist
zu normieren:
(13.20)
(13.21)
hvl , xj+1 ihvk , vl i = hvk , xj+1 i −
hvl , xj+1 i δkl = 0
für
xj+1 ∈ Span{v1 , . . . , vj } = Span{x1 , . . . , xj } entgegen der
j
P
0
0
0
= vj+1
+ hvl , xj+1 i vl ∈ Span{v1 , . . . , vj , vj+1
}. Es bleibt vj+1
xj+1
l=1
Sind
j = 1, . . . , p,
w1 , . . . , wp
Span{w1 , . . . , wj } =
|γj | = 1 und wj = γj vj für
orthonormal derart, dass
dann existieren
γj ∈ K
mit
Man weise (20) nach.
Existenz einer ONB. Jeder endlichdimensionale K-VR mit SP besitzt eine ONB.
Beweis. Man wende (19) auf eine Basis des VR an.
Üb
Sei
V
ein
K-VR
mit SP,
M ⊂ V
In
R3
eine abzählbare Erzeugendenmenge. Als Anwendung des
Orthonormierungsverfahrens zeige man:
(13.22)
k ∈
da sonst
Zusatz zur Eindeutigkeit.
für
j
P
l=1
l=1
0
0
vj+1 := kvj+1
k−1 vj+1
.
Span{x1 , . . . , xj }
j = 1, . . . , p.
Üb
j
P
V
besitzt eine ONB.
Beispiel.
mit Standard-SP seien
x1 = (1, 1, 1)
und
x2 = (0, 2, 4)
gegeben. Oenbar sind
x1 , x2
linear
unabhängig. Wende darauf das Orthonormalisierungsverfahren (19) an:
v1 := kx1 k−1 (1, 1, 1) =
v20 := x2 − hv1 , x2 iv1 =
v2 :=
√1 (1, 1, 1),
3
(0, 2, 4) − √13 (2
+ 4) √13 (1, 1, 1) = (0, 2, 4) − 2(1, 1, 1) = (−2, 0, 2) ⇒
√1 (−1, 0, 1).
2
Damit sind
Man erhält
v1 , v2 orthonormal. Ergänze jetzt
aus v1 , v2 , x3 eine ONB mit (19):
v30 := x3 − hv1 , x3 iv1 − hv2 , x3 iv2 = (1, 0, 0) −
v3 =
diese zu einer Basis von
√1 √1 (1, 1, 1) −
3 3
√1 (1, −2, 1).
6
97
− √12
R3
durch
√1 (−1, 0, 1)
2
x3 = (1, 0, 0).
1
= ( 61 , −2
6 , 6) ⇒
Orthogonale Projektion
Sei
M ⊂V
eine Menge. Dann heiÿt
M ⊥ := {y ∈ V : hx, yi = 0 ∀x ∈ M }
das
orthogonale Komplement von M . Für M = ∅ setzt man ∅⊥ := V . Oenbar ist stets 0 ∈ M ⊥ .
(13.23)
Eigenschaften des orthogonalen Komplements. Seien V ein K-VR mit SP und M, N
Teilmengen von V . Dann gelten
Beweis.
(a)
M⊥
ist ein UVR
(b)
M ∩ M ⊥ ⊂ {0}
(c)
N ⊂ M ⇒ M⊥ ⊂ N⊥
(d)
M ⊥ = (Span M )⊥
(e)
Span M ⊂ (M ⊥ )⊥
(f )
(M ∪ N )⊥ = M ⊥ ∩ N ⊥
∀ x ∈ M, y, y 0 ∈ M ⊥ , λ ∈ K : hx, y + λ y 0 i = hx, yi + λ hx, y 0 i = 0 + 0 = 0 ⇒
y + λ y 0 ∈ M ⊥ . (b) x ∈ M ∩ M ⊥ ⇒ hx, xi = 0 ⇒ x = 0. (c) ∀ x ∈ N, y ∈ M ⊥ :
⊥
hx, yi P
= 0 ⇒ y ∈ N ⊥P
. (d) "⊃"gilt nach (c). ∀ y ∈ M , ∀xi ∈ M, λi ∈ K, i = 1, . . . , n, n ∈
P
n
n
⊥
N : h i=1 λi xi , yi =
i=1 λi hxi , yi =
i 0 = 0 ⇒ y ∈ (Span M ) . (e) Nach (a) genügt
⊥ ⊥
⊥
zu zeigen M ⊂ (M ) . Dies folgt direkt aus der Denition von M . (f ) "⊂" gilt nach (c).
⊥
⊥
∀ z ∈ M ∩ N , x ∈ M, y ∈ N : hz, xi = 0, hz, yi = 0 ⇒ z ∈ (M ∪ N )⊥ .
Üb
(a)
Zeige:
(13.24)
M ⊂ P(V ) : (
S
⊥
M ∈M M )
=
T
M ∈M M
⊥.
Orthogonale Summe von UVR. Seien W1 , . . . , Wm UVR eines KVR V mit SP, die
paarweise orthogonal sind, d.h.
hx, x0 i = 0
falls
x ∈ Wl , x0 ∈ Wk
Dann ist die Summe W := W1 + · · · + Wm direkt gemäÿ
mit
l 6= k.
(11.23) und man schreibt dafür
⊥ ...
⊥ Wm .
W = W1 Beweis. Wende (14) an.
(13.25)
Orthogonale Projektion. Sei W ein UVR von V mit dim W < ∞. Dann gibt es zu jedem
x ∈ V genau ein PW (x) ∈ W derart, dass x − PW (x) ∈ W ⊥ . Es gilt also
⊥ W ⊥.
V =W
PW (x) die orthogonale Projektion von x auf W . Die dadurch denierte Abbildung
: V → V ist linear und heiÿt die orthogonale Projektion von V auf W . Oenbar gilt
◦ PW = PW .
Man nennt
PW
PW
Beweis. Nach (23)(b) ist W ∩ W ⊥ = {0}. Zeige jetzt W + W ⊥ = V . Sei w1 , . . . , wm
W.
Für
(13.26)
x∈V
eine ONB von
deniere
PW (x) :=
m
X
hwk , xi wk .
k=1
W (x). Dafür gilt hwl , yi = hwl , xi − hwl , PW (x)i =
PmPW (x) ∈ W . Setze y := x −
PP
m
hw
,
xihw
,
w
i
=
hw
,
xi
−
k
l
k
l
k=1
k=1 hwk , xi δkl = hwl , xi − hwl , xi = 0 für l = 1, . . . , m.
⊥
Hieraus folgt hw, yi = 0 für alle w ∈ W nach (23)(d). Also ist y ∈ W . Die Linearität von PW
ersieht man aus (26).
Oenbar ist
hwl , xi −
98
Üb
Zeige für die orthogonale Projektion
PW : kPW (x)k2 = hx, PW (x)i = hPW (x), xi.
dim W ⊥ < ∞, d.h. dim V < ∞, dann ist oenbar PW ⊥ = idV −PW .
allgemein im Fall dim W < ∞
PW ⊥ := idV −PW .
Ist auch
Bild(PW ) = W = Kern(PW ⊥ ), Kern(PW ) = W ⊥ = Bild(PW ⊥ ), PW ⊥ ◦ PW ⊥ = PW ⊥ ,
⊥ = dim V (auch im Fall dim V = ∞).
leicht überprüft. Auÿerdem gilt dim W + dim W
Dann ist
man
(13.27)
Daher setzen wir
was
Zweifach orthogonales Komplement. Ist W ein endlichdimensionaler UVR von V , dann
gilt (W ⊥ )⊥ = W .
Beweis. W ⊂ (W ⊥ )⊥
gilt immer, siehe (23)(e). Auÿerdem ist
(W ⊥ )⊥ . Dann ist z = w + w0 mit w ∈ W und w0
hw0 , w0 i = 0 + kw0 k2 , weshalb w0 = 0 und somit z =
(13.28)
⊥ W ⊥ = V nach (25). Sei z ∈
W
0 = hw0 , zi = hw0 , wi +
W ⊥ . Hieraus folgt
∈
w ∈ W.
Bestapproximation. Sei W ein UVR von V mit dim W < ∞. Dann gilt
kx − PW (x)k ≤ kx − wk
∀x ∈ V, w ∈ W.
D.h. von allen w ∈ W hat PW (x) den kürzesten Abstand zu x.
Beweis. x − w = (x − PW (x)) + (PW (x) − w) = PW ⊥ (x) + w0
kx − wk2
(x)k2
= kPW ⊥
kx − PW (x)k2 , wie
Üb
Sei
V
ein
mit
w0 := (PW (x) − w) ∈ W ⇒
kx − wk2 ≥ kPW ⊥ (x)k2 =
+ kw0 k2 nach dem Satz von Pythagoras. Also ist
behauptet.
KVR und M ⊂ V
M eine ONB ist.
eine Basis von
V.
Man zeige: Es gibt es genau ein SP auf
V
derart, dass
P
Lösung. Nach (5.21) läÿt sich jedes x ∈ V in eindeutiger Weise als x = y∈M αy (x)y schreiben,
wobei αy (x) ∈ K nur für endlich viele y ∈ M ungleich Null sind. Wegen der Eindeutigkeit
der Koordinaten αy (x), y ∈ M von x, folgen leicht durch Koordinatenvergleich die Linearität
αy (x + λx0 ) = αy (x) + λαy (x0 ) und αy (y 0 ) = δyy0 für y, y 0 ∈ M . Damit ist V × V → K,
P
(x, x0 ) 7→ hx, x0 i := y∈M αy (x)αy (x0 ) das gesuchte SP.
99
14 Endomorphismen in Vektorräumen mit
Skalarprodukt
Es werden Endomorphismen untersucht, die besondere Eigenschaften bezüglich des Skalarprodukts
besitzen. Sie treten in Anwendungen in natürlicher Weise auf. Selbstadjungierte (spezieller: symmetrische) Endomorphismen beschreiben Eigenschaften eines Systems. Symmetrietransformationen
hingegen werden durch unitäre (spezieller: orthogonale) Endomorphismen dargestellt. Entscheidend
für die nächsten Untersuchungen ist das folgende Konzept.
Der adjungierte Homomorphismus
(14.1)
Satz und Denition. Seien V und W endlichdimensionale KVR mit SP. Dann gibt es zu
f ∈ Hom(V, W ) genau ein f ∗ ∈ Hom(W, V ) derart, dass
hw, f (v)i = hf ∗ (w), vi
∀v ∈ V, w ∈ W.
Man beachte, dass links das SP in
heiÿt der zu
W
und rechts da SP in
f adjungierte Homomorphismus.
V
steht. Der Homomorphismus
f∗
Beweis. Zum Nachweis der Eindeutigkeit seien w ∈ W
und dazu z1 , z2 ∈ V derart, dass hw, f (v)i =
hz1 , vi = hz2 , vi für alle v ∈ V . Daraus folgt hz1 − z2 , vi = 0. Wählt man v = z1 − z2 , dann folgt
kz1 − z2 k2 = 0, weshalb z1 = z2 .
Zur Existenz wähle ONB v1 , . . . , vn von V und w1 , . . . , wm von W und bestimme dazu die Ab∗
∗
bildungsmatrix A von f . Sei f : W → V der Homomorphismus, wofür A die Abbildungsmatrix
bezüglich obiger ONB ist, d.h.
∗
f (wk ) =
n
X
aTlk vl
=
l=1
n
X
akl vl
für
k = 1, . . . , m.
l=1
Hierfür rechnet man nach:
hwk , f (vl )i = hwk ,
m
P
ajl wj i =
j=1
und
hf ∗ (wk ), vl i = h
n
P
akj vj , vl i =
j=1
hf ∗ (wk ), vl i
daraus
für
j=1
hw, f (v)i =
m P
n
P
Bemerkungen.
ζ k ηl hwk , f (vl )i =
ajl hwk , wj i =
j=1
akj hvj , vl i =
n
P
m
P
ajl δkj = akl
j=1
akj δjl = akl .
Also gilt
hwk , f (vl )i =
j=1
k = 1, . . . , m, l = 1, . . . , n.
k=1 l=1
(14.2)
n
P
m
P
Allgemein für
m P
n
P
w =
m
P
ζk wk
und
k=1
ζ k ηl hf ∗ (wk ), vl i = hf ∗ (w), vi.
v =
n
P
ηl vl
folgt
l=1
k=1 l=1
(a) Der Beweis von (1) zeigt:
hw, f (v)i = hz, vi ∀v ∈ V , dann ist z =
∗
tät von f in (1) automatisch folgt.
Ist w ∈ W und dazu z ∈ V derart, dass
f ∗ (w). Das bedeutet insbesondere, dass die Lineari-
(b) Der Beweis von (1) besagt auch: Ist A die Abbildungsmatrix von f bezüglich irgendwelcher
ONB, dann ist A∗ die Abbildungsmatrix von f ∗ bezüglich der gleichen Basen.
Für alle ξ ∈ Km×1 , η ∈ Kn×1 , A ∈ Km×n gilt
bezüglich der Standardskalarprodukte hξ, A ηi = hA∗ ξ, ηi. Das bedeutet (LA )∗ = LA∗ (vgl. (b) ).
(c) Man erinnere sich an (13.8) letzter Punkt:
100
(14.3)
Eigenschaften der Adjunktion. Seien V und W endlichdimensionale KVR mit SP. Dann
gelten für f, g ∈ Hom(V, W )
(a)
(f ∗ )∗ = f
(b)
(f + λg)∗ = f ∗ + λg ∗ ,
λ∈K
und für f ∈ End(V ), M UVR von V
(c)
det f ∗ = det f
(d)
(idV )∗ = idV
(e)
λ Eigenwert von
(f )
M f − (bzw . f ∗ −)invariant ⇒ M ⊥ f ∗ −(bzw . f −)invariant.
f ⇔ λ Eigenwert von
f∗
Beweis. (a) ∀x, y ∈ V : hy, f ∗ (x)i = hf ∗ (x), yi = hx, f (y)i = hf (y), xi. Daher ist (f ∗ )∗ = f
(c) Sei
A
eine Abbildungsmatrix von
f
bezüglich einer ONB. Dann ist
A∗
nach (1).
die Abbildungsmatrix
T
f ∗ bezüglich der gleichen Basis, s. (2) (b). Nun ist det f ∗ = det A∗ (nach (11.22)) = det A =
det A (nach (10.10)) = det A = det f (nach (10.09)). (f ) ∀x ∈ M, y ∈ M ⊥ gilt: 0 = hy, f (x)i
∗
∗
⊥
∗∗ = f folgt hieraus auch der zweite Teil der
(weil f (x) ∈ M ) = hf (y), xi ⇒ f (y) ∈ M . Weil f
Behauptung. (b), (d) und (e) bleiben als Übung.
von
Üb
Beweise (b), (d) und (e) aus (3).
Normale Endomorphismen
(14.4)
Denition.
∗
wenn f
(14.5)
V ein KVR mit SP endlicher Dimension. Dann heiÿt f ∈ End(V ) normal,
◦ f = f ◦ f ∗ . Entsprechend heiÿt A ∈ Kn×n normal, wenn A∗ A = A A∗ gilt.
Sei
Abbildungsmatrix eines normalen Endomorphismus. Die Abbildungsmatrix eines Endomorphismus bezüglich einer ONB ist genau dann normal, wenn der Endomorphimus normal
ist.
Beweis. Allgemein gelten LA = ϕ◦f ◦ϕ−1 nach (7.9), (7.10) und LB ◦LA = LBA nach (7.18). Daher
LA∗ A = LA∗ ◦ LA = ϕ ◦ f ∗ ◦ ϕ−1 ◦ ϕ ◦ f ◦ ϕ−1 = ϕ ◦ f ∗ ◦ f ◦ ϕ−1 = ϕ ◦ f ◦ f ∗ ◦ ϕ−1 = . . . = LAA∗ .
∗
∗
Hieraus folgt A A = A A . Die Umkehrung beweist man analog.
ist
(14.6)
Eigenschaften eines normalen Endomorphismus. Sei f ∈ End(V ) normal. Dann gelten
(a)
Kern(f ) = Kern(f ∗ )
(b)
∀x ∈ V, λ ∈ K :
(c)
x, y ∈ V Eigenvektoren zu verschiedenen Eigenwerten ⇒ x ⊥ y.
f (x) = λ x ⇔ f ∗ (x) = λ x.
Beweis. (a) Sei x ∈ Kern(f ). Dann gilt: f (x) = 0 ⇒ 0 = kf (x)k2 = hf (x), f (x)i = hf ∗ (f (x)), xi =
hf (f ∗ (x)), xi = hf ∗ (x), f ∗ (x)i = kf ∗ (x)k2 ⇒ x ∈ Kern(f ∗ ). Ebenso folgt Kern(f ∗ ) ⊂ Kern(f ).
∗
∗
(b) ⇒: Oenbar ist (f − λ idV )(x) = 0, d.h. x ∈ Kern(f − idV ). Mit (f − λ idV ) = f − λ idV
∗
nach (3)(b),(d) folgt. dass f − λ idV normal ist. Somit folgt x ∈ Kern(f − λ idV ) nach (a). Also ist
∗
f (x) = λx. ⇐ folgt analog.
∗
(c) Sei f (x) = λ x, f (y) = µ y mit λ 6= µ. Dann gilt: λ hx, yi = hλ x, yi = hf (x), yi (wegen (b))
= hx, f (y)i = hx, µ yi = µ hx, yi, woraus die Behauptung folgt.
101
Üb
K-VR mit SP endlicher Dimension und f ∈ End(V ) normal. Weiter sei W ein
V , der von Eigenvektoren von f erzeugt wird. Man zeige: f (W ) ⊂ W, f (W ⊥ ) ⊂
W ⊥ , f ∗ (W ) ⊂ W, f ∗ (W ⊥ ) ⊂ W ⊥ .
Sei
V
ein
UVR von
Üb
Sei
V
ein
CVR
mit SP endlicher Dimension. Seien
paarweise verschiedenen Eigenwerte von
f.
f ∈ End(V )
normal und
λ 1 , . . . λs
die
Man zeige:
⊥ ... ⊥ Ef (λs ).
V = Ef (λ1 ) (14.7)
Hauptsatz. Sei V ein endlichdimensionaler C-VR mit SP. Ist f ∈ End(V ) normal, dann
gibt es eine ONB von Eigenvektoren von f . Es gilt auch die Umkehrung.
Beweis.
dim V =: n ∈ N.
χf nach (12.10) in Linearfaktoren zerfällt, hat f einen
v1 . O.E. sei kv1 k = 1. Seien nun bereits orthonormale
Eigenvektoren v1 , . . . , vj mit j ∈ {1, . . . , n − 1} für f gefunden. Setze W := Span{v1 , . . . , vj }. Aus
∗
(6)(b) folgt f (W ) ⊂ W und f (W ) ⊂ W . Hieraus folgt bereits alles Übrige. In der Tat ist zunächst
⊥
⊥
∗
⊥
⊥ nach (3)(f ). Damit ist g : W ⊥ → W ⊥ , g(x) := f (x), ein
auch f (W ) ⊂ W , f (W ) ⊂ W
⊥ mit g ∗ (x) = f ∗ (x), denn für x, y ∈ W ⊥ gilt hx, g(y)i = hx, f (y)i =
Endomorphismus von W
∗
∗
⊥
hf (x), yi mit f (x) ∈ W . Schlieÿlich ist g normal: g ∗ (g(x)) = g ∗ (f (x)) = f ∗ (f (x)) = f (f ∗ (x)) =
f (g ∗ (x)) = g(g ∗ (x)). Weil dim W ⊥ = n − j ≥ 1, ist W ⊥ 6= {0}. Damit gibt es, wie eingangs für
f argumentiert, einen Eigenvektor vj+1 ∈ W ⊥ von g mit kvj+1 k = 1. Dieser ist auch Eigenvektor
von f mit vj+1 ⊥ W .
Zur Umkehrung sei v1 , . . . , vn eine ONB von V und seien λ1 , . . . , λn aus C mit f (vl ) = λl vl .
Dann folgt hvk , f (vl )i = hvk , λl vl i = δkl λl = δkl λk = λk hvk , vl i = hλk vk , vl i. Daher gilt allgemein
Pn
Pn
Pn
für x =
l=1 αl hλk vk , vl i = hλk vk , xi.
l=1 αl hvk , f (vl )i =
l=1 αl vl ∈ V , dass hvk , f (x)i =
∗
∗
Nach (2) (a) impliziert dies f (vk ) = λk vk für k = 1, . . . , n. Damit rechnet man nach: f ◦ f (vl ) =
∗
∗
∗
∗
∗
f (λl vl ) = λl f (vl ) = λl λl vl = . . . = f ◦ f (vl ) für alle l. Hieraus folgt f ◦ f = f ◦ f .
Sei
Eigenwert
λ1
Weil
und dazu einen Eigenvektor
Insbesondere ist jeder normale Endomorphimus eines endlichdimensionalen
C-VR
diagonalisierbar.
Unitäre Automorphismen
(14.8)
ONBWechsel, unitäre Matrix. Sei V ein KVR mit SP und dim V =: n ∈ N. Seien
v1 , . . . , vn und v10 , . . . , vn0 zwei ONB von V . Dann ist die invertierbare Matrix S , die gemäÿ
(∗)
vj0
=
n
X
slj vl ,
j = 1, . . . , n
l=1
den Basiswechsel beschreibt (siehe
(7.25)),
unitär, d.h. sie erfüllt
S −1 = S ∗ .
Ist umgekehrt v1 , . . . , vn eine ONB von V und S ∈ Kn×n unitär, dann deniert (∗) eine ONB
v10 , . . . , vn0 .
Beweis. Ist v1 , . . . , vn
hvk0 , vj0 i
eine ONB von
V,
so folgt zunächst aus (∗):
n
n
n X
n
n X
n
n
n
X
X
X
X
X
X
=h
sik vi ,
sik slj hvi , vl i =
sik slj δil =
sik sij =
sTki sij .
slj vl i =
i=1
Wenn nun
S −1 = S ∗
vj0 , . . . , vn0
i=1 l=1
l=1
i=1 l=1
S
unitär,
i=1
δkj = hvk0 , vj0 i und daher E n = S ∗ S , was äquvalent zu
∗
0
0
dann ist S S = E n und somit hvk , vj i = δkj .
eine ONB ist, dann ist
ist. Ist umgekehrt
i=1
102
S −1 = S ∗
Wie bemerkt, ist
ist
∗
S =S
T
S∗S = En
S ∈ GL(n, R)
äquivalent zu
und man nennt spezieller
und damit auch zu
mit
S
−1
S S∗ = En.
= S orthogonal.
T
Im Fall
K=R
U(n) := {S ∈ GL(n, C) : S −1 = S ∗ },
O(n) := {S ∈ GL(n, R) : S −1 = S T }
sind Gruppen bez. der Matrixmultplikation, d.h. also Untergruppen der allgemeinen linearen Gruppe
C bzw. R. Daher heiÿt U(n)
O(n) = U(n) ∩ Rn×n .
über
ist
bzw.
O(n)
die
Üb
Man weise die Gruppeneigenschaften von
Üb
Sei
S ∈ Kn×n
unitär. Man zeige:
unitäre
bzw.
orthogonale Matrixgruppe.
U(n) ⊂ GL(n, C)
O(n) ⊂ GL(n, R)
und
Es
nach.
| det S| = 1.
Es folgt eine Kennzeichnung unitärer Matrizen.
(14.9)
Unitaritätskriterium 1. Sei S ∈ Kn×n . Dann sind äquvalent
(a)
S ist unitär.
(b)
Die Spaltenvektoren von S bilden eine ONB in Kn×1 bezüglich des StandardSP.
(c)
Die Zeilenvektoren von S bilden eine ONB in K1×n bezüglich des StandardSP.
Beweis. Sei S = (s1 . . . sn ), wobei wie üblich sk ∈ Kn×1
den
k -ten
Spaltenvektor von
S
bezeich-
net. Damit ist
 ∗
s1
 .. 
∗
S S =  .  s1 . . . sn .
s∗n
(k, l)Element
⇔ (c).
Das
(a)
von
S∗S
ist
s∗k sl = hsk , sl i.
Hieraus folgt sofort (a)
⇔
Man weise (i)
Üb
Man gebe Beispiele für unitäre bzw. orthogonale
SPerhaltend.
wenn
f
(b). Ähnlich einfach folgt
Üb
(14.10)
⇔
(iii) von (9) nach.
Seien
V
und
W KVR
(n × n)Matrizen
mit SP. Dann heiÿt
für
n = 1, 2, 3
f :V →W
an.
ein Isomorphismus,
bijektiv, linear und SPerhaltend ist. Letzteres bedeutet
hf (x), f (y)i = hx, yi ∀x, y ∈ V.
Ist
Üb
V = W,
f
auch
unitär und, falls K = R, spezieller orthogonal.
f ein Isomorphismus von KVR mit
hy, f (x)i = hf −1 (y), xi ∀x ∈ V, y ∈ W.
Man zeige: Ist
und es gilt
(14.11)
so heiÿt
SP, so ist auch
f −1
ein Isomorphismus
Isomorphismus zwischen endlichdimensinalen VR. Seien V, W K-VR mit SP und f ∈
Hom(V, W ). Ist dim V = dim W < ∞, dann gilt:
f SP-erhaltend ⇔ f bijektiv und f −1 = f ∗ .
103
Beweis. ⇒: ∀x, y ∈ V
hx, yi = hf (x), f (y)i = hf ∗ (f (x)), yi. Mit (13.4) folgt
f ∗ (f (x)) = x ∀x ∈ V und somit f ∗ ◦ f = idV . Aus (2.24), (6.17) folgt, dass f bijektiv ist und
−1 = f ∗ . ⇐: hf (x), f (y)i = hf ∗ (f (x)), yi = hf −1 (f (x)), yi = hx, yi ∀x, y ∈ V .
somit f
gilt nach (1):
Unitäre Endomorphismen auf endlichdimensionalen VR sind oensichtlich normal. Ensprechend
sind unitäre Matrizen normal. Im Fall
K=R
sagt man statt unitär spezieller
orthogonal.
Wie
in (5) überzeugt man sich, dass die Abbildungsmatrix eines Endomorphismus bezüglich einer ONB
genau dann unitär ist, wenn der Endomorphimus unitär ist.
Üb
V, W K-VR mit SP und f ∈ Hom(V, W ). Dann heiÿt f isometrisch, wenn kf (x)k =
kxk ∀x ∈ V . Man zeige: Ist f isometrisch, dann ist f injektiv. Weiter zeige man: f ist
SP-erhaltend genau dann, wenn f isometrisch ist. Tipp: Man wende auf hf (x), f (y)i die Polaridentität an. Dabei achte man auf die Fälle K = C und K = R.
Seien
Üb
Sei
V K-VR
Üb
Sei
V
ein
mit SP,
K-VR
natenabbildung.
Üb
(14.12)
V K-VR
Man zeige: f
Sei
dim V < ∞
und
f ∈ End(V ).
Man zeige:
f
unitär
⇔f
isometrisch.
v1 , . . . , vn eine ONB in V und ϕ : V → Kn×1 die zugehörige Koordin×1 mit dem Standard-SP. Man zeige: ϕ ist ein Isomorphismus.
Versehe K
mit SP,
dim V < ∞
mit SP,
f ∈ End(V ). Weiter sei v1 , . . . , vn eine ONB
wenn f (v1 ), . . . , f (vn ) eine ONB von V ist.
und
ist unitär genau dann,
V.
von
Unitaritätskriterium 2. Seien V ein C-VR mit SP endlicher Dimension und f ∈ End(V ).
Dann sind äquivalent:
(a)
f ist unitär.
(b)
f ist normal und alle Eigenwerte sind vom Betrag 1.
(c)
f besitzt eine ONB von Eigenvektoren zu Eigenwerten vom Betrag 1.
Beweis.
⇒ (b) sei λ ∈ C und x ∈ V , x 6= 0, mit f (x) = λx. Dann gilt: kxk2 =
hx, xi = hf (x), f (x)i = hλ x, λ xi = λ λ̄ hx, xi = |λ|2 kxk2 ⇒ |λ| = 1. Zu (b) ⇒ (a) betrachte nach (7) eine ONB v1 , . . . , vn von Eigenvektoren zu den Eigenwerten λ1 , . . . λn vom Betrag
E
DP
Pn
Pn
Pn
n
β
λ
v
=
β
v
gilt
dann
hf
(x),
f
(y)i
=
α
λ
v
,
α
v
,
y
=
1. Für x =
j
j
j
l
l
l
l
l
l
l
j=1
l=1
l=1
l=1
Pn Pn
Pn Pn
l=1
j=1 ᾱl λ̄l βj λj hvl , vj i =
l=1
j=1 ᾱl λ̄l βj λj δlj . Letzteres ist gleich hx, yi, weil λ̄l λl = 1.
Also ist f SP-erhaltend. Die Äquivalenz von (b) und (c) folgt aus (7). Es bleibt lediglich festzustellen, dass f in (c) wegen (6)(c) keinen Eigenwert vom Betrag ungleich 1 haben kann.
V
ein
oder
−1.
Ist
(14.13)
Zu (a)
RVR
mit SP und
f ∈ End(V )
orthogonal, dann ist jeder Eigenwert von
f
entweder
+1
Das zeigt man wie in (a) ⇒ (b) von (12).
Unitäre Diagonalisierung normaler Matrizen. Sei A ∈ Cn×n normal. Dann existiert eine
unitäre Matrix S derart, dass S −1 A S = diag(λ1 , . . . , λn ), wobei λ1 , . . . , λn die Eigenwerte von
A sind.
Beweis.
Da
LA
normal ist, existiert nach dem Hauptsatz (7) eine ONB von Eigenvektoren. Der
Basiswechsel von der Standardbasis zu dieser Basis wird nach (8) durch eine unitäre Matrix
vermittelt. Die Abbildungsmatrix
S −1 A S = diag(λ1 , . . . , λn )
A
(von
LA )
S
geht dabei gemäÿ (11.11) in die Diagonalmatrix
über.
Die Umkehrung in (13) gilt auch.
(14.14)
Unitäräquivalent zu einer Diagonalmatrix. Ist A ∈ Cn×n , S ∈ U(n) und ist S −1 A S =
diag(λ1 , . . . , λn ) mit gewissen λ1 , . . . , λn aus C, dann ist A normal und λ1 , , . . . , λn sind die
Eigenwerte von A. Die Spaltenvektoren s1 , . . . , sn von S sind dazu eine ONB aus Eigenvektoren.
104
Beweis. Mit D := diag(λ1 , . . . , λn ) ist A = S D S −1 und A∗ = (S −1 )∗ D∗ S ∗ = S D S −1 , weil S −1 =
S∗
und
D∗ = D.
Damit folgt
A∗ A = S D S −1 S D S −1 = S D D S −1 = S D D S −1 = · · · = A A∗ .
Üb
Sei
V
ein
CVR
f ∈ End(V )
mit SP endlicher Dimension und
f invarinater UVR. Man zeige: W ⊥ ist
Der Rest der Behauptung folgt aus (11.11) und (9).
normal. Weiter sei
W
ein
f invariant.
Pm
Pm
j
j
n×n sei p(A) :=
Anleitung. Für p ∈ K[X], p =
j=1 αj X und A ∈ K
j=1 αj A . n×n eine Diagonalmatrix. Man zeige zunächst, dass es ein Interpolationspolynom
Sei D ∈ C
p ∈ C[X] (vom Grad ≤ n) gibt derart, dass p(D) = D∗ . Man verallgemeinere dieses Ergebnis
von Diagonalmatrizen auf normale Matrizen mit Hilfe von (13). Schlieÿlich wende man (3)(f )
an.
Selbstadjungierte Endomorphismen
KVR mit SP und dim V < ∞. Dann heiÿt f ∈ End(V ) selbstadjungiert, wenn f = f ∗ , d.h.
wenn hx, f (y)i = hf (x), yi für alle x, y aus V . Insbesondere sind selbstadjungierte Endomorphismen
Sei
V
ein
normal. Oenbar ist die Abbildungsmatrix eines Endomorphismus bezüglich einer ONB genau dann
selbstadjungiert, wenn der Endomorphismus selbstadjungiert ist (vgl. (5)).
Ein Beispiel im Fall
PW
hPW ⊥ (y), PW (x)i = 0
gonale Projektor
(14.15)
dim V < ∞
für einen selbstadjungierten Endomorphismus ist der ortho-
x, y aus V gilt: hy, PW (x)i = hPW (y), PW (x)i
hPW (y), xi = hPW (y), PW (x)i weil hPW (y), PW ⊥ (x)i = 0.
aus (13.25), denn für
und ebenso
weil
Kriterium für Selbstadjungiertheit. Sei V ein CVR mit SP endlicher Dimension und
f ∈ End(V ). Dann sind äquivalent:
(a)
f ist selbstadjungiert.
(b)
f ist normal und alle Eigenwerte sind reell.
(c)
f besitzt eine ONB von Eigenvektoren zu reellen Eigenwerten.
Beweis.
Zu (a) ⇒ (b) sei λ ∈ C und x ∈ V , x 6= 0 mit f (x) = λ x. Dann gilt: λ hx, xi =
hx, λxi = hx, f (x)i = hf ∗ (x), xi = hf (x), xi = hλ x, xi = λ̄ hx, xi ⇒ λ = λ̄. Zu (b) ⇒ (a)
betrachte nach (7) eine ONB v1 , . . . , vn von Eigenvektoren zu reellen Eigenwerten λ1 , . . . , λn . Mit
Pn Pn
Pn
Pn
der gewohnten Notation folgt hx, f (y)i = h
j=1 ᾱl βj λj δlj =
l=1 αl vl ,
j=1 βj λj vj i =
l=1
Pn Pn
∗ (x) = f (x) für alle x ∈ V . ᾱ
β
hλ
v
,
v
i
=
.
.
.
=
hf
(x),
yi
,
weil
λ
=
λ̄
.
Also
ist
f
l
l
l=1
j=1 l j l l j
Die Äquivalenz von (b) und (c) folgt aus (7). Es bleibt lediglich festzustellen, dass f in (c) wegen
(6)(c) keinen nichtreellen Eigenwert haben kann.
Üb
V ein KVR mit SP endlicher Dimension
W ⊂ V ein UVR. Zeige: Ist W f invariant,
Sei
und
f ∈ End(V ) selbstadjungiert. Weiter sei
W ⊥ f invariant. (Dies ist ein
dann ist auch
leichter zu beweisender Spezialfall der vorangegangenen Übung.)
Üb
Man gebe Beispiele für normale Endomorphismen an, die weder unitär noch selbstadjungiert
sind. In Hinblick auf (11.13) und (7) gebe man ein Beispiel einer nicht normalen reellen
Matrix an, die zwei verschiedene reelle Eigenwerte besitzt.
105
2 × 2
Diagonalisierbarkeit über R
Der Hauptsatz (7) gilt im Fall, dass
V
ein reeller VR ist, im allgemeinen nicht. Genaue Auskunft
gibt das folgende Ergebnis.
(14.16)
ONB von Eigenvektoren im Fall K = R. Seien V ein endlichdimensionaler RVR mit
SP und f ∈ End (V ). Dann sind äquivalent:
(a)
(b)
(c)
Beweis.
f ist normal und χf ist das Produkt reeller Linearfaktoren.
f ist selbstadjungiert, hier auch symmetrisch genannt.
Es gibt eine ONB von Eigenvektoren von f .
Sieht man den Beweis des Hauptsatzes (7) durch, erkennt man sofort die Gültigkeit von
(a) ⇔ (c). Sei
A die Abbildungsmatrix von f bezüglich einer ONB in V . Wir fassen die reelle Man×n auf. Auÿerdem beachte man (2)(b),(c), sowie (5) und die entsprechende
trix A als Element von C
Bemerkung vor (15). Es gelte nun (a). Dann ist LA normal mit nur reellen Eigenwerten, weshalb
LA nach (15) selbstadjungiert ist. Damit ist A symmetrisch und folglich f symmetrisch. Also gilt
(b). Schlieÿlich sei f symmetrisch. Dann ist A symmetrisch und somit LA symmetrisch. Nach (15)
folgt daraus, dass alle Eigenwerte von LA und somit von A und also von f reell sind. Damit gilt (b).
Wegen (12.8) ist (16)(a) äquivalent dazu, dass
auch äquivalent dazu, dass
f
f
normal und trigonalisierbar ist. Daher ist (16)(c)
normal ist und eine Basis von Eigenvektoren besitzt. Als Korollar
zu (16) erhält man das folgende wichtige Ergebnis.
(14.17)
Orthogonale Diagonalisierung einer symmetrischen Matrix. Sei A ∈ Rn×n . Dann ist
A genau dann symmetrisch, wenn S ∈ O(n) existiert derart, dass S −1 AS diagonal ist.
Beweis.
Sei
A
symmetrisch. Dann ist
LA
symmetrisch. Nach (16) besitzt
LA
und somit
A
eine
ONB von Eigenvektoren, die natürlich reell sind. Mit (11.11) und (14.9) folgt die nicht elementare
Richtung der Äquivalenz. Zur umgekehrten Richtung benutze man
S −1 = S T
und (9.5).
Das charakteristische Polynom orthogonaler Matrizen zerfällt i. allg. nicht in reelle Linearfaktoren.
Fundamental ist das Beispiel
(14.18)
Dϕ
für
ϕ∈
/ πZ
aus (11.25), wie wir gleich sehen werden.
Lemma. Seien V ein endlichdimensionaler RVR und f ∈ End (V ). Dann gibt es einen
f invarianten UVR W von V mit dim W ∈ {1, 2}.
Beweis.
A ∈ Rn×n eine Abbildungsmatrix für f . Es genügt die Behauptung für LA statt f zu
n×n auf. Dann existiert ein Eigenwert λ ∈ C von A. Sei z ∈ Cn×1 \ {0} mit
zeigen. Fasse A ∈ C
1
(z − z) ∈
A z = λ z . Hieraus folgt A z = A z = λ z = λ z . Setze x := 21 (z + z) ∈ Rn×1 und y := 2i
n×1
n×1
die Behauptung erfüllt.
R
. Man rechnet leicht nach, dass W := Span {x, y} ⊂ R
Üb
Sei
Man rechne nach, dass
W
in Beweis von (18) erfüllt:
W 6= {0}, LA (W ) ⊂ W.
Orthogonale Endomorphismen lassen sich i. allg. nicht diagonalisieren (s. o.), aber es gilt immerhin
(14.19)
Normalform einer orthogonalen Matrix. Sei V ein RVR mit SP und dim V =: n ∈ N.
Ist f ∈ End (V ) orthogonal, dann gibt es eine ONB von V , wofür die Abbildungsmatrix T von
f die Blockdiagonalgestalt


E n1


−E n2




D1
T =



..


.
Dp
106
hat, wobei Dj := Dϕj , ϕj ∈
/ πZ (s.
(11.25))
für j = 1, . . . , p.
Beweis.
Der Beweis erfolgt durch Induktion nach n. Für n = 1 ist T = ±E 1 , weil f (x0 ) = λ x0
V = R x0 mit |λ| = 1. Nach (18) existiert UVR W mit dim W ∈ {1, 2} und f (W ) ⊂ W .
Weil f isometrisch ist, ist f injektiv und damit bijektiv. Daher gilt sogar f (W ) = W . Daraus
−1 (W ) = W und somit f ∗ (W ) = W . Nach (3)(f ) folgt f (W ⊥ ) ⊂ W ⊥ und schlieÿlich
folgt f
⊥
f (W ) = W ⊥ . Nun läÿt sich die Induktionsvoraussetzung anwenden. Danach gibt es ONB von
W und von W ⊥ derart, dass die Abbildungsmatrix dazu von f von der Form
T1
T =
T2
für
T 2 die behauptete Gestalt hat und T 1 die Abbildungsmatrix
dim W = 1 ist T 1 = ±E1 . Der Rest des Beweises folgt nun aus (20).
ist, wobei
(14.20)
von
f
auf
W
ist. Im Fall
Die Matrixgruppe O(2). Für T ∈ O(2) gilt: Es gibt ϕ ∈ R derart, dass entweder T = Dϕ
oder T = D−
ϕ , wobei
cos ϕ sin ϕ
cos ϕ − sin ϕ
−
Dϕ :=
.
, Dϕ :=
sin ϕ − cos ϕ
sin ϕ cos ϕ
−1 −
Zu D−
ϕ existiert S ∈ O(2) mit S D ϕ S = diag(1, −1).
α β
T
2
. Da 1 = det E 2 = det (T T ) = ( det T ) ist det T = ±1. Wegen
Beweis. Sei T =
γ δ
α β
δ −γ
α β
−1 T
1
T = (T ) ist
=∆
, s. (10.21). Das führt auf die beiden Fälle T =
γ δ
−β α
−β α
α β
2
2
und T =
mit α + β = 1, die in der angegebenen Weise parametrisiert werden.
β −α
−
2
2
Das charakteristische Polynom von D ϕ lautet (cos ϕ − X)(− cos ϕ − X) − sin ϕ = X − 1 =
⊥ E(−1).
(1 − X)(−1 − X). Folglich ist R2×1 = E(1) Üb
Man deute
Üb
Sei
Dϕ
und
D−
ϕ
geometrisch. Wie hängen
Dϕ
und
D−
ϕ
zusammen?
T ∈ O(n). Man zeige: Es gibt S ∈ O(n) derart, dass S −1 T S = diag(E n1 , −E n2 , D1 , . . . , Dp ),
vgl. (19).
Hauptachsentransformation
V ein KVR mit dim V =: n ∈ N. Darauf sei eine Sesquilinearform [, ] : V × V → K erklärt,
d.h. [, ] ist linear im zweiten und konjugiert linear im ersten Argument. Wähle eine indizierte Basis
v1 , . . . , vn in V . Für x, y aus V seien ξ , η die zugehörigen Koordinatenvektoren aus Kn×1 . Dann
Sei
folgt
"
[x, y] =
n
X
l=1
ξl vl ,
n
X
#
ηk vk =
k=1
n X
n
X
ξ l ηk [vl , vk ] = ξ ∗ A η
mit
A := ([vl , vk ])l,k=1,...,n .
l=1 k=1
Es gilt also
(14.21)
[x, y] = ξ ∗ A η = hξ, A ηi.
A = ([vl , vk ])k,l die darstellende Matrix der Sesquilinearform [, ] bez. der indiBasis v1 , . . . , vn (vgl. (13.10)). Wie transformiert sich die darstellende Matrix A bei einem
Man nennt
zierten
107
Wechsel zu einer neuen Basis
Pn Pn
v10 , . . . , vn0 ?
S
Mit
aus (7.25) folgt
P
P
[vl0 , vk0 ] = [ ni=1 sil vi , nj=1 sjk vj ] =
j=1 sil sjk [vi , vj ], was
i=1
A0 = S ∗ A S
(14.22)
bedeutet. Man
beachte,
dass sich
A
als darstellende Matrix einer Sesquilinearform nicht mittels
Ähnlichkeit (7.34) transformiert.
Üb
Kn×n betrachte man die folgende Relation: A ∼ B , wenn S ∈ GL(n, K)
∗
dass B = S A S . Man zeige: ∼ ist eine Äquivalenzrelation.
Auf
Nach (13.11) ist
[, ]
konjugiert symmetrisch genau dann, wenn
dann ist (13) anwendbar. Da
(14.23)
S ∗ = S −1
für
S ∈ U (n),
Hauptachsentransformation. Sei V
ein
A
existiert derart,
selbstadjungiert ist. Gilt letzteres,
folgt aus (22) mit (8) die
KVR mit SP und dim V =: n ∈ N und sei [, ] eine
V . Dann existieren eine ONB v1 , . . . , vn von V
konjugiert symmetrische Sesquilinearform auf
und
λ1 , . . . , λ n
[x, y] =
aus
n
X
R
derart, dass
λl ξ l ηl
l=1
x, y ∈ V
λ1 , . . . , λn die
Eigenwerte einer (jeden) selbstadjungierten darstellenden Matrix von [, ] sind. Es ist [, ] genau
für
und
ξ, η
die zugehörigen Koordinatenvektoren. Es folgt, dass
dann positiv denit (d.h. ein SP) bzw. positiv semidenit, wenn alle Eigenwerte positiv bzw.
nichtnegativ sind. Es ist
[, ] genau dann indenit, wenn es einen positiven und einen negativen
Eigenwert gibt.
Üb
Es gelten die Voraussetzungen von (23). Man zeige: Es gibt eine orthogonale Basis
von
V
und
p, r ∈ {0, . . . , n}
[x, y] =
p
X
ξ l ηl −
l=1
für alle
x, y ∈ V
Man beachte, dass
A
es ist.
mit
r
X
p≤r
derart, dass
ξ l ηl
l=p+1
mit Koordinatenvektoren
S∗A S
mit
A ∈ Kn×n
und
S ∈ GL(n, K)
mit
ξ, η
aus
Kn×1 .
S ∈ GL(n, K)
Der Trägheitssatz von Sylvester
existiert genau dann
ṽ1 , . . . , ṽn
genau dann selbstadjungiert ist, wenn
A, A0 ∈ Kn×n selbstadjungiert. Es
0
0
Rang (A ) = Rang (A) sowie A und A
besagt: Seien
A0 = S ∗ A S ,
gleich viele positive Eigenwerte besitzen.
108
wenn
Herunterladen