Lineare Algebra für Physiker - Höhere Mathematik an der TUM

Werbung
Lineare Algebra für Physiker
Domenico P.L. Castrigiano
15. Juli 2010
∗
†
Vorlesungsskript WS 2008/09
Zentrum Mathematik TU München
†
∗
Einleitung
Die lineare Algebra hat sich aus der analytischen Geometrie und der Behandlung linearer Gleichungssysteme entwickelt. Inzwischen ist sie ein Grundbestandteil der Mathematik und ihre Anwendungen reichen in alle Bereiche der Naturwissenschaften hinein. Für die Physik ist die lineare
Algebra ein selbstverständliches Werkzeug zur Mathematisierung der Theorie. Die Linearität ist oftmals eine grundlegende Eigenschaft der Naturgesetze, z.B. sind Teilchen und Feldgleichungen linear
oder der Zustandsraum eines quantenmechanischen Systems ist ein Vektorraum. Wo nichtlineare
Zusammenhänge bestehen, ist die Linearisierung in vielen Fällen der erste Schritt zur Behandlung
des Problems. Viele numerische Verfahren beruhen auf linearer Approximation. Schlieÿlich ist die
lineare Optimierung in weiten Teilen eine Anwendung der linearen Algebra.
Es gibt eine Vielzahl einführender Bücher zur linearen Algebra. Unterschiede bestehen vornehmlich in einem mehr oder weniger abstrakten Zugang. Wir wählen einen axiomatischen Aufbau,
wenden uns aber sehr schnell den Vektorräumen zu. Weil es keine besondere Mühe bereitet und die
Sicht auf das Wesentliche erleichtert, werden die linearen Strukturen über einem allgemeinen Körper
betrachtet. Erst wenn das Skalarprodukt behandelt wird, beschränken wir uns auf die reellen oder
komplezen Zahlen. Im Mittelpunkt der Untersuchungen steht der Begri der linearen Abbildung.
Wie ein Blick auf das Inhaltsverzeichnis zeigt, wird eine Auswahl aus dem üblichen Stokanon
einer Vorlesung über Lineare Algebra 1 und 2 getroen. Sie ist bestimmt von den Bedürfnissen
eines Physikstudiums. Bei der Behandlung der Stoes ist es uns wichtig, die allgemeinen Strukturen
herauszustellen. Wesentlich ist das Konzept der Isomorphie, das auch in der Physik von grosser Bedeutung ist. Unter einem Vektorraumisomorphismus zum Beispiel bleiben lineare Zusammenhänge
unverändert. Es ändert sich aber ihre Darstellung, wie etwa im Fall der Abbildungsmatrix anstelle eines Homomorhpismus zwischen endlichdimensionalen Vektorräumen. Durch den Wechsel der
Darstellung wird eine einfachere Beschreibung ermöglicht. Dieser Grundgedanke führt zu besonders
interessanten Ergebnissen, wenn die reichhaltigere Struktur der unitären bzw. euklidischen Vektorräume im Spiel ist. Ebenso wichtig wie die abstrakten Strukturen sind in der linearen Algebra
Verfahren und Algorithmen für praktische Berechnungen. Für Anwendungen ist der Matrizenkalkül
für die Behandlung linearer Gleichungssysteme von besonderer Bedeutung.
Inhaltsverzeichnis
1
Mengen
4
2
Abbildungen
9
3
Vollständige Induktion und Abzählbarkeit
15
4
Gruppen, Körper, Vektorräume
18
5
Lineare Unabhängigkeit, Basen, Dimension
24
6
Lineare Abbildungen
31
7
Matrizen
39
8
Lineare Gleichungssysteme
50
9
Weitere Folgerungen des Eliminationsverfahrens
59
10 Determinanten
63
11 Eigenwerte und Eigenvektoren
73
12 Diagonalisierbarkeit und Trigonalisierbarkeit
82
13 Vektorräume mit Skalarprodukt
91
14 Endomorphismen in Vetorräumen mit Skalarprodukt
99
3
1 Mengen
Eine
Menge
ist eine Zusammenfassung (in der Vorstellung) von verschiedenen Objekten, z.B. die
Menge der Einwohner Münchens oder der Kraftfahrzeuge mit Münchener Kennzeichen oder die
Menge der Mitglieder eines Orchesters. Es können natürlich auch verschiedenartige Objekte zu
einer Menge zusammengefasst werden, wie z.B. die Einrichtungsgegenstände eines Zimmers und die
sich darin bendlichen Personen.
Die einzelnen Objekte heiÿen
Elemente der Menge. Bezeichnet X
eine Menge und
a ein Element
der Menge, so schreibt man:
a∈X
X
a ist ein Element von
heiÿt eine
X.
endliche Menge, wenn sie aus endlich vielen Elementen besteht. Alle oben betrach-
teten Mengen sind endlich. Besteht z.B. eine Menge
X
aus 6 Elementen, die mit
a1 , a2 , . . . , a5 , a6
bezeichnet werden, so schreibt man:
X = {a1 , a2 , a3 , a4 , a5 , a6 }
a1 ∈ X, . . . , a6 ∈ X . Mengen können unendlich sein, d.h. nicht
der natürlichen Zahlen 1, 2, 3, . . .. Diese wird mit N bezeichnet. Also
und es ist
Menge
endlich, wie z.B. die
N = {1, 2, 3, . . .} .
Wenn ein Objekt kein Element einer Menge
a∈
/X
Z.B. ist
Seien
X
a ist kein Element von
0∈
/ N, d.h. die
X und Y zwei
X.
Mengen. Man sagt
Y
X
ist eine
Teilmenge
von
Y,
wenn jedes Element von
ist, d.h. wenn gilt:
x ∈ X ⇒ x ∈ Y.
Dabei bezeichnet
X⊂Y
X⊂Y
⇒
daraus folgt eine Implikation. Man schreibt:
X ist Teilmenge von
Oensichtlich ist
Z
ist, schreibt man
Null ist (bei uns) keine natürliche Zahl.
auch ein Element von
(1.1)
X
und
X ⊂ X.
Y .
Weiter gilt die Transitivität
Y ⊂ Z ⇒ X ⊂ Z.
Y
X
Wichtig für den Nachweis der
(1.2)
Gleichheit zweier Mengen ist die Äquivalenz
X = Y ⇔ X ⊂ Y und Y ⊂ X.
4
Dabei bezeichnet
Ist
X
⇔
äquivalent zu die Implikationen für beide Richtungen.
eine Menge und
E
eine Eigenschaft (die die Elemente von
X
besitzen können oder auch
nicht), dann bezeichnet
{x ∈ X : E(x)}
die Menge von Elementen
x
von
X,
die
E
besitzen. Diese Menge ist eine Teilmenge von
X.
Zum
Beispiel ist die Menge der geraden natürlichen Zahlen
{n ∈ N :
n gerade
eine Teilmenge von
} = {2, 4, 6, . . .}
N.
Unerläÿlich ist die Einführung der
diese gilt nach (1.1) für jede Menge
(1.3)
leeren Menge ∅,
die Menge, die kein Element enthält. Für
X:
∅ ⊂ X.
Schlieÿlich bezeichnet
P(X)
die
Potenzmenge
von
X,
die Menge aller Teilmengen von
X.
Ein
Beispiel dazu sei
X = {1, 2, 3} ⇒ P(X) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, X}.
Allgemein gilt stets
∅ ∈ P(X), X ∈ P(X)
einelementige Menge.
Üb
X n-elementig ⇒ P(X)
ist
und
{a} ∈ P(X)
für jedes
a ∈ X.
Dabei ist
{a}
2n -elementig.
Mengenoperationen
Seien
(1.4)
X, Y, Z
Der
Mengen.
Durchschnitt zweier Mengen: X ∩ Y := {z : z ∈ X
Der Doppelpunkt bei
:=
und
z ∈ Y }.
bedeutet, dass die linke Seite durch die rechte Seite deniert wird.
X
Y∩X
(1.5) Die
Vereinigung
Y
zweier Mengen:
X ∪ Y := {z : z ∈ X
5
oder
z ∈ Y }.
eine
X
Y
Y∪X
(1.6) Die
Dierenz zweier Mengen: X \ Y := {z ∈ X : z ∈/ Y }.
Y
X
X\Y
Es gelten folgende Beziehungen:
• X \ X = ∅, X \ ∅ = X
• X ∪ X = X, X ∩ X = X
• X ∪ Y = Y ∪ X, X ∩ Y = Y ∩ X
• X ⊂Y ⇔X ∪Y =Y ⇔X ∩Y =X
• X⊂Z
und
Y ⊂Z ⇔X ∪Y ⊂Z
• Z⊂X
und
Z ⊂Y ⇔Z ⊂X ∩Y
• X ∪ (Y ∪ Z) = (X ∪ Y ) ∪ Z =: X ∪ Y ∪ Z
• X ∩ (Y ∩ Z) = (X ∩ Y ) ∩ Z =: X ∩ Y ∩ Z
• X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z)
• X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z)
Obermenge von X , d.h. X ⊂ E , auch E ⊃ X geschrieben. {X := E \ X
Komplement von X bezüglich E . Sei auch Y ⊂ E . Dann gelten
Sei
E
eine
• {({(X)) = X
• X \ Y = X ∩ {Y
• {(X ∪ Y ) = ({X) ∩ ({Y )
• {(X ∩ Y ) = ({X) ∪ ({Y )
6
heiÿt das
E
Y
X
• X ⊂ Y ⇔ {Y ⊂ {X
• X ∩ Y = ∅ ⇔ X ⊂ {Y ⇔ Y ⊂ {X ⇔ ({X) ∪ ({Y ) = E
Weitere Beziehungen für Mengen
X, Y , Z:
• (X ∪ Y ) \ Z = (X \ Z) ∪ (Y \ Z)
• (X ∩ Y ) \ Z = (X \ Z) ∩ Y = X ∩ (Y \ Z) = (X \ Z) ∩ (Y \ Z)
Kartesisches Produkt
Seien
a, b
zwei Objekte. Diesen entspricht ein neues Objekt, das
geordnete Paar (a, b). Dafür gilt
denitionsgemäÿ:
(a, b) = (a0 , b0 ) ⇔ a = a0 , b = b0 .
So bedeutet z.B.
(1.7)
das
(a, b) = (b, c),
dass
a = b = c.
Seien
X, Y
Mengen. Dann ist die Menge aller Paare
X × Y := {(x, y) : x ∈ X, Y ∈ Y }
kartesische Produkt von X
mit
Y.
Es wird
X ×X
auch mit
X2
bezeichnet.
Y
(x,y)
y
x
Zum Beispiel ist
X
N2 = {(n, m) : n ∈ N, m ∈ N}
die Menge der Gitterpunkte
3
2
1
1
2
3
4
Es gelten folgende Beziehungen für Mengen
X , X 0, Y , Y 0:
7
• X ×Y =∅⇔X =∅
•
Sei
X × Y 6= ∅.
oder
Dann:
Y = ∅.
X0 × Y 0 ⊂ X × Y ⇔ X0 ⊂ X
und
Y0 ⊂Y.
• (X × Y ) ∪ (X 0 × Y ) = (X ∪ X 0 ) × Y
Y
X'×Y
X×Y
X
X'
• (X × Y ) ∩ (X 0 × Y 0 ) = (X ∩ X 0 ) × (Y ∩ Y 0 ).
• Seien E ⊃ X , F ⊃ Y . Für das Komplement bezüglich E × F gilt: {(X × Y ) = ({X × F ) ∪
(E × {Y ).
Beweis.
Gemäÿ (1.2) beweise zunächst ⊂ . Sei
(a, b) ∈ {(X × Y ). D.h. (a, b) ∈
/ X ×Y.
b∈
/ Y (da sonst doch (a, b) ∈ X × Y ). a ∈
/ X heiÿt a ∈ {X ,
b∈
/ Y heiÿt b ∈ {Y . Also folgt: (a, b) entweder Element von {X × F oder von E × {Y . Das
bedeutet (a, b) ∈ ({X × F ) ∪ (E × {Y ). Damit ist gezeigt: {(X × Y ) ⊂ ({X × F ) ∪ (E × {Y ).
Das bedeutet entweder
a∈
/X
oder
Nun zu ⊃ . Sei
(a, b) ∈ ({X × F ) ∪ (E × {Y ). Damit ist entweder a ∈ {X oder b ∈ {Y . D.h.
a∈
/ X oder b ∈
/ Y . Also (a, b) ∈
/ X × Y . D.h. (a, b) ∈ {(X × Y ). Damit ist gezeigt:
({X × F ) ∪ (E × {Y ) ⊂ {(X × Y ).
entweder
Nach (1.2) folgt die behauptete Gleichheit.
Für Mengen
X, Y, Z
deniert man entsprechend
X × Y × Z := {(x, y, z) : x ∈ X, y ∈ Y, z ∈ Z}
das kartesisches Produkt von
ist für Mengen
X, Y , Z,
d.i. die Menge der geordneten
Tripel (x, y, z). Allgemeiner
X 1 , . . . Xn
X1 × X2 × . . . × Xn := {(x1 , x2 , . . . , xn ) : x1 ∈ X1 , . . . , xn ∈ Xn }
die Menge der geordneten
n-Tupel.
8
2 Abbildungen
X, Y
Abbildung f
X in (oder nach) Y ordnet jedem Element von X
genau ein Element in Y zu. Zum Beispiel sei X die Menge der in München zugelassenen Autos, Y
die Menge der möglichen Münchner Kennzeichen und f ordnet jedem Auto sein Kennzeichen zu.
Oder X sei die Menge der Personen in Deutschland, Y = N und f ordnet jeder Person ihr Gewicht
Seien
Mengen. Eine
von
(in kp) zu. Man schreibt
(2.1)
f : X → Y, x 7→ f (x),
und nennt
f (x)
das
Bild von x in Y
unter der Abbildung
f.
Y
X
f(x)
x
Jedem Element
(2.2) Graphf
der
x∈X
wird ein Bild und nur ein Bild
zugeordnet. Weiter heiÿt
:= {(x, y) ∈ X × Y : y = f (x)} ∈ P(X × Y )
Graph von f . Er ist eine Teilmenge von X × Y .
(2.3)
Lemma. G ∈ P(X × Y ) (d.h. G ⊂ X × Y ) ist genau dann der Graph einer Abbildung, wenn
zu jedem x ∈ X genau ein y ∈ Y existiert derart, dass (x, y) ∈ G.
Y
G
x0
G
y∈Y
mit
x0 ∈ X
gibt
(x0 , y) ∈ G.
X
G
x0
ist kein Abbildungsgraph, denn zu
es mehr als ein
Y
Y
y
f (x) ∈ Y
x0 ∈ X
gibt
G ist Abbildungsgraph, denn zu jedem x ∈ X
es genau ein y ∈ Y derart, dass (x, y) ∈ G.
gibt
G
ist kein Abbildungsgraph, denn zu
es kein
y∈Y
mit
(x0 , y) ∈ G.
X
G
x X
9
YX
X
bezeichnet die Menge aller Abbildungen von
nach
Y.
Beispiele für Abbildungen
b ∈ Y . f : X → Y, f (x) := b ∀ x ∈ X, ∗)
Wert b. Es ist Graph f = X × {b}.
(2.4) Sei
heiÿt die
konstante Abbildung von X
in
Y
mit
X = Y . f : X → X, f (x) := x, heiÿt die identische Abbildung oder Identität auf X und
wird mit idX bezeichnet. Es ist Graph idX = {(x, x) : x ∈ X} die Diagonale von X × X .
(2.5) Sei
X
X×X
x
x
(2.6)
X
f : P(X) → P(X), f (Y ) := X \ Y ,
(2.7) pr1
ist die Komplementbildung.
: X × Y → X, pr1 (x, y) := x,
Komponente oder kurz die
nennt sich die
erste Projektion
von
Projektion
X × Y.
von
X ×Y
Entsprechend pr2
auf die erste
: X×Y →
Y, pr2 (x, y) := y .
(2.8) Sei
f ∈ Y X, A ⊂ X.
Einschränkung
Zwei Abbildungen
von
f |A : A → Y, f |A(x) := f (x) ∀ x ∈ A
A. Es ist Graph f |A = Graph f ∩ (A × Y ).
Dann ist
f
auf
f, g ∈ Y X
sind gleich, d.h.
f = g,
genau dann, wenn
eine Abbildung, die
f (x) = g(x) ∀ x ∈ X .
Die folgende harmlos erscheinende mengentheoretische Annahme hat weitreichende Konsequenzen.
(2.9)
Auswahlaxiom. Seien X, Y Mengen und F : X → P(Y ) eine Abbildung mit F (x) 6= ∅ ∀ x ∈
X . Dann existiert eine Abbildung f : X → Y mit f (x) ∈ F (x) ∀ x ∈ X .
Weitere Beispiele:
• f : N → N, f (n) := 2n.
• f : N → N, f (n) :=
f (15) = 3, usw...
D.h.
f (1) = 2, f (2) = 4, f (3) = 6, . . .
kleinste Primzahl in n. Z.B.
• f : N × N → Q (Menge
der rationale Zahlen) ,
f (2) = 2, f (3) = 3, f (2n) = 2 ∀ n ∈ N,
f (n, m) :=
n
m
• X := {1, 2, 3, 4}, Y := {a, b, c, d, e}, f : X → Y , f (1) := a, f (2) := c, f (3) := c, f (4) := b
Üb
Wie viele verschiedene Abbildungen von
Y
∗)
∀
X , wenn
X n
Elemente und
Y m
X
nach
Y
Elemente mit
gibt es, m. a. W. wieviele Elemente besitzt
m, n ∈ N
hat?
steht für für alle oder zu jeder/m. Es ist ein auf den Kopf gestelltes A.
10
Bild und Urbild von Mengen
Seien
f :X→Y
eine Abbildung und
A⊂X
f (A) := {y ∈ Y : ∃ x ∈ A
das
(2.10)
mit
eine Teilmenge. Dann heiÿt
kurz
f (x) = y} = {f (x) ∈ Y : x ∈ A} ∈ P(Y )†)
Bild von A (in Y ) unter f .
Seien A, A0 ⊂ X . Dann gelten
• A 6= ∅ ⇔ f (A) 6= ∅
• f ({x}) = {f (x)} ∀ x ∈ X
• A ⊂ A0 ⇒ f (A) ⊂ f (A0 )
• f (A ∩ A0 ) ⊂ f (A) ∩ f (A0 )
• f (A ∪ A0 ) = f (A) ∪ f (A0 )
Üb
Sei
Beweise die obigen Aussagen. Finde ein Beispiel zu
B⊂Y
f (A ∩ A0 ) 6= f (A) ∩ f (A0 ).
eine Teilmenge. Dann heiÿt
f −1 (B) := {x ∈ X : f (x) ∈ B} ∈ P(X)
dieser Teil von B hat ein leeres
Urbild
X
das
f -¹(B)
Urbild von B
(2.11)
B
bez.
f.
Lemma. Im Gegensatz zu f erhält f −1 alle mengentheoretischen Operationen. Seien B, B 0 ⊂
Y . Dann gelten
• B ⊂ B 0 ⇒ f −1 (B) ⊂ f −1 (B 0 )
• f −1 (B ∩ B 0 ) = f −1 (B) ∩ f −1 (B 0 )
• f −1 (B ∪ B 0 ) = f −1 (B) ∪ f −1 (B 0 )
• f −1 (B \ B 0 ) = f −1 (B) \ f −1 (B 0 )
†)
∃
Y
steht für es existiert. Es ist ein spiegelverkehrtes E.
11
Üb
Beweise obige Aussagen.
(2.12)
Lemma. Sei A ⊂ X und B ⊂ Y . Es gelten folgende Beziehungen zwischen Bild und Urbild
• f (f −1 (B)) = B ∩ f (X)
• f −1 (f (A)) ⊃ A
Beweis
y ∈ f (f −1 (B)) ⇒ ∃ x ∈
y = f (x) ⇒ ∃ x ∈ X mit f (x) ∈ B und y = f (x) ⇒ y ∈ B ∩ f (X).
−1 (B) mit f (x) = y
Nun zu ⊃. Sei y ∈ B ∩ f (X) ⇒ y ∈ B und ∃ x ∈ X mit y = f (x) ⇒ ∃ x ∈ f
⇒ y ∈ f (f −1 (B)).
der ersten Aussage. Gemäÿ (1.2) zeige zunächst ⊂. Sei
f −1 (B) mit
f −1 (f (A)) 6= A
Beweise die zweite Aussage und gebe ein Beispiel für
Üb
(2.13)
•
an.
Lemma. Für die Projektionen (2.7) gelten:
−1
pr1
(A) = A × Y,
−1
pr2
(B) = X × B
für
A⊂X
und
B⊂Y
• Z ⊂ X × Y ⇒ Z ⊂ pr1 (Z) × pr2 (Z)
Üb
Beweise obige Aussagen und gebe ein Beispiel für
Üb
Gebe ein Beispiel für
Üb
Finde jeweils ein Beispiel für
f ∈YX
und
A, A0 ⊂ X
f ∈YX
und
mit
A⊂X
Z 6= pr1 (Z) × pr2 (Z)
A ⊂ A0
und
an.
f (A0 \ A) 6= f (A0 ) \ f (A)
an.
derart, dass gilt:
f (X \ A) ⊂ Y \ f (A)
f (X \ A) ⊃ Y \ f (A)
weder ⊂ noch ⊃ .
Surjektive, injektive und bijektive Abbildungen
Sei
f
f ∈ Y X,
heiÿt
X
d.h.
f :X→Y
eine Abbildung.
surjektiv, wenn f (X) = Y . M.a.W. ∀ y ∈ Y ∃x ∈ X : f (x) = y .
x
Y
f
y
x'
(Das schlieÿt nicht aus, dass es mehrere Urbilder gibt.) Man sagt auch,
f heiÿt injektiv oder eineindeutig,
∀ x, x0 ∈ X : f (x) = f (x0 ) ⇒ x = x0 .
X
wenn jedes
y ∈ Y
12
ist eine Abbildung
auf
Y.
höchstens ein Urbild besitzt. M.a.W.
Y
f
f
(Das schlieÿt nicht aus, dass es zu einem
f
heiÿt
bijektiv, wenn f
y∈Y
gar kein Urbild gibt.)
surjektiv und injektiv ist, m.a.W.
∀ y ∈ Y ∃1 x ∈ X : f (x) = y.
(2.14)
Sei f ∈ Y X . Setze f˜ : X → f (X), f˜(x) := f (x). Dann ist f˜ surjektiv (klar).
(2.15)
Sei f ∈ Y X injektiv, A ⊂ X . Dann ist f |A injektiv (klar).
Zeige mit Hilfe des Auswahlaxioms (2.9): Ist
Üb
injektiv ist und
f ∈ Y X,
dann existiert
A⊂X
derart, dass
A ⊂ X . jA :=
−1
jA
(B) = A ∩ B .
idX |A heiÿt
identische Einbettung
von
A
in
X . Für B ⊂ X gilt
(2.17)
Sei f ∈ Y X . Dann ist F : X → Graph f , F (x) := (x, f (x)), eine bijektive Abbildung.
(2.18)
pr1 und pr2 sind surjektiv auf X bzw. Y .
(2.19)
Die Komplementbildung
(2.20)
Lemma. Sei f ∈ Y X . Dann gelten für alle A ⊂ X und B ⊂ Y :
surjektiv
• f
injektiv
f |A
f (A) = f (X).
(2.16) Sei
• f
‡)
ist bijektiv.
(2.6)
⇒ f (f −1 (B)) = B
⇒ f −1 (f (A)) = A
Beweis. Die erste Aussage folgt sofort aus der ersten Aussage von (2.12), weil f (X) = Y .
f −1 (f (A)) ⊂ A zu zeigen. Sei also x ∈ f −1 (f (A))
f (x0 ) = f (x) ⇒ x0 = x, weil f injektiv ist. Also x ∈ A.
Zur zweiten Aussage: Wegen (2.12) bleibt
⇒ f (x) ∈ f (A) ⇒ ∃ x0 ∈ A
(2.21)
mit
Die Umkehrabbildung. Sei f : X → Y eine bijektive Abbildung. Dann gibt es eine Abbil-
dung g : Y → X derart, dass
f (g(y)) = y ∀y ∈ Y und g(f (x)) = x ∀x ∈ X.
Oenbar ist g eindeutig und bijektiv. Man nennt g die Umkehrabbildung von f
f −1 := g .
Beweis.
f bijektiv ist, gilt: ∀ y ∈ Y ∃1 x ∈ X : f (x) = y.
x ∈ X . Damit ist eine Abbildung g : Y → X erklärt. Für
Da
bestimmte
Nenne
g(y)
und schreibt
dieses eindeutig
diese gelten denitionsgemäÿ
obige Beziehungen.
Vorsicht, f −1
ist. Wenn
von
B
f
: P(Y ) → P(X)
existiert immer, die Umkehrfunktion jedoch nur, wenn
bijektiv ist, ist natürlich für jedes
bezüglich
B⊂Y
das Bild von
B
f
bijektiv
−1 gleich dem Urbild
unter f
f.
Hintereinanderschaltung (=Komposition) von Abbildungen
Seien
X, Y, Z
Mengen,
f ∈ Y X , g ∈ ZY ,
d.h.
f : X → Y, g : Y → Z
Abbildungen. Dann ist
h : X → Z, x 7→ h(x) := g(f (x)),
eine Abbildung, denn jedem
x∈X
wird ein eindeutiges Bild
g(f (x)) ∈ Z
hierfür
h=g◦f
und nennt
‡)
∃1
h
die Hintereinanderschaltung oder Komposition von
steht für es existiert genau ein
13
g
und
f.
zugeordnet. Man schreibt
(2.22)
Es gelten
• h(A) = g(f (A)) ∀ A ⊂ X
• h−1 (C) = f −1 (g −1 (C)) ∀ C ⊂ Z
Üb
(2.23)
Beweise obige Relationen.
Wenn g und f injektiv bzw. surjektiv sind, dann ist auch h = g ◦ f injektiv bzw. surjektiv. Ist
f bijektiv, dann gilt nach (2.21)
f −1 ◦ f = idX , f ◦ f −1 = idY .
(2.24)
Lemma. Sei f ∈ Y X , g ∈ X Y , h ∈ X X mit g ◦ f = h. Dann gilt:
h bijektiv ⇒ f injektiv, g surjektiv.
Üb
(2.25)
Zeige (2.24). Gebe ein Beispiel zu (2.24) an, wofür f nicht surjektiv und g nicht injektiv ist.
Lemma. Seien A, B , C , D Mengen und f : A → B , g : B → C , h : C → D Abbildungen.
Dann gilt h ◦ (g ◦ f ) = (h ◦ g) ◦ f , d.i. die Assoziativität der Komposition.
Beweis.
Für alle
((h ◦ g) ◦ f )(a).
a ∈ A
gilt:
(h ◦ (g ◦ f ))(a) = h((g ◦ f )(a)) = h(g(f (a))) = (h ◦ g)(f (a)) =
Wegen (2.25) sind die Klammern nicht notwendig: man schreibt
14
h ◦ g ◦ f.
3 Vollständige Induktion und Abzählbarkeit
Die natürlichen Zahlen
durchläuft man
N,
N = {1, 2, 3, . . .}
sind angeordnet:
von einer natürlichen Zahl
n
zur nächsten
1 < 2 < 3 < . . .. Auf
n + 1 ohne Wiederkehr.
diese Weise
Vollständige Induktion
Zu jeder natürlichen Zahl
n
sei eine Aussage
A(n)
gegeben. Die Richtigkeit dieser Aussagen soll
vollständigen Induktion bedienen:
Alle Aussagen A(n) für n ∈ N sind richtig, falls A(1) richtig ist (Induktionsanfang),
und wenn für jedes n0 ∈ N, wofür A(1), A(2), . . . , A(n0 ) richtig sind (Induktionsvoraussetzung), auch A(n0 + 1) richtig ist (Induktionsschluss).
bewiesen werden. Dazu kann man sich des Beweisprinzips der
Beispiel. Arithmetische Summenformel
(3.1)
1
1 + 2 + 3 + . . . + n = n(n + 1)
2
Beweis. A(n) ist die Aussage, dass die Summe der ersten n natürlichen Zahlen gleich 12 n(n+1)
ist.
1=
IA
IV Sei
1
· (1 + 1),
2
n0 ∈ N
d.h.
A(1)
derart, dass
IS Zeige nun, dass
ist richtig.
A(n0 )
A(n0 + 1)
gilt, d.h. dass
1
1 + 2 + . . . + n0 = n0 (n0 + 1).
2
richtig ist:
1 + 2 + . . . + n0 + (n0 + 1) = (1 + 2 + . . . + n0 ) + (n0 + 1)
1
IV 1
= n0 (n0 + 1) + (n0 + 1) =
n0 + 1 (n0 + 1)
2
2
1
= (n0 + 2)(n0 + 1). Das ist A(n0 + 1).
2
Bemerkung. Oft, wie auch in diesem Fall, wird nicht die volle IV ausgenutzt, sondern nur die Gültigkeit von
A(n0 );
die Gültigkeit von
entsprechender Indizierung von
A(n)
A(n0 − 1), A(n0 − 2),
. . . wird beim IS nicht benutzt . Bei
kann der kleinste Index statt
1
irgendeine ganze Zahl (auch
negativ) sein.
Summenschreibweise. Für a1 + a2 + . . . + an (Pünktchenschreibweise) schreibt man ni=1 ai .∗)
Dabei ist i der Summationsindex. (Dieser kann natürlich auch mit einem anderen Buchstaben
P
bezeichnet werden.) Allgemeiner ist für zwei ganze (auch negative) Zahlen
(3.2)
n
X
ai = am + am+1 + . . . an−1 + an
i=m
∗) P
Sigma, das groÿe griechische S
15
m≤n
(3.3)
Beispiel. Geometrische Summenformel
n
X
xi =
i=0
1 − xn+1
für jede Zahl x 6= 1.
1−x
Beweis.
IA
IS
x0 = 1,
n+1
X
1 − x0+1
= 1,
1−x
xi =
i=0
n
X
d.h.
A(0)
ist richtig.
xi + xn+1
i=0
1 − xn+1 + (1 − x)xn+1
1 − xn+1
+ xn+1 =
1−x
1−x
1 − xn+2
=
, d.h. A(n + 1) ist richtig.
1−x
IV
=
Mächtigkeit
X heiÿt gleichmächtig mit der Menge Y , wenn es eine bijektive Abbildung f : X → Y
: Y → X nach (2.21) ebenfalls bijektiv ist, ist dann auch Y gleichmächtig mit X .
Daher heiÿen X und Y gleichmächtig. Ist weiter Y gleichmächtig zu Z , dann sind X und Z
gleichmächtig, denn
Eine Menge
−1
gibt. Da f
f : X → Y, g : Y → Z bijektiv ⇒ g ◦ f : X → Z bijektiv
nach (2.23). Eine Menge
abzählbar, wenn X
(3.4)
X
heiÿt
abzählbar unendlich, wenn X
gleichmächtig mit
N
ist.
X
heiÿt
endlich oder abzählbar unendlich ist.
Satz. Sei A ⊂ N unendlich. Dann ist A abzählbar unendlich.
Beweis.
f : N → A, n 7→ an := f (n) wie folgt: a1 sei das kleinste
A \ {a1 }, usw. Seien a1 , . . . , an bereits
kleinste Element von A \ {a1 , . . . , an } (6= ∅, weil A unendlich).
Deniere eine Abbildung
Element von
A.
Weiter sei
bestimmt, dann sei
an+1
a2
das
das kleinste Element von
Oenbar ist
a1 < a2 < . . . < an
für jedes
n.
Hieraus folgt, dass
f
injektiv ist. Auÿerdem ist
n ≤ an ∀ n ∈ N
und damit
insbesondere
b ≤ ab ∀ b ∈ A.
f sei x ∈ A \ {a1 }. Dann existiert eine natürliche Zahl n
ax ≥ x, gibt es eine gröÿte natürliche Zahl m < x mit am < x. Nehme nun
an, es existiere b ∈ A mit am < b < x. Dann ist am+1 ≤ b < x nach Denition von am+1 , was
aber ein Widerspruch zur Denition von m ist. Also ist am+1 = x.
Zum Beweis der Surjektivität von
mit
(3.5)
an < x.
Da
Satz. Sei A abzählbar und f : A → B surjektiv. Dann ist B abzählbar.
Beweis. Für endliches A ist die Behauptung oensichtlich. Sei daher A unendlich. Wegen (3.4)
A = N anzunehmen. Nach Voraussetzung ist f −1 ({b}) 6= ∅ ∀ b ∈ B .
−1 ({b}). Es ist f (g(b)) = b ∀ b ∈ B , weshalb g : B → N
Sei g(b) das kleinste Element von f
injektiv ist nach (2.24). Damit sind B und g(B) gleichmächtig und die Behauptung folgt aus
(3.4).
ist es keine Einschränkung
16
Bemerkung am Rande: das Auswahlaxiom wurde in Beweis von (3.5) vermieden.
(3.6)
Satz. N = N × N ist abzählbar.
Y
3
2
1
6
3
5
8
1
2
4
7
1
2
3
4
X
1
2
Beweis. f : N × N → N, f (x, y) := (x + y − 2)(x + y − 1) + y , ist bijektiv (s. Bild).
Üb
Zeige explizit, dass
f
in (3.6) bijektiv ist.
Familien und Folgen
Seien
I, X
nichtleere Mengen und
eine Familie in X
Index ι. Ist I = N,
f ∈ XI.
Schreibt man
Indexmenge I ,
f (ι) =: xι ∀ ι ∈ I
†) , dann nennt man
und xι heiÿt Element oder Glied der Familie
(xn )n∈N eine Folge und wird auch als unendliches Tupel
I = {1, . . . , n}, dann ist (xι )ι∈I = (x1 , . . . , xn ) ein n-Tupel.
(xι )ι∈I
mit
zum
dann heiÿt
(x1 , x2 , x3 , . . .) geschrieben. Ist
Sei (Aι )ι∈I eine Familie von Teilmengen einer
[
Aι := {x ∈ X : ∃ ι ∈ I mit x ∈ Aι }
Menge. Dann heiÿen
ι∈I
die
Vereinigung
\
der Mengen
Aι , ι ∈ I ,
Aι := {x ∈ X : ∀ ι ∈ I
gilt
und
x ∈ Aι }
ι∈I
Durchschnitt der Mengen Aι , ι ∈ I . Eine andere Schreibweise dafür ist
der
[
[
Aι =:
{Aι : ι ∈ I},
ι∈I
Üb
\
Aι =
\
[
(Aι ∩ Bκ )
{Aι : ι ∈ I}.
ι∈I
Zeige:
!
[
• {
Aι
=
ι∈I
\
{Aι
ι∈I
!
•
[
!
[
∩
Aι
ι∈I
Bκ
κ∈K
(ι,κ)∈I×K
!
•
\
Aι
ι∈I
!
\
∪
Bκ
=
κ∈K
Die Mengen
(3.7)
=
Aι , ι ∈ I ,
\
(Aι ∪ Bκ )
(ι,κ)∈I×K
heiÿen
paarweise disjunkt, wenn Aι ∩ Aι0 = ∅ für ι, ι0 ∈ I
mit
ι 6= ι0 .
Satz. Eine Vereinigung von abzählbar vielen abzählbaren MengenSist abzählbar. Ist also I eine
abzählbare Menge und ist Aι abzählbar für jedes ι ∈ I , dann ist
ι∈I
Aι abzählbar.
Beweis
Einschränkung ist I ⊂ N und die An ⊂ N × {n} sind paarweise disjunkt. Dann
S . Ohne S
ist
†)
ι
n∈I
An ⊂
n∈N N
× {n} = N2
abzählbar nach (3.6). Die Behauptung folgt mit (3.4).
iota 17
4 Gruppen, Körper, Vektorräume
Uns werden vornehmlich reelle oder komplexe Vektorräume interessieren. In Hinblick auf spätere
Themen ist es jedoch angebracht, etwas allgemeiner zu sein und mit Gruppen und Körpern zu
beginnen.
(4.1)
Denition und Lemma. Eine Gruppe ist eine Menge G mit einem Element e ∈ G und
einer inneren Verknüpfung, d.i. eine Abbildung von G × G in G, (x, y) 7→ xy , derart, dass
∀ x, y, z ∈ G
a)
x(yz) = (xy)z
b)
ex = x
c)
∃ x−1 ∈ G
mit
x−1 x = e.
Eigenschaft a) ist die
Assoziativität der Verknüpfung. In jeder Gruppe gelten für alle x ∈ G
xx−1 = e
xe = x
e ist eindeutig
x−1 ist eindeutig und x−1
−1
a)
= x.
c)
a)
b)
Beweis. z := x−1 ⇒ z −1 zxz = (z −1 z)xz = exz = e(xz) = xz = xx−1 ;
c)
a)
b)
c)
a)
z −1 zxz =
a)
b)
= e. Damit folgt x = ex = xx−1 x =
andererseits
z −1 (zx)z = z −1 ez = z −1 (ez) = z −1 z = e. Also gilt xx−1
c)
x x−1 x = xe. Sei e0 ∈ G mit e0 x = x ∀ x ∈ G. Insbesondere ist e0 e = e. Andererseits gilt e0 e = e0
0
0
wie gerade gezeigt. Daher ist e = e . Schlieÿlich gelte für x ∈ G sowohl zx = e wie z x = e. Es
−1 = (zx) x−1 = ex−1 = x−1 . und ebenso z 0 = x−1 . Also ist z = z 0 , d.h. x−1
folgt z = ze = z xx
−1
−1 −1 −1
ist eindeutig. Daher folgt aus x
x = e = xx−1 , dass x−1
= x.
Einselement der Gruppe G und x−1 das zu x inverse Element. Wir haben
die Gruppenverknüpfung multiplikativ geschrieben. Dementsprechend heiÿt xy das Produkt von
x mit y . Man kann auch die additive Schreibweise x + y verwenden. Dann heiÿt x + y die
Summe von x mit y . In diesem Fall heiÿt e das Nullelement und wird mit 0 bezeichnet. Das
inverse Element wird mit −x bezeichnet und heiÿt entgegengesetztes Element. Die Gruppe
G heiÿt abelsch oder kommutativ, wenn xy = yx ∀ x, y ∈ G.
Deshalb heiÿt
e
das
Beispiele
(4.2)
Die ganzen Zahlen Z = {. . . , −2, −1, 0, 1, 2, . . .} sind eine additive abelsche Gruppe: ∀ x, y, z ∈
Z gilt x + y = y + x ∈ Z, 0 + x = x + 0 = x, x − x = 0 und die Assoziativität (x + y) + z =
x + (y + z).
In der Physik begegnet man
Z
als der Gruppe derjenigen Translationen, die ein eindimensionales
beidseitig unendlich ausgedehntes Kristallgitter mit Gitterkonstante
1
invariant lassen. Es besteht
ein enger Zusammenhang zu den Fourierreihen.
N mit der gewöhnlicher Addition ist keine Gruppe, da kein Nullelement vorhanden ist. Aber auch
N0 := N ∪ {0} ist keine Gruppe, da nur 0 ein inverses Element besitzt.
Wie Z ist auch Q, die Menge der rationalen Zahlen, oder R, die Menge der reellen Zahlen, eine
additive abelsche Gruppe bez. der gewöhnlichen Addition.
18
Q∗ := Q \ {0}
R∗ := R \ {0} sind multiplikative abelsche Gruppen bez. der gewöhnlichen
−1 = 1 das inverse Element, wobei 1 ∈ R das Einselement ist.
Multiplikation: Für r ∈ R, r 6= 0, ist r
r
∗
∗
Q+ := {r ∈ Q : r > 0}, R+ := {r ∈ R : r > 0} sind ebenso multiplikative abelsche Gruppen bez.
und
der gewöhnlichen Multiplikation.
(4.3)
Lemma und Denition. Sei X eine nichtleere Menge. Dann ist S(X) := {f ∈ X X :
f bijektiv} eine Gruppe bez. der Komposition von Abbildungen. Einselement ist idX , das inverse Element von f ist die Umkehrabbildung f −1 . Zur Assoziativität siehe (2.25). S(X) heiÿt
die symmetrische Gruppe der Menge X .
Für
n∈N
schreibt man kurz
Eine Gruppe
G
heiÿt
Sn := S({1, . . . , n}). f ∈ Sn
Zeige:
|Sn | = 1 · 2 · 3 · 4 · . . . · (n − 1) · n =: n!
Üb
Zeige:
Sn
(4.4)
Permutation der Zahlen 1, . . . , n.
endlich, wenn G eine endliche Menge ist. |G| heiÿt die Ordnung
Üb
ist für
heiÿt
n≥3
von
G.
( n Fakultät ).
nicht abelsch.
Lemma. Seien G, G0 Gruppen. Dann ist G × G0 eine Gruppe bez. der inneren Verknüpfung
(x, x0 )(y, y 0 ) := (xy, x0 y 0 )
mit Einselement (e, e0 ). Das inverse Element (x, x0 )−1 lautet x−1 , x0−1 .
Dies ist leicht zu verizieren und lässt sich sofort auf mehrere Faktoren verallgemeinern:
G1 × . . . × G n
(4.5)
(x1 , . . . , xn )(x1 , . . . , xn ) = (x1 y1 , . . . , xn yn )
Gn = G × . . . × G (n Faktoren) eine Gruppe.
wird mit der Gruppenverknüpfung
hen. In diesem Sinn ist insbesondere
verse-
Lemma. Rn ist mit der additiven Verknüpfung (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 +
y1 , . . . , xn +yn ), dem Nullelement 0 = (0, 0, . . . , 0) und dem entgegengesetzten Element −(x1 , . . . , xn ) =
(−x1 , . . . , −xn ) eine additive abelsche Gruppe.
Q
und
R
sind Körper, weil man in
Q
und in
R
addieren und multiplizieren kann. Genauer gelten
folgende Körperaxiome.
(4.6)
Denition.
Ein
Körper
ist eine Menge
K
mit Elementen
0 ∈ K , 1 ∈ K , 0 6= 1
und zwei
inneren Verknüpfungen
K × K → K, (x, y) 7→ x + y
K × K → K, (x, y) 7→ xy
derart, dass
K
mit
0
(Addition),
(Multiplikation)
und Addition eine abelsche Gruppe ist, und
Multiplikation eine abelsche Gruppe ist, und die beiden
K ∗ := K \ {0}
Distributivgesetze
mit
1
und
x(y + z) = xy + xz
(x + y)z = xz + yz
∀ x, y, z ∈ K
gelten. Um die Klammerungen zu reduzieren, vereinbart man dabei die Konven-
tion Multiplikation vor Addition.
(4.7)
Lemma. Q =
n
p
q
: p ∈ Z, q ∈ N
setzte Element und r−1 =
der Multiplikation.
(4.8)
q
p
o
ist ein Körper: Zu r =
falls p > 0 bzw.
∈ Q ist −r =
• xy = 0 ⇒ x = 0
oder
y=0
• x(−y) = (−x)y = −(xy) =: −xy.
Beweise obige Aussagen.
19
−p
q
das entgegenge-
falls p < 0, kurz 1r , das inverse Element bez.
Lemma. Sei K ein Körper. Es gelten folgende Regeln für x, y ∈ K :
• 0x = x0
Üb
−q
−p
p
q
Körper der komplexen Zahlen
Gemäÿ (5) ist
R2
eine additive abelsche Gruppe bez. der Addition
(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
(4.9)
0 = (0, 0) als Nullelement und −(x, y) = (−x, −y) als entgegengesetztes Element. Nun wird auf
R2 auch noch eine Multiplikation erklärt, womit R2 ein Körper gemäÿ Denition (6) wird. Für alle
(x, y), (x0 , y 0 ) ∈ R2 sei
mit
(4.10)
(x, y)(x0 , y 0 ) := (xx0 − yy 0 , xy 0 + yx0 ).
Die Assoziativität und die Distributivgesetze sind leicht nachzuprüfen. Die Kommutativität ist
(1, 0), denn
+ 0 · x) = (x,
(1, 0)(x, y) = (1 · x − 0 · y, 1 · y y). Das
−y
−y
x
x
−1
inverse Element lautet (x, y)
= x2 +y2 , x2 +y2 für (x, y) 6= 0, denn x2 +y2 , x2 +y2 (x, y) =
2
2
xy
−xy
x
− x−y
= (1, 0).
2 +y 2 , x2 +y 2 + x2 +y 2
x2 +y 2
klar. Das Einselement ist
Also ist R2 mit Addition (9) und Multiplikation
Zahlen. Er wird mit C bezeichnet.
(4.11)
ein Körper,
(10)
der Körper der
komplexen
Schreibweisen. Man setzt 1 := (1, 0) für das Einselement und i := (0, 1) für die imaginäre
Einheit. Dann ist i2 = (0, 1)(0, 1) = (0 · 0 − 1 · 1, 0 · 1 + 1 · 0) = −(1, 0) = −1. Weiter schreibt
man jede komplexe Zahl
z = (x, y) ∈ R2
in der Form
z = x + iy
und nennt Re z
:= x
den
Realteil von z
und Im z
:= y
den
Imaginärteil von z .
Damit rechnet sich leicht formal. So lautet die Addition (9)
z + z 0 = (x + iy) + (x0 + iy 0 ) = x + x0 + i(y + y 0 ).
Das letzte Klammernpaar muss gesetzt werden. Das Produkt (10) ergibt sich durch Ausmultiplizieren
zz 0 = (x + iy)(x0 + iy 0 ) = xx0 − yy 0 + i(xy 0 + yx0 ).
Die zu
z = x + iy konjugiert komplexe Zahl
ist deniert als
z := Re z − i Im z = x − iy,
= Re z,
(4.12)
d.h. Re z
Im z
= −Im z.
Für die komplexe Konjugation gelten folgende leicht zu verizierenden Rechenregeln:
• z + z0 = z + z0
• zz 0 = z z 0
20
• z∈R⇔z=z
• zz = (Re z)2 + (Im z)2 ,
2
2
2
2 2
2
2
denn (x + iy)(x − iy) = x − (iy) = x − i y = x + y .
Schlieÿlich deniert man den
(4.13)
|z| :=
√
q
zz =
Absolutbetrag
(Re )2 + (Im )2 =
von
z ∈ C.
p
x2 + y 2 .
|z|
= Länge des Vektors
z
nach Pythagoras
Dafür gelten die Rechenregeln
• |z| = 0 ⇔ z = 0
• |z| = |z|
• |zz 0 | = |z||z 0 |
Üb
Rechne diese Regeln nach.
Erwähnt sei noch die
Dreiecksungleichung,
die vornehmlich in der Analysis eine wichtige Rolle
spielt.
• |z + z 0 | ≤ |z| + |z 0 |
Später wird eine allgemeinere Aussage bewiesen.
Inversenbildung, Reellmachen des Nenners
z −1 =
1z
z
Re z
Im z
x
y
= 2 =
−i 2 = 2
−i 2
,
zz
|z|
|z|2
|z|
x + y2
x + y2
vgl. nach (10). Dazu rechnen wir abschlieÿend das Beispiel
1−i
(1 − i)(3 + 4i)
3 + 4 − 3i + 4i
7
1
=
=
=
+i .
3 − 4i
32 + 42
25
25
25
21
(4.14)
Denition. Sei K ein Körper. Ein Vektorraum oder linearer Raum über K oder auch
K-Vektorraum ist eine additiv geschriebene abelsche Gruppe V mit einer Verknüpfung
K × V → V,
derart, dass für alle
(α, x) 7→ αx,
α, β ∈ K
• (αβ)x = α(βx)
• (α + β)x = αx + βx
Die Elemente von
(1
V
∈K
heiÿen
∗)
x, y ∈ V
Assoziativität

• α(x + y) = αx + αy 
• 1x = x
und
Multiplikation mit Skalaren
Distributivgesetze

Einselement des Körpers).
Vektoren,
die von
K
heiÿen
Skalare.
Meist werden Vektoren mit
lateinischen Buchstaben und Skalare mit griechischen Buchstaben bezeichnet. Es gilt die Konvention
Multiplikation vor Addition. Damit kann man auf manche Klammerung verzichten. Ein
C-Vektorraum
(4.15)
heiÿt
R-
bzw.
reeller bzw. komplexer Vektorraum. VR steht in Zukunft für Vektorraum.
Beispiel. Die wichtigsten reellen bzw. komplexen VR sind Rn bzw. Cn für n ∈ N. Allgemeiner,
ist
K
ein Körper, dann ist
Kn
ein
K -VR
mit der komponentenweise erklärten Addition
x + x0 = (x1 , . . . , xn ) + (x01 + . . . + x0n ) := (x1 + x01 , . . . , xn + x0n )
und Multiplikation mit Skalaren
λx = λ(x1 , . . . , xn ) := (λx1 , . . . , λxn ).
Insbesondere ist
K = K1
ein
K -VR.
Beachte, dass die Komponenten
Die Gültigkeit der VR-Axiome veriziert man direkt.
x1 , . . . , xn von x ∈ K n mit lateinischen Buchstaben bezeichnet
werden, obwohl es Körperelemente sind.
(4.16)
Beispiel.
Eine Verallgemeinerung von
für einen Körper
K
Kn
und einer nichtleeren Menge
man die Linearkombination
f + λg
K VR K X
X . Für f, g
ist der
f :X →K
λ ∈ K deniert
x→
7 f (x) + λ g(x). Es
aller Funktionen
X und
aus K
punktweise, d.h. als die Funktion
gilt also
(f + λ g)(x) = f (x) + λ g(x)
Der Nullvektor
0 von K X
ist die Funktion auf
Gültigkeit der VR-Axiome für
∗)
α alpha , β
KX
X , die konstant den Wert 0 ∈ K
veriziert man leicht.
beta 22
∀x ∈ X.
annimmt. Die
Üb
(4.17)
Inwiefern ist der
K -VR K X
aus (16) eine Verallgemeinerung von
Sei V K -VR. Dann gilt ∀ x ∈ V , α ∈ K
• 0x = 0
• α0=0
• αx = 0 ⇒ α = 0
oder
x=0
• −x = (−1) x
• (−α) x = −(α x) = α (−x)
Achtung! Es treten zwei verschiedene Nullen auf:
Üb
0∈K
Beweise obige Gleichungen.
23
und
0∈V.
K n?
5 Lineare Unabhängigkeit, Basen, Dimension
In diesem Kapitel werden allgemeine strukturelle Eigenschaften eines Vektorraums untersucht.
Im Raum
x, y ∈ E
R3
E durch
λ ∈ R gilt:
hat eine Ebene
und jedem Skalar
den Ursprung die Eigenschaft, dass mit je zwei Vektoren
x + λy ∈ E.
Auch jede Gerade durch den Ursprung hat diese Eigenschaft. Gibt es noch andere Teilmengen von
R3
mit dieser Eigenschaft?
(5.1)
Denition.
(UVR) von
(5.2)
Sei
V,
V
ein
K VR und W ⊂ V mit 0 ∈ W . Dann
x, y ∈ W, λ ∈ K gilt: x + λy ∈ W .
heiÿt
W Untervektorraum
wenn für alle
Lemma. Jeder UVR W eines K VR V ist selbst ein K VR bez. der auf V erklärten VR
Verknüpfungen.
Beweis.
x + y = x + 1y und λx = 0 + λx für x, y ∈ W, λ ∈ K bilden nach
W ab. Auÿerdem ist −x = (−1)x ∈ W für x ∈ W . Insbesondere ist W eine abelsche Gruppe. Die
übrigen VR-Axiome gelten, weil sie für V gelten.
Die VROperationen
W gegeben, dann ist oensichtlich U ein UVR von V . Es sind {0} und
V . Ebenen und Geraden in R3 durch 0 ∈ R3 sind (neben {0} und R3 )
3
3
die einzigen UVR von R . Das wird noch begründet. Eine Gerade in R durch den Nullpunkt ist
3
3
3
jede Teilmenge G = {λ x0 : λ ∈ R} von R mit x0 ∈ R \ {0}. Je zwei Vektoren x1 , x2 aus R , die
nicht auf einer Geraden durch den Nullpunkt liegen, d.h. {x1 , x2 } 6⊂ G ∀ G, spannen eine Ebene
E = {λ1 x1 + λ2 x2 : λ1 , λ2 ∈ R} ⊂ R3 durch den Nullpunkt auf. Zwei weitere Beispiele für UVR
U
Ist in (2) ein UVR
V
von
(triviale) UVR von
folgen.
(5.3)
Beispiel. Seien K ein Körper und α1 , . . . , αn ∈ K . Dann ist
(
W :=
x ∈ Kn :
n
X
)
αi xi = 0
i=1
6= 0 heiÿt W Hyperebene.
P
Beweis. Es ist 0 ∈ W , denn 0 = (0, . . . , 0) und ni=1 αi 0 = 0. Seien x, y ∈ W , λ ∈ K . Dann ist
x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) und somit λy = (λy1 , . . . , λyn ), x + λy = (x1 + λy1 , . . . , xn + λyn ).
Es ist zu prüfen, ob x + λy ∈ W . Rechnen in K liefert:
ein UVR von K n .
Im Fall (α1 , . . . , αn )
n
X
n
X
i=1
αi (xi + λyi ) =
(αi xi + λαi yi )
i=1
= α1 x1 + λα1 y1 + . . . + αn xn + λαn yn
n
n
X
X
x,y∈W
=
αi xi + λ
αi yi = 0 + λ0 = 0 ⇒ x + λy ∈ W.
i=1
i=1
24
(5.4)
Beispiel. Sei X eine Menge, K ein Körper. Dann ist K (X) := f ∈ K X : f −1 (K \ {0})) ist endlich
ein UVR von
Üb
(5.5)
a)
b)
Üb
KX .
Weise (4) nach.
Lemma und Denition. Sei V ein VR.
Der Durchschnitt von beliebig vielen UVR von V ist ein UVR von V .
T
Sei M ⊂ V und hM i := {W : W ⊂ V UVR, W ⊃ M }. Dann ist hM i ein UVR von V mit
folgender Eigenschaft: Ist W ein UVR von V mit M ⊂ W , dann ist hM i ⊂ W . Daher ist hM i
der kleinste UVR von V , der M enthält. Er heiÿt der von M erzeugte UVR.
Weise die Aussagen von (5) nach. Zu b) beachte, dass
und damit
hM i
V ∈ {W : W ⊂ V
UVR ,
W ⊃ M} =
6 ∅
deniert ist.
Im Folgenden bedeutet die Schreibweise
(5.6)
x1 , . . . , xn ∈ V ,
dass
(xi )i=1,...,n
eine Familie in
V
ist.
Denition. Sei V ein K -VR, seien x1 , . . . , xn ∈ V und sei x ∈ V . Dann ist x eine Linearkombination der Vektoren x1 , . . . , xn , wenn es α1 , . . . , αn ∈ K gibt derart, dass
x = α1 x1 + α2 x2 + . . . + αn xn =
n
X
αi xi .
i=1
(5.7)
Denition. Sei V
ein
K -VR und M ⊂ V , M 6= ∅.
M
Dann heiÿt die Menge aller Linearkombi-
nationen von Vektoren aus
(
Span M
:=
x ∈ V : ∃ n ∈ N, x1 , . . . , xn ∈ M, α1 , . . . , αn ∈ K
mit
x=
n
X
)
αi xi
i=1
M aufgespannte lineare Raum oder die lineare Hülle von M . Man schreibt auch
Lin M füt Span M . Es wird Span ∅ = {0} gesetzt.
der von
(5.8)
Satz. Es gilt: Span M = hM i.
Beweis. Oensichtlich ist M ⊂ SpanM . Weiter ist Span M
ein UVR, denn 0 ∈ Span M (klar) und
Pn
x, y ∈ Span M , λ ∈ K , dann existieren x1 , . . . , xn ∈
M
und α1 , . . . , αn ∈ K mit x =
Pm
Pn i=1 αi xi
sowie y1 , . . . , ym ∈ M und β1 , . . . , βm ∈ K mit y =
j=1 βj yj , weshalb x + λy =
i=1 αi xi +
Pm
j=1 λβj yj ∈ Span M .
sind
Ist nun W ein UVR mit M ⊂ W , dann gilt für x1 , . . . xn ∈ M : (. . . (((α1 x1 ) + α2 x2 ) + α3 x3 ) +
. . . + αn xn ) ∈ W . Also gilt W ⊃ Span M . Hieraus folgt die Behauptung.
(5.9)
Denition und Lemma. Seien U , W UVR des VR V . Setze
U + W := {z ∈ V : ∃ x ∈ U, y ∈ W mit z = x + y} .
Oensichtlich ist U + W = Span (U ∪ W ).
W.
Der UVR
U +W
Summe
heiÿt die (VR-)
von
U
und
Entsprechend deniert man allgemein die Summe von endlich vielen VR. Für
{αx : α ∈ K}. Kx
ist ein UVR. Hiermit erhält man speziell:
25
x ∈ V
sei
Kx :=
(5.10)
(5.11)
Lemma. Für x1 , . . . xn ∈ V gilt
Denition. Seien V ein VR, W ⊂ V
menge von W , wenn Span M = W .
Ist Span {x1 , . . . , xn }
(5.12)
Span {x1 , . . . , xn }
=V,
dann sagt man,
= Kx1 + Kx2 + . . . + Kxn .
ein UVR und
M ⊂ W.
Dann heiÿt
M Erzeugenden-
x1 , . . . , xn erzeugen V .
Beispiel. In K n seien e1 := (1, 0, . . . , 0), e2 := (0, 1, . . . , 0),..., en := (0, . . . , 0, 1)
kanonischen Einheitsvektoren. Diese erzeugen K n , denn für x ∈ K n gilt:
x = (x1 , . . . , xn ) = x1 e1 + x2 e2 + . . . + xn en =
n
X
die sog.
xi ei ∈ Ke1 + Ke2 + . . . + Ken .
i=1
(5.13)
a)
Lemma. Seien V
Üb
A, B ⊂ V .
Dann gelten:
B ⊂ Span A ⇔ Span (A ∪ B) = Span A.
b) Span (Span A)
c)
ein VR und
W
UVR
= Span A.
⇔ Span W = W .
Weise (13) nach.
paarweise verschieden,
mit i 6= j . Man sagt auch, die Familie (xi )i=1,...,n ist injektiv.
Die Vektoren
(5.14)
x1 , . . . , xn ∈ V
Denition. Sei V
ein
heiÿen
derart, dass
n
X
xi 6= xj
i, j ∈ {1, . . . , n}
wenn gilt: Sind
α1 , . . . , αn ∈ K
K -VR.
Familie (xi )i=1,...,n
a) Die
für
wenn
αi xi = 0,
in
V
heiÿt
dann folgt
linear unabhängig,
α1 = α2 = . . . = αn = 0.
i=1
Teilmenge M ⊂ V
b) Die
M
heiÿt
linear unabhängig,
wenn jede endliche injektive Familie in
linear unabhängig ist.
Sprechweise. Man sagt in (14) a) etwas lax, dass x1 , . . . , xn ∈ V
linear unabhängig sind. Entspre-
chend heiÿt (14) b), dass je endlich viele paarweise verschiedene Vektoren aus
M
linear unabhängig
sind.
(5.15)
Beispiel. In K n sind die kanonischen Einheitsvektoren (s. (12)) linear unabhängig.
Beweis.
Also gilt
Üb
Pn
= 0 für gewisse α1 , . . . , αn ∈ K . Nun ist
(α1 , . . . , αn ) = 0 = (0, . . . , 0), d.h. α1 = 0, . . . , αn = 0.
Sei
i=1 αi ei
Pn
i=1 αi ei
= (α1 , . . . , αn ),
Zeige, dass Monome, Splines oder trigonometrische Monome linear unabhängige Mengen von
Funktionen bilden.
(5.16)
s. (12).
Lemma. Es sind äquivalent:
(i)
(ii)
(iii)
x1 , . . . , xn sind linear unabhängig.
Keiner der Vektoren xi ist Linearkombination der anderen.
Die Darstellung eines Vektors als Linearkombination der xi ist eindeutig.
26
Beweis.
P
Pn
⇒ (ii): Angenommen xi0 =
i=1,i6=i0 βi xi mit βi ∈ K . Setze βi0 := −1. Dann ist
n
i=0 βi xi = 0, wobei (β1 , . . . , βn ) 6= 0. Das ist ein Widerspruch zu (i).
Pn
(ii) ⇒ (i): Angenommen es ist
i=0 αi xi = 0 mit (α1 , . . . , αn ) 6= 0. Dann existiert i0 mit ai0 6= 0.
(i)
Damit folgt
n
X
−αi
xi
αi0
xi0 =
i=1,i6=i0
im Widerspruch zu (ii).
(i)
i
⇒
(iii): Sei
x∈V
mit
Pn
i=1 αi xi
Pn
i=1 βi xi
=
⇒
Pn
i=1 (αi
− βi )xi = 0 ⇒ αi − βi = 0
für alle
wegen (i), was (iii) bedeutet.
(iii)⇒ (i): Wäre
0 =
Pn
i=1 αi xi mit
Darstellungen als Linearkombination der
(α1 , . . . , αn ) 6= 0, dann hätte 0 ∈ V
xi im Widerspruch zu (iii).
Insbesondere gilt für linear unabhängige Vektoren
x1 , . . . , xn ,
dass kein
xi = 0
zwei verschiedene
ist und dass die
xi
paarweise verschieden sind. Beides reicht aber natürlich nicht für die lineare Unabhängigkeit, denn
z.B. für
x1 ∈ V \ {0}, α ∈ K \ {0, 1}
ist
x1 6= αx1 =: x2 6= 0
und dennoch
x1 + − α1 x2 = 0.
Allgemeiner als (16) ist das folgende Lemma.
(5.17)
Lemma. Sei V ein VR und M ⊂ V . Dann sind äquivalent:
(i)
(ii)
(iii)
Beweis.
αx 6= 0
M ist linear unabhängig.
Keiner der Vektoren x ∈ M ist Linearkombination der Vektoren aus M \ {x}.
Die Darstellung eines Vektors als Linearkombination von Vektoren aus M ist eindeutig.
Jedes
y ∈
Span M läÿt sich in der Form
nur für endlich viele
x ∈ M.
y =
P
x∈M
αx x
schreiben, wobei
αx ∈ K
und
Damit ist die Summe wohldeniert. Diese Schreibweise ist sehr
bequem.
P
y = x∈M βx x mit βx ∈ K \ {0} nur für endlich viele x ∈ M . Dann ist
0 = x∈M (αx − βx )x. Weil M linear unabhängig ist, folgt αx − βx = 0 ∀ x ∈ M .
P
(iii) ⇒ (i): Wäre 0 =
x∈M αx x mit {x ∈ M : αx ∈ K \ {0}} endlich aber nicht leer, dann hätte
0 ∈ Span M zwei verschiedene Darstellungen im Widerspruch zu (iii).
⇒
P
(i)
(i)
(5.18)
(5.19)
(5.20)
⇔
(iii): Sei nun auch
(ii): Der Beweis verläuft wie der zu (15), (i)
Denition. Sei V
ein VR und
M ⊂V.
• M
ist linear unabhängig
• M
ist eine Erzeugendenmenge von
⇔
(ii).
Dann heiÿt
M
eine
Basis von V , wenn gelten:
V.
Beispiel. Die Menge der kanonischen Einheitsvektoren e1 , . . . , en ist eine Basis von K n , die
kanonische Basis oder Standardbasis. Das folgt aus (12),(15).
Beispiel. Sei X 6= ∅ eine Menge. Zu y ∈ X betrachte ey : X → K , ey (x) :=
1 falls x = y
.
0 falls x 6= y
Dann ist {ey : y ∈ X} eine Basis von K (X) .
Üb
(5.21)
Weise (20) nach.
Satz
und
Denition. Es ist M ⊂ V genau dann eine Basis von V , wenn jeder Vektor eine
eindeutige Darstellung als Linearkombination von Vektoren aus M hat, d.h. wenn es zu jedem
y ∈ V eindeutige
αx ∈ K , x ∈ M , mit αx = 0 bis auf endlich viele x ∈ M gibt derart,
P
dass y = x∈M αx x. Die zu y ∈ V eindeutig bestimmten Koezienten αx , x ∈ M , sind die
Koordinaten von y bez. der Basis M .
27
Beweis.
M
Ist
eine Basis, dann folgt die Behauptung aus
Umgekehrt gilt ebenfalls
(5.22)
V =
Span M und (17), (i)⇒(iii). Wende (17), (iii)⇒(i) an.
V = Span M .
Beispiel. Für x = (x1 , . . . , xn ) ∈ K n sind x1 , . . . , xn die Koordinaten von x bez. der kanonischen Basis.
(5.23)
Basisergänzungssatz. Seien x1 , . . . , xn ∈ V linear unabhängig. Weiter seien y1 , . . . , ym ∈ V
derart, dass Span {x1 , . . . , xn , y1 , . . . , ym } = V . Dann lassen sich die x1 , . . . , xn durch Hinzunahme von Vektoren aus {y1 , . . . , ym } zu einer Basis von V ergänzen.
Beweis. Ist bereits Span {x1 , . . . , xn } = V , dann gilt die Behauptung. Andernfalls ist {y1 , . . . , ym } 6⊂
Span {x1 , . . . , xn } nach (13) a). Sei
j1 ∈ {1, . . . , m}
der kleinste Index mit
/ Span {x1 , . . . , xn }.
yj1 ∈
Dann gelten:
a)
x1 , . . . , xn , yj1
sind linear unabhängig.
b) Span {x1 , . . . , xn , yj1 , yj1 +1 , ym }
=V.
Pn
Zum Nachweis von a) nehme an, dass (
i=1 αi xi ) + βyj1 = 0 mit (α1 , . . . , αn , β) 6= (0, . . . , 0). Dann
Pn
ist β 6= 0, weil sonst
α
x
=
0
mit
(α1 , . . . , αn ) 6= (0, . . ., 0) im
i=1 i i
Widerspruch zur linearen
Pn
−αi
Unabhängigkeit von x1 , . . . , xn . Damit ist jedoch yj1 =
xi ∈ Span {x1 , . . . , xn } im
i=1
β
Widerspruch zur Wahl von yj1 .
Zum Nachweis von b) beachte, dass {y1 , . . . , yj1 −1 } ⊂ Span {x1 , . . . , xn } und damit bereits V =
Span {x1 , . . . , xn , yj1 , . . . , ym } nach (13) a).
Die Behauptung folgt nun, indem man dieses Argument höchstens m mal wiederholt.
Üb
Sei
M ⊂V
linear unabhängig und
y∈V
mit
y∈
/ Span M . Zeige: M ∪{y} ist linear unabhängig.
In einer etwas laxen Sprechweise sagt man, dass
xi
{x1 , . . . , xn }
paarweise verschieden sind und
(5.24)
x1 , . . . , xn ∈ V
eine Basis von
V
sind, wenn die
eine Basis ist.
Austauschlemma. Seien x1 , . . . , xn und y1 , . . . , xm Basen von V . Dann gibt es zu jedem
i ∈ {1, . . . , n} ein j ∈ {1, . . . , m} derart, dass aus x1 , . . . , xn eine Basis entsteht, wenn xi
durch yj ersetzt wird.
Beweis.
Ohne Einschränkung sei
x1 ∈ V =
Span {y1 , . . . , ym }
Also existiert
j ∈ {1, . . . , m}
⊂
i = 1.
Dann ist
{y1 , . . . , ym } 6⊂
Span {x2 , . . . , xn }, da sonst
Span {x2 , . . . , xn } im Widerspruch zu
mit
yj ∈
/
Span {x2 , . . . , xn }. Daraus folgt,
x1 ∈
/ Span {x2 , . . . , xn }.
dass yj , x2 , . . . , xn linear
unabhängig sind (s. Beweis von a) in (23)).
Es bleibt Span {yj , x2 , . . . , xn }
K mit yj =
Pn −αi i=2
α1
folgt.
Üb
(5.25)
Pn
i=1 αi xi . Dabei
xi . Also ist {x1 , x2 , . . . , xn } ∈ Span {yj , x2 , . . . , xn }, woraus die Behauptung mit (13) a)
V ein
y ∈ Span M
und
x, y ∈ V und M ⊂ V linear unabhängig. Zeige
y∈
/ Span M \ {x} ⇒ x ∈ Span (M \ {x}) ∪ {y}.
Denition
und
Bemerkung.
Seien
VR,
zeugendenmenge
Üb
= V zu zeigen. Weil Span{x1 , . . . , xn } = V , gibt es α1 , . . . , αn ∈
ist α1 =
6 0, weil y ∈
/ Span {x2 , . . . , xn }. Damit gilt x1 = α11 yj +
Sei
M
von
V
Ein VR
gibt.
Nach
V
heiÿt
(23)
endlich erzeugt,
die folgende Implikation:
wenn es eine endliche Er-
Basisergänzungssatz enthält M eine Basis.
N ⊂ V, N 6= ∅, eine endliche Menge. Zeige: N enthält eine maximale linear unabhängige
M , d.h. für jede linear unabhängige Menge M 0 mit M ⊂ M 0 ⊂ N gilt M = M 0 .
Teilmenge
(5.26)
Satz und Denition. Sei V ein endlich erzeugter VR. Dann sind alle Basen von V endlich
mit gleicher Anzahl von Elementen. Diese heiÿt Dimension von V und wird mit dim V
bezeichnet.
28
Beweis. Nach (25) besitzt V
eine endliche Basis
x1 , . . . , xn .
y1 , . . . ym ∈ V eine weitere endliche Basis. Angenommen n > m. Nach (24) kann jedes xi
yj ausgetauscht werden. Es entsteht eine Basis, in der ein yj zweimal vorkommt (da
n > m). Dies ist ein Widerspruch. Ebenso wird m > n ausgeschlossen. Also ist m = n.
a) Sei
gegen ein
b) Seien nun
= V,
y1 , . . . , y r ∈ V
linear unabhängig. Da Span {y1
y1 , . . . , y r
r ≤ n.
können nach (23) die
werden. Mit a) folgt daher
durch Vektoren
. . . , yr , x1 , . . . , xn } ⊃ Span {x1 , . . . , xn }
aus x1 , . . . , xn zu einer Basis ergänzt
Aus a) und b) folgt die Behauptung.
(5.27)
Beispiel. Sei V ein K -VR und x ∈ V , x 6= 0. Dann ist dim Kx = 1.
(5.28)
Beispiel. Wegen
(5.29)
Üb
ist dim K n = n. Insbesondere ist jedes M ⊂ K n mit mehr als n
Elementen linear abhängig.
(19)
Denition. Ein VR V heiÿt endlich dimensional genau dann, wenn er endlich erzeugt ist.
Andernfalls heiÿt V unendlich dimensional und man setzt dim V := ∞.
Sei
(α1 , α2 ) ∈ R2 \ {0}
R2 , eine Ebene. Gebe eine
Üb
ein UVR von
Basis ist eine maximale linear unabhängige Menge.
abhängig falls M 6= N .
Seien
V
ein VR und
W ⊂V
Sei V ein VR und M ⊂ N ⊂ V .
M ist Basis von V ⇔ M ist linear unabhängig und N ist linear
ein UVR. Zeige, dass dim W
•
dim V
< ∞, W 6= V ⇒ dim W < dim V .
•
dim V
< ∞,
dim W
Seien
V
ein VR und
U, W
N ∪ {0}, ∞ + ∞ = ∞.
Weiter zeige:
W 6= V
und dim W
= dim V (= ∞).
UVR. Zeige die folgende Dimensionsformel
dim (U
auch für den Fall dim U
≤ dim V .
= dim V ⇒ W = V .
Schlieÿlich nde ein Beispiel mit
Üb
E
Sei V ein VR und N ⊂ M ⊂ V . Zeige
M ist Basis von V ⇔ Span M = V und Span N 6= V falls N 6= M .
Zeige die folgende Äquivalenz:
Üb
Nach (3) ist
Basis ist eine minimale Erzeugendenmenge.
folgende Äquivalenz:
Üb
E := {x ∈ R2 : α1 x1 + α2 x2 = 0}.
Basis von E an.
und
+ W ) + dim (U ∩ W ) = dim U + dim W
= ∞
oder dim W
= ∞,
wenn man vereinbart
Insbesondere folgt im Fall dim U
<∞
∞+n = ∞ ∀ n ∈
< ∞:
und dim W
U ∩ W = {0} ⇔ dim (U + W ) = dim U + dim W.
Jeder VR
6= {0}
hat eine Basis. Um dies beweisen zu können, benötigt man ein mengentheoreti-
sches Hilfsmittel, das sog. Zornsche Lemma, was äquivalent zum Auswahlaxiom ist.
(5.30)
Denition. Sei X
eine Menge. Eine
Eigenschaften. Für alle
• x≤x
x, y, z ∈ X
Halbordnung ≤ auf X
gilt:
(Reexivität)
• x ≤ y, y ≤ x ⇒ x = y
(Antisymmetrie)
• x ≤ y, y ≤ z ⇒ x ≤ z
(Transitivität)
29
ist eine Relation mit folgenden
Y ⊂ X . Dann heiÿt Y total geordnet
y ≤ y 0 oder y 0 ≤ y .
Sei
oder eine
Kette, wenn für alle y, y 0 ∈ Y
stets gilt
Y ⊂ X . Dann heiÿt a ∈ X eine obere Schranke von Y , wenn y ≤ a für alle y ∈ Y . Ein
Element b ∈ X ist ein maximales Element von X , wenn aus x ∈ X und b ≤ x folgt x = b.
Sei
(5.31)
Beispiel. Sei X 6= ∅ eine Menge. Oensichtlich ist die gewöhnliche
Mengeninklusion ⊂ eine
S
Halbordnung auf P(X). Sei Y ⊂ P(X). Dann ist A := {Y : Y ∈ Y} eine obere Schranke
von Y . K := {{1, . . . , n} : n ∈ N} ist eine Kette in P(N).
Im allgemeinen hat nicht jede Teilmenge einer halbgeordneten Menge, auch nicht eine Kette, eine
obere Schranke.
(5.32)
Zornsches Lemma. Eine nichtleere halbgeordnete Menge, in der jede Kette eine obere Schran-
ke besitzt, hat ein maximales Element.
(5.33)
Basisexistenzsatz. Jeder VR V 6= {0} besitzt eine Basis.
Beweis. Sei L die Menge aller linear unabhängigen Teilmengen in V . Ist x ∈ V \ {0}, dann ist {x}
L 6=
S ∅. L ist halbgeordnet mit der Mengeninklusion.
K ∈ L eine Kette. Setze L := {K : K ∈ K}. Dann ist K ⊂ L ∀ K ∈ K. Zeige zunächst, dass
L linear unabhängig ist. Dazu seien x1 , . . . , xn ∈ L paarweise verschieden. Dazu existieren Ki ∈ K
mit xi ∈ Ki für i = 1, . . . , n. Weil K eine Kette ist, gibt es ein K ∈ {K1 , . . . , Kn } mit Ki ⊂ K und
somit xi ∈ K für i = 1, . . . , n. Da K ∈ L, sind x1 , . . . , xn linear unabhängig.
Dies beweist, dass L ∈ L eine obere Schranke für K ist. Somit existiert nach (32) ein maximales
Element M in L. Dies ist eine Basis von V . Dazu bleibt zu zeigen, dass M eine Erzeugendenmenge
von V ist.
0
Angenommen es ist Span M 6= V . Sei y ∈ V \ Span V . Dann ist aber M := M ∪ {y} linear
unabhängig (s. Üb. nach (23)). Dies ist ein Widerspruch zur Maximalität von M .
linear unabhängig und damit ist
Sei
Üb
Basisergänzungssatz. Sei V 6= {0} ein VR. Seien weiter L ⊂ V
N⊂
V derart, dass Span (L ∪ N ) = V . Zeige: Es existiert eine Basis M von V mit L ⊂ M ⊂ L ∪ N .
Tipp:
Betrachte
L := {X ⊂ V : L ⊂ X ⊂ L ∪ N, X
geninklusion als partielle Ordnung.
30
linear unabhängig und
ist linear unabhängig} mit der Men-
6 Lineare Abbildungen
Lineare Abbildungen stehen im Mittelpunkt aller unseren weiteren Untersuchungen. Seien
W
Abbildung f : V 7→ W
KVR. Eine
f (x + λx0 ) = f (x) + λf (x0 )
heiÿt
für alle
linear, wenn
V
und
x, x0 ∈ V, λ ∈ K.
f (0) = 0 und mit Induktion
!
n
n
X
X
αi xi =
αi f (xi )
für alle n ∈ N, αi ∈ K, xi ∈ V.
Es folgt sofort
f
i=1
i=1
Beispiele und grundlegende Eigenschaften
(6.1)
Beispiel.
Sei
V =W
und
α0 ∈ K .
Setze
f : V → V, f (x) := α0 x.
Dann ist
f
linear, denn
nach Denition ist
f (x + λy) = αo (x + λy) = α0 x + λα0 y, f (x) = α0 x, f (y) = α0 y
und daher
(6.2)
f (x + λy) = f (x) + λf (y).
f (z) = α0 z
(6.3)
f
eine
Homothetie.
Lemma. Sei f : K → K linear. Dann existiert α0 ∈ K mit f (z) = α0 z für alle z ∈ K .
Beweis. Sei z ∈ K . Weil f
gilt
Man nennt
für alle
linear ist, folgt
z ∈ K.
f (z) = f (z1) = zf (1) = f (1)z .
Setze
α0 := f (1).
Dann
.
Beispiel.
Die Projektion auf die i-te Komponente
{1, . . . , n}
ist linear, denn
pri : K n → K, pri (x) := xi ,
für
i ∈
x + λy = (x1 , . . . xn ) + λ(y1 , . . . , yn ) = (x1 + λy1 , . . . , xn + λyn )
⇒ pri (x + λy) = xi + λyi = pri (x) + λpri (y).
(6.4)
Beispiel. Die Abbildung f : C3 → C3 , f (x1 , x2 , x3 ) := (x2 , 0, x1 ), ist linear, denn
(x1 , x2 , x3 ) + λ(y1 , y2 , y3 ) = (x1 + λy1 , x2 + λy2 , x3 + λy3 )
f↓
f↓
f↓
(x2 , 0, x1 ) + λ(y2 , 0, y1 ) =
(x2 + λy2 , 0, x1 + λy1 )
ist oenbar richtig.
Üb
Translationen sind nicht linear. Seien V ein VR und a ∈ V \ {0} fest. Dann heiÿt ta : V →
V, ta (x) := x + a, die Translation um a. Sie ist nicht linear, denn
ta (2x) = 2x + a, 2ta (x) = 2(x + a) = 2x + 2a ⇒ ta (2x) 6= 2ta (x).
a6=0
Üb
Sei, wie üblich (s. (4.16)),
V := RR
versehen mit den punktweise denierten Vektorraumver-
(f + λg)(x) = f (x) + λg(x) für alle x ∈ R. Sei
F : V → V, (F (f ))(x) := ϕ(x)f (x) für alle x ∈ R, linear ist.
knüpfungen, d.h. denitionsgemäÿ ist
ϕ∈
RR fest. Zeige, dass
31
weiter
Üb
(6.5)
V := K X der VR mit den punktweise denierten Verknüpfungen, Y eine
Y der entsprechende VR. Weiter sei ϕ : Y → X eine Abbildung.
weitere Menge und W := K
Zeige: F : V → W, F (f ) := f ◦ ϕ ist eine wohldenierte lineare Abbildung.
Seien
X
eine Menge,
Satz. Seien x1 , . . . , xn eine Basis in V und y1 , . . . , yn Vektoren aus W . Dann gibt es genau
eine lineare Abbildung f : V → W derart, dass f (xi ) = yi für alle i ∈ {1, . . . , n}.
Beweis.
. Sei x ∈ V .
Pnf, g : V → W linear mit f (xi ) = g(xi ) = yi ∀iP
g linear sind, folgt f (x) = f ( ni=1 αi xi ) =
Dann gibt es αi ∈ K mit x =
Pn i=1 αi xi . Weil fPund
Pn
Pn
n
i=1 αi g(xi ) = g ( i=1 αi xi ) = g(x). Weil x ∈ V beliebig ist, folgt
i=1 αi yi =
i=1 αi f (xi ) =
f = g.
Zur Existenz beachte, dass obige Koordinaten αi ∈ K von x ∈ V bez. der Basis x1 , . . . , xn
Pn
Pn
eindeutig bestimmt sind. Ausgehend von x =
i=1 αi xi setze f : V → W, f (x) :=
i=1 αi yi .
Damit ist f wohldeniert und f (xi ) = yi ∀i. Es bleibt die Lineraität von f zu zeigen:
!
!
n
n
n
X
X
X
f (x + λx0 ) = f
αi xi + λ
αi0 xi = f
(αi + λαi0 )xi .
Zur Eindeutigkeit seien
i=1
f
Letzteres ist nach Denition von
n
X
i=1
i=1
gleich
(αi +
λαi0 )yi
i=1
=
n
X
αi yi + λ
i=1
n
X
αi0 yi ,
i=1
was wieder denitionsgemäÿ gleich ist
f
n
X
!
αi xi
+ λf
i=1
n
X
!
αi0 xi
= f (x) + λf (x0 ).
i=1
Üb
Seien
V, W
K-VR,
M ⊂V
wann
f
(yx )x∈M (irgend)eine Familie in W . Zeige: Dann
f : V → W mit f (x) = yx für alle x ∈ M . Untersuche,
eine Basis und
gibt es genau eine lineare Abbildung
injektiv, surjektiv oder bijektiv ist.
Nach (5) und, allgemeiner, nach obiger Übung ist also eine lineare Abbildung durch ihre Werte auf
einer Basis bereits eindeutig bestimmt.
Üb
(6.6)
x1 := (1, 1, 1), x2 := (i, 1, 1), x3 := (0, i, 0) bilden eine Basis in C3 . Weiter seien y1 :=
(5i, 0, 1), y2 := (0, 0, 0), y3 := (0, 1 + i, 0). Nach (5) gibt es genau eine
lineare Abbildung von
C3 in C3 mit f (xi ) = yi für i = 1, 2, 3. Man berechne f (i, 1, i + 1) .
Zeige:
Denition. Sei f : V → W
f −1 ({0})
(6.7)
=:
Kern (f )
⊂V
linear. Dann heiÿen
der
Kern von f .
f (V ) =:
Bild (f )
⊂W
das
Bild von f
und
Lemma. Bild(f ) bzw. Kern(f ) ist ein UVR von W bzw. V.
Beweis.
f (0) = 0 ∈ Bild (f ). Seien y, y 0 ∈ Bild (f ). Dann existieren x, x0 ∈ V mit f (x) =
y,
=
λ ∈ K folgt für x + λx0 ∈ V wegen der Linearität f (x + λx0 ) = f (x) + λf (x0 ) =
y + λy 0 ∈ Bild (f ). Also ist Bild(f ) ein UVR von W .
−1 ({0}) = {x ∈ V : f (x) = 0} ist 0 ∈ Kern (f ) oensichtlich. Seien x, x0 ∈
Für den Kern (f ) = f
0
0
0
Kern (f ) und λ ∈ K . Dann ist f (x + λx ) = f (x) + λf (x ) = 0 + λ0 = 0, weshalb x + λx ∈ Kern (f ).
Also ist Kern (f ) ein UVR von V.
f (x0 )
Es ist
y 0 . Mit
Allgemeiner gilt
32
(6.8)
Lemma. Seien f : V → W linear und V 0 ⊂ V und W 0 ⊂ W UVR. Dann ist f (V 0 ) UVR von
W und f −1 (W 0 ) UVR von V.
Üb
(6.9)
Weise (6.8) nach.
Denition und Lemma. Sei f : V → W
Rang von f . Sei dim W < ∞. Dann gilt:
f
surjektiv
Beweis. Zur nicht trivialen Richtung ⇐
dim W , ist nach (5.23), (5.26)
(6.10)
y1 , . . . , y r
sei
linear. Dann heiÿt Rang (f )
⇐⇒
Rang(f )
y1 , . . . , y r
=
dim Bild (f ) der
dim W.
eine Basis von Bild
bereits eine Basis von
:=
W
(f ). Da r = Rang (f ) =
= W.
und damit Bild (f )
Lemma. Sei f : V → W linear. Dann gilt:
f
injektiv
⇐⇒
Kern (f )
= {0}.
Beweis. ⇒
Sei x ∈ Kern (f ). Dann ist f (x) = 0. Es ist auch f (0) = 0. Weil f injektiv ist, folgt
x = 0. ⇐ Seien x, x0 ∈ V mit f (x) = f (x0 ). Dann ist 0 = f (x) − f (x0 ) = f (x − x0 ). Weil nun
0
0
Kern (f ) = {0}, ist x − x = 0, d.h. x = x .
(6.11)
Beispiel. Die Abbildung f : K n → K m , f (x1 , . . . , xn ) := (
ist linear mit Rang(f ) = 1 und dim Kern(f ) = n − 1.
Pn
i=1 xi ,
Pn
i=1 xi , . . . ,
Pn
i=1 xi )
Beweis.
Die Linearität ist leicht nachzuweisen. Oenbar ist Bild(f ) = K(1, 1, . . . , 1). Daher ist
Rang(f
)
=
1. Jetzt wird dim Kern(f ) = n − 1 gezeigt. Es ist Kern(f ) = {(x1 , . . . , xn ) ∈ K n :
Pn
i=1 xi = 0}. Für n = 1 ist Kern(f ) = {0}. Sei nun n > 1. Oenbar liegen x1 := (1, −1, 0, . . . , 0),
x2 := (1, 0, −1, 0, . . . , P
0), . . . , xn−1 :=P(1, 0, . . . , 0, −1) in Kern(f ). Weiter sind x1 , . . . P
, xn−1 linen−1
n−1
n−1
ar unabhängig, denn
i=1 αi =
i=1 αi xi = ( i=1 αi , −α2 , . . . , −αn ) = (0, . . . , 0) impliziert
0, α2 = · · · = αn = 0 und somit auch α1 = 0. Damit ist dim Kern (f ) ≥ n − 1. Andererseits ist
n
Kern (f ) 6= K , weil z.B. (1, 0, . . . , 0) ∈
/ Kern(f ), weshalb dim Kern(f ) < n.
In diesem Beispiel ist dim Kern(f ) + Rang(f )
=
dim
K n.
Das ist ein allgemeiner Sachverhalt, s.
(14).
Üb
Untersuche Bild und Kern für die bisher betrachteten linearen Abbildungen
F : RR → RR , F (f ) = ϕf
f aus (4)
F : K X → K Y , F (f ) = f ◦ ϕ
(6.12)
Lemma. Seien V, W VR, M ⊂ V und f : V → W linear. Dann gilt:
f (Span M ) = Span f (M ).
Insbesondere ist f (M ) eine Erzeugendenmenge von W , wenn M eine solche von V ist und f
surjektiv ist.
Üb
(6.13)
Weise (12) nach.
Lemma. Seien V, W VR und f : V → W linear und injektiv. Weiter seien x1 , . . . , xn linear
unabhängig in V . Dann sind f (x1 ), . . . , f (xn ) linear unabhängig in W .
33
Beweis. Sei
P
P
= 0 für αi ∈ K . Dann folgt: f ( ni=1 αi xi ) = 0 ⇒ ni=1 αi xi = 0 (weil f
injektiv ist) ⇒ (α1 , . . . , αn ) = 0 (weil x1 , . . . , xn linear unabhängig sind). Also sind f (x1 ), . . . , f (xn )
linear unabhängig.
(6.14)
Pn
i=1 αi f (xi )
Dimensionsformel. Sei dim V < ∞ und f : V → W linear. Dann gilt:
dim
V = Rang(f ) +
dim Kern(f ).
Beweis. Weil V
endlich erzeugt ist, ist wegen (12) auch Bild(f ) endlich erzeugt. Damit ist Rang(f ) <
∞. Sei y1 , . . . , yr eine Basis von Bild(f ). Wähle xi ∈ f −1 {yi } für i = 1, . . . , r. Weiter sei
xr+1 , . . . , xr+s eine Basis von Kern(f ) ⊂ V .
Es bleibt zu zeigen, dass x1 , . . . , xr+s eine Basis von V ist. Zunächst zeigen wir die lineare Unabhängigkeit der xi :
0=
r+s
X
αi xi ⇒ 0 = f (0) =
r+s
X
i=1
αi f (xi ) =
i=1
r
X
αi f (xi ) + 0 =
i=1
r
X
αi yi ⇒ α1 = α2 = · · · = αr = 0
i=1
Pr+s
y1 , . . . , yr linear unabhängig sind. Damit ist 0 =
i=r+1 αi xi , woraus auch αr+1 = · · · =
αr+s = 0 folgt, weil xr+1 , . . . , xr+s linear unabhängig sind.
Pr
Jetzt wenden wir uns dem Span der xi zu. Sei x ∈ V . Dann ist f (x) =
Pr j=1 αj yj mit bestimmten
0
αj ∈ K , da y1 , . . . , yr eine Basis des Bildes sind. Nun betrachte x := i=1 αi xi . Dafür folgt
weil
f (x − x0 ) = f (x) − f (x0 ) =
r
X
r
r
r
X
X
X
αj yj − f (
αi xi ) =
αj yj −
αi f (xi ) = 0,
j=1
i=1
j=1
i=1
P
f (xi ) = yi . Deshalb ist x − x0 ∈ Kern(f ) und somit x − x0 = r+s
i=r+1 αi xi mit gewissen αi ∈ K .
Pr+s
Pr+s
0
Also ist x = x +
i=1 αi xi . Das beweist Span{x1 , . . . , xr+s } = V .
i=r+1 αi xi =
weil
Sehen wir uns den Beweis von (14) genauer an. Der UVR
U+
Kern (f )
=V
und
U∩
Kern (f )
U :=
Span {x1 , . . . , xr } erfüllt
= {0},
V = Span {x1 , . . . , xr+s } ⊂ Span U ∪ Kern (f ) = U + Kern (f ) ⊂ V , und U ∩ Kern (f ) =
Span {x1 , . . . , xr } ∩ Span {xr+1 , . . . , xr+s } = {0}, weil x1 , . . . , xr+s linear unabhängig sind.
denn
(6.15)
Denition. Ein VR V
U + U0 = V
und
In diesem Fall heiÿt
U
heiÿt die
direkte Summe der UVR U
und
U 0,
U ∩ U 0 = {0}.
(bzw.
U 0)
ein
VR-Komplement von U
(bzw.
V = U ⊕ U 0.
Beispiel.
a)
R2 = G 1 ⊕ G2
wenn
für je zwei verschiedene Geraden durch den Ursprung.
34
U 0 ).
Man schreibt
b)
(6.16)
R3 = E ⊕ G
für jede Ebene
E
und Gerade
G,
die den Ursprung enthalten und wofür
G 6⊂ E.
Lemma. Sei V = U ⊕ U 0 . Dann gilt für jedes x ∈ V : Es existieren u ∈ U, u0 ∈ U 0 mit
x = u + u0
Dabei sind u und u0 eindeutig bestimmt.
Beweis.
u, u0 folgt aus U + U 0 = V . Zur Eindeutigkeit seien v ∈ U und v 0 ∈ U 0
0
0
0
0
0
0
derart, dass ebenfalls x = v + v . Dann ist u − v = v − u , wobei u − v ∈ U und v − u ∈ U . Daher
0
0
0
0
folgt u − v = v − u = 0, d.h. u = v und u = v .
Die Existenz von
Wendet man (16) auf die Situation in (14). an, so folgt, dass
fU : U →
Bild(f ),
fU (x) := f (x)
eine lineare Bijektion ist, d.h. ein sog. Isomorphismus (21).
Üb
Sei dim
V <∞
und
f :V →W
linear. Sei weiter
U
ein VR-Komplement von Kern(f ) in
V.
Zeige, dass
fU : U →
Bild (f ),
fU (x) := f (x)
ein Isomorphismus (21) ist.
Es folgt ein wichtiges Korollar zu (14).
(6.17)
Korollar. Sei dim V = dim W < ∞ und f : V → W linear. Dann gilt:
f
Beweis.
injektiv
⇐⇒ f
surjektiv
Es gelten allgemein:
dim Kern(f )
= {0}
f
⇐⇒ f
surjektiv
bijektiv.
⇔
Rang(f )
= dim V
(nach (9)), und
f
injektiv
(nach (10)). Die Behauptung folgt daher aus der Dimensionsformel (14).
⇔
Die lineare Gleichung f (x) = b
Sei
f :V →W
ist sie
linear und
inhomogen.
f −1 ({b}).
b ∈ W.
f (x) = b heiÿt homogen, wenn b = 0, ansonsten
x ∈ V der Gleichung f (x) = b ist denitionsgemäÿ
Die Gleichung
Die Menge aller Lösungen
Im Fall der homogenen Gleichung ist daher
f (x) = 0 ⇐⇒ x ∈
Kern (f ).
x = 0. Allgemein gilt, dass die
Lösung hat, wenn b ∈ Bild (f ).
Die homogene Gleichung hat stets (mindestens) eine Lösung, nämlich
Gleichung
f (x) = b
genau dann
lösbar ist, d.h. (mindestens) eine
35
(6.18)
Lösungsmenge. Sei f : V → W linear und b ∈ Bild (f ). Weiter sei x0 ∈ V eine Lösung von
f (x) = b. Dann gilt für die Lösungsmenge
f −1 ({b}) = x0 +
Alle Lösungen
x∈V
Kern (f )
von
:= {x0 + z : z ∈ Kern (f )}.
f (x) = b
sind also von der Form
x = x0 + z ,
wobei
spezielle oder partikuläre Lösung der inhomogenen Gleichung ist und z
x0
eine sog.
alle Lösungen der
homogenen Gleichung durchläuft.
Beweis.
x = x0 + z eine Lösung, denn f (x) = f (x0 + z) = f (x0 ) + f (z) = f (x0 ) = b.
x ∈ V eine Lösung, d.h. f (x) = b. Da auch f (x0 ) = b, folgt: f (x) = f (x0 ) ⇒ 0 =
f (x) − f (x0 ) = f (x − x0 ) ⇒ x − x0 =: z ∈ Kern (f ).
Es ist
Umgekehrt sei
(6.19)
Korollar. Sei dim V = dim W < ∞. Dann sind äquivalent:
a)
Die inhomogene Gleichung f (x) = b hat für jedes b ∈ W eine Lösung.
b)
Die homogene Gleichung f (x) = 0 hat nur die triviale Lösung x = 0.
Gilt a) oder b), dann hat die inhomogene Gleichung f (x) = b für jedes b ∈ W genau eine
Lösung.
Beweis.
Es bedeutet a), dass
f
surjektiv ist und b), dass
(17). Der restliche Behauptung besagt die Bijektivität von
(6.20)
Denition. Seien V
ein VR,
W ⊂V
ein UVR und
f
f
injektiv ist. Die Äquivalenz gilt nach
und folgt somit auch aus (17).
a∈V.
Dann nennt man
a + W := {a + x : x ∈ W }
einen
Ist
w ∈ W,
anen Unterraum von V.
a + W = (a + w) + W .
x0 + Kern (f ).
dann ist oenbar
der ane Unteraum
Die Lösungsmenge von
f (x) = b
ist also
Isomorphismen
(6.21)
Denition.
Seien
V, W
VR. Eine Abbildung
f linear und bijektiv ist. V und W
f : V → W gibt. Man schreibt V ' W.
wenn
(6.22)
f : V → W
heiÿen
isomorph,
Isomorphismus,
heiÿt (VR-)
wenn es einen Isomorphismus
Lemma. Es gilt: f Isomorphismus ⇒ f −1 Isomorphismus.
Beweis.
f −1 seien y, y 0 ∈ W, λ ∈ K : f (f −1 (y + λy 0 )) = y + λy 0 , f (f −1 (y) +
λf −1 (y 0 )) = f (f −1 (y)) + λf (f −1 (y 0 )) = y + λy 0 ⇒ f −1 (y + λy 0 ) = f −1 (y) + λf −1 (y 0 ).
(6.23)
Zur Linearität von
Satz. Seien f : V → W linear und M ⊂ V eine Basis. Dann ist f genau dann ein Isomorphismus, wenn f |M injektiv und f (M ) eine Basis ist.
Beweis.
f |M injektiv
und f (M ) eine Basis. Dann ist f surjektiv nach (12). Zur Injektivität betrachte x ∈ Kern (f ). Weil
Pn
M eine Basis ist,Pist x =
i=1 αi xi mit αi ∈ K und paarweise verschiedenen xi ∈ M . Damit
n
ist 0 = f (x) =
α
f
(x
)
i , wobei f (xi ) paarweise verschiedene Basiselemente sind. Es folgt
i=1 i
(α1 , . . . , αn ) = 0 und somit x = 0. Nach (10) ist f injektiv.
(6.24)
Sei
f
ein Isomorphismus. Die Behauptung folgt aus (12), (13). Sei nun
Korollar. Seien V, W VR und dim V < ∞ Dann gilt:
V ' W ⇐⇒
dim V
=
dim W.
36
Beweis. ⇒
f : V → W . Sei x1 , . . . , xn eine Basis von V mit
n = dim V. Nach (23) ist f (x1 ), . . . , f (xn ) eine Basis in W , womit dim V = dim W . ⇐ Es existieren
Basen x1 , . . . , xn und y1 , . . . , yn von V bzw. W mit n = dim V = dim W . Nach (5) gibt es eine
lineare Abbildung f : V → W mit f (xi ) = yi für i = 1, . . . , n. Nach (23) ist f ein Isomorphismus.
Üb
Es gibt einen Isomorphismus
V, W
Seien
VR und
sind isomorph, wenn
(6.25)
M ⊂ V bzw. N ⊂ W eine Basis
M und N gleichmächtig sind.
V
bzw. von
W.
Zeige:
V
W
und
Korollar. Sei V ein K-VR mit dim V < ∞ und n ∈ N. Dann gilt:
V ' K n ⇐⇒ n =
Beweis.
dim V.
x1 , . . . , xn eine Basis von V , dann gibt es nach (5) genau eine lineare Abbildung
f (xi ) = ei für i = 1, . . . , n. Dieses f ist ein Isomorphismus nach (23). Hiermit folgt
Behauptung.
Bilden
f : V → Kn
die
von
Üb
Sei
V
mit
ein K-VR und
y 7→ ey
Tipp: Betrachte
(6.26)
M ⊂V
für
eine Basis. Zeige:
y∈M
mit
ey
V ' K (M ) .
aus (5.20).
Korollar. Seien dim V = dim W < ∞ und f : V → W linear. Dann ist f ein Isomorphismus
genau dann, wenn f injekiv oder surjektiv ist.
Beweis. Wende (17) an.
(6.27)
Lemma. Seien V , V 0 , W und W 0 VR, f : V → W linear, sowie s : V → V 0 und t : W → W 0
Isomorphismen. Setze f 0 := t ◦ f ◦ s−1 . Dann ist f 0 surjektiv bzw. injektiv genau dann, wenn
f surjektiv bzw. injektiv ist, und es gelten:
Rang(f
0
Üb
Beweise (27).
Üb
Sei
V
ein
) = Rang(f ) und
K VR, X
dim Kern(f
eine Menge und
0
)=
dim Kern(f ).
f :V →X
eine Bijektion. Führe auf
X
eine abelsche
Gruppenstruktur ein und deniere dazu eine Multiplikation mit Skalaren derart, dass
K VR
ist und
f
X
ein
ein (VR)Isomorphismus.
Mengen von linearen Abbildungen
Seien
V
V
nach
(6.28)
und
W
K-VR. Dann bezeichnet Hom
(V, W )∗)
die Menge aller linearen Abbildungen von
W.
Lemma.
Hom
Verknüpfungen.
(V, W ) ist ein UVR von W V versehen mit den punktweise denierten VR
Beweis. Seien f, g : V → W
linear. Zu zeigen ist, dass
αx0 )
f +λg für λ ∈ K
linear ist:
(f +λg)(x+αx0 ) =
+
=
+ λg(x + αx0 ) (nach Denition der VR-Verknüpfungen in W V ) = f (x) + αf (x0 )
λ(g(x) + αg(x0 )) (weil f und g linear sind) = (f (x) + λg(x)) + α(f (x0 ) + λg(x0 ))
f (x +
λf (x0 ) +
(f + λg)(x) + α(f + λg)(x0 ) (nach Denition der VR-Verknüpfung in W V ).
V oensichtlich linear und somit 0 ∈ Hom (V, W ).
Nullabbildung 0 ∈ W
∗)
Hom steht für Homomorphismus.
37
Schlieÿlich ist die
(6.29)
Lemma. Seien V, W, U VR, f : V → W linear und g : W → U linear. Dann ist g ◦f : V → U
linear.
Üb
Weise (29) nach.
Aut (V
von
V
(6.30)
)
bezeichnet die Menge aller
) bildet eine Untergruppe der symmetrischen Gruppe
−1 ∈ Aut (V ).
Aut (V ) und mit f, g ∈ Aut (V ) gilt: f ◦ g
Lemma.
Aut (V
Beweis. Oensichtlich ist idV
ist
Automorphismen von V , d.i. die Menge aller Isomorphismen
auf sich.
f◦
ein Isomorphismus. Nach (22) ist
g −1
g −1 linear und nach (2.24) bijektiv, also ein Isomorphismus.
38
S(V ),
d.h.
idV
∈
ein Isomorphismus. Nach (29)
7 Matrizen
Lineare Abbildungen zwischen endlichdimensionalen Vektorräumen können in eektiver Weise mittels Matrizen beschrieben werden.
Die Abbildungsmatrix
W endlichdimensionale K VR mit n := dim V und m := dim W . Weiter seien indizierte Basen v1 , . . . , vn und w1 , . . . , wm von V bzw. W gegeben.
Sei nun f : V → W eine lineare Abbildung. Für jedes l = 1, . . . , n ist das Bild f (vl ) des l ten Basisvektors unter f eindeutig als Linearkombination der Basisvektoren wk , k = 1, . . . , m,
darstellbar. Es existieren also eindeutig bestimmte Skalare akl ∈ K derart, dass
Seien
(7.1)
V
und
m
X
f (vl ) =
akl wk
l = 1, . . . , n.
für
k=1
a1l , . . . , aml sind die Koordinaten von f (vl ) bez. der Basis w1 , . . . , wm (s. (5.21)).
l = 1, . . . , n. Sei nun x ∈ V beliebig. Seine Koordinaten bez. der Basis v1 , . . . , vn
Anders ausgedrückt,
Dies gilt für jedes
seien
ξ1 , . . . , ξn
(7.2)
x=
n
X
∗) , d.h.
ξl vl .
l=1
Entsprechend seien
(7.3)
f (x) =
m
X
η1 , . . . , ηm
die Koordinaten von
f (x)
bez. der Basis
w1 , . . . , wm ,
d.h.
ηk wk .†)
k=1
ξ1 , . . ., ξn und η1 , . . . , ηm ? Nach (2)
m
n
P
P
akl wk =
akl ξl wk . Hieraus folgt
Welcher Zusammenhang besteht zwischen den Koordinaten
und (1) ist
f (x) = f
n
P
ξl vl
ηk =
n
X
akl ξl
für
ξl f (vl ) =
l=1
l=1
(7.4)
=
n
P
n
P
ξl
l=1
m
P
k=1
k=1
l=1
k = 1, . . . , m.
l=1
Man beachte die unterschiedliche Stellung des Summationsindex in (1) und (4). Die Gleichungen
(4) schreibt man in der Form
 
 
η1
a11 a12 . . . a1n
ξ1
 η2   a21 a22 . . . a2n   ξ2 
  
 
 ..  =  ..
.
.  . .
..
.
.  . 
 .   .
.
.
.
.
ηm
ξn
am1 am2 . . . amn

(7.5)
Dabei ist
 
ξ1
 .. 
ξ :=  . 
ξn
∗)
†)
ξ
η
xi
eta
39
Koordinatenvektor von x bez. der Basis v1 , . . . , vn . Entsprechend bildet man den Koordinatenvektor η . Koordinatenvektoren sind stets Spaltenvektoren. Durch Transponieren erhält man
aus einem Spaltenvektor einen Zeilenvektor und umgekehrt:
der
ξ T := ξ1 . . . ξn ,
ξ1 . . . ξn
T
:= ξ.
Weiter ist

a11
...
a1n


. 
..
. 
A := (akl )k=1,...,m =  ...
.
.
l=1,...,n
am1 . . . amn
eine
(m × n)-Matrix von Elementen aus K
ak1 ak1 . . . akn
lautet
, die
l-te
 m Zeilen und n Spalten. Die k -te Zeile
bestehend aus

Spalte lautet
a1l
 .. 
 . .
aml
Somit ist
k
der
Zeilenindex
und
l
der
Spaltenindex. Die Gleichung (5) schreibt man kurz
(7.6)
η = A ξ.
(m × n)-Matrix A = (akl ) mit einem
Spaltenvektor η der Länge m zu erhalten.
Die Gleichungen (4) geben an, wie man eine
der Länge
n
multipliziert, um einen
Spaltenvektor
ξ
Beispiel.
  


7
4·1+0·2+1·3
4
0 1  
1
−8 · 1 + 2 · 2 + 0 · 3 −4
−8 2 0
  
  

 1 −1 0 2 =  1 · 1 − 1 · 2 + 0 · 3  = −1 .
3
10
3·1+2·2+1·3
3
2 1

Mit Hilfe dieser Multiplikation gestattet die Matrix
x∈V
in (5), aus den Koordinaten des Vektors
v1 , . . . , vn die Koordinaten des Bildvektors f (x) ∈ W bez. der Basis w1 , . . . , wm
f darstellende Matrix oder die Abbildungsmatrix für f bez. der
v1 , . . . , vn in V und w1 , . . . , wm in W .
bez. der Basis
zu berechnen.
A
heiÿt die
indizierten Basen
(7.7)
A
Beispiel. Ist f : K n → K m
aus den Komponenten von
in
Kn
und
linear, dann ist die
(m × n)-Matrix A,
f (el ) besteht, die Abbildungsmatrix von f
Sei
(m × n)-Matrizen über K mit m, n ∈ N wird mit K m×n
ξ der Länge n ist eine (n × 1)-Matrix, d.h. ξ ∈ K n×1 .
ϕ : V → K n×1
x=
n
X
al
bez. der Standardbasen
K m.
Die Menge der
tenvektor
deren Spaltenvektoren
ϕ(x)l vl
die
Koordinatenabbildung
für
bez. der Basis
bezeichnet. Ein Koordina-
v1 , . . . , vn
von
V,
d.h.
x ∈ V.
l=1
Oenbar ist
n
X
ϕ
bijektiv. Wegen
ϕ(x + λx0 )l vl = x + λx0 =
l=1
n
X
ϕ(x)l vl + λ
l=1
n
X
ϕ(x0 )l vl
l=1
ϕ(x+λx0 )l = ϕ(x)l +λϕ(x0 )l für jedes l = 1, . . . , n. Wir versehen K n×1 mit komponentenweise
n
n×1 ein K -VR und ϕ ist
denierter Addition und skalarer Multiplikation (so wie K ). Dann ist K
folgt
linear
ϕ(x + λx0 ) = ϕ(x) + λϕ(x0 )
40
und somit ein VR-Isomorphismus.
0 ... 0 1 0 ... 0
n×1 . Es gilt:
Standardbasis von K
Die Vektoren
bilden die
el :=
ϕ(vl ) = el
für
T
mit der 1 an der
l-ten
Stelle für
l = 1, . . . , n
l = 1, . . . , n.
(7.8) Zur Gleichung (6) gehört das
Diagramm
ϕ, ψ ‡) die Koordinatenabbildungen. Das Diagramm ist kommutativ mit fˆ := ψ ◦f ◦ϕ−1 ,
d.h. es gilt ψ ◦ f = fˆ ◦ ϕ. Die lineare Abbildung fˆ (s. (6.29)) ist die Darstellung von f in
mit
Koordinaten.
(7.9)
Korollar. Ist A die Abbildungsmatrix von f , dann gilt fˆ(ξ) = A ξ für alle ξ ∈ K n×1 .

Bezeichnung. Im Folgenden ist al := 


a1l
.
.
.


der l -te
Spaltenvektor von A.
aml
(7.10)
Matrix als lineare Abbildung. Sei A ∈ K m×n . Dann ist
LA : K n×1 → K m×1 ,
LA (ξ) := A ξ,
eine lineare Abbildung, d.h. die Matrixmultiplikation erfüllt für ξ, ξ 0 ∈ K n×1 , λ ∈ K :
A (ξ + λξ 0 ) = A ξ + λA ξ 0 .
Es ist LA (el ) = A el = al für l = 1, . . . , n und A ist die Abbildungsmatrix für LA bez. der
Standardbasen in K n×1 und K m×1 . Ist umgekehrt f : K n×1 → K m×1 linear, dann gilt
f = LA , wobei A die f bez. der Standardbasen darstellende Matrix ist.
Beweis. (A(ξ + λξ 0 ))k =
n
P
akl (ξ + λξ 0 )l =
l=1
für
k = 1, . . . , m.


A el = 
ψ
l=1
akl (ξl + λξl0 ) =
n
P
l=1
Weiter gilt:
a11
.
.
.
am1
‡)
n
P
 
0
 . 

. . . a1n  .. 
a1l
m
X
   . 
.  
..
.  = a =
. 
1
=
akl ek .

.
l
.
.
 
 .. 
k=1
. . . amn  . 
aml
0
psi
41
akl ξl + λ
n
P
l=1
akl ξl0 = (Aξ + λAξ 0 )k
LA (el ) = al und A die Abbildungsmatrix zu LA (vgl. (1)). Schlieÿlich
m
P
f (el ) =
akl el . Dann ist f (el ) = A el = LA (el ) für alle l. Daher ist f = LA .
Also ist
sei, gemäÿ (1),
k=1
Man deniert für jede Matrix naheliegenderweise
Kern(A) := Kern(LA ),
(7.11)
Bild(A) := Bild(LA ),
Rang(A) := Rang(LA ),
usw.
Lemma. Sei A ∈ K m×n . Dann ist
Bild(A) = Span{a1 , . . . , an }.
Insbesondere ist der Rang einer Matrix die maximale Anzahl ihrer linear unabhängigen Spaltenvektoren.
Beweis. Mit (6.12) ist Bild(A) = LA (K n×1 ) = LA (Span{e1 , . . . , en }) = Span{LA (e1 ), . . . , LA (en )}
=
Span{a1 , . . . , an }.
Wegen (11) heiÿt
(7.12)
Bild(A)
auch der
Spaltenraum von A.
Korollar. Sei A ∈ K m×n eine darstellende Matrix von f ∈ Hom(V, W ). Dann ist LA surjektiv
bzw. injektiv genau dann, wenn f surjektiv bzw. injektiv ist, und es gelten:
Rang(A) = Rang(f ),
dim Kern(A) = dim Kern(f ).
Beweis. Nach (9) ist LA = fˆ = ψ ◦ f ◦ ϕ−1 . Wende (6.27) an.
Linearkombination von Matrizen
Sei
g:V →W
eine weitere lineare Abbildung und
Für die Linearkombination
A, B
und
C?
h := f + λg
Nach (1) ist einerseits
f (vl ) + λg(vl ) =
m
P
akl wk + λ
k=1
(7.13)
m
P
für
C
bkl wk =
λ ∈ K.
m
P
ckl wk
und andererseits
h(vl ) = (f + λg)(x) =
k=1
m
P
(akl + λbkl )wk .
Der Koezientenvergleich ergibt
k=1
k = 1, . . . , m, k = 1, . . . , n.
Alternativ zu dieser Herleitung gilt nach (8)
fˆ + λĝ .
ihre Abbildungsmatrix (s. (1)). Sei
die Abbildungsmatrix. In welcher Beziehung stehen
h(vl ) =
k=1
ckl = akl + λbkl
sei
B
f\
+ λg = ψ◦(f +λg)◦ϕ−1 = ψ◦f ◦ϕ−1 +λψ◦g◦ϕ−1 =
Das bedeutet nach (9)
C ξ = A ξ + λB ξ
∀ ξ ∈ K n×1 .
ξ = el ein, folgt, dass die Spaltenvektoren
von A und B sind. D.h. es gilt (13).
Setzt man speziell
Spaltenvektoren
Also bildet man eine
von
C
die Linearkombination der
Linearkombination von Matrizen (wie in K n×1 ) komponentenweise. (Na-
türlich können nur gleichartige Matrizen, d.h. Matrizen mit jeweils gleicher Zeilenzahl und gleicher
Spaltenzahl linear kombiniert werden.) Die Menge
ist die
Nullmatrix
K m×n


0 0 ... 0
0 0 . . . 0


m×n
0 :=  . . .
.
. ∈ K
 .. .. . . .. 
0 0 ... 0
42
wird so zu einem
K -VR. Das Nullelement
Beispiel.
1
2
 

4−2·2
0−2·2
1 − 2 · 12
0
−4 0
0  = −8 − 2 · 4
2−2·1
0 − 2 · 0  = −16 0 0 .
1
1
0
1 − 2 · 2 −1 − 2 · (− 2 ) 0 − 2 · 0
0
0 0



4
0 1
2 2
−8 2 0 −2  4 1
1
1
1 −1 0
2 −2


A
Bezeichnen wir die Abbildungsmatrix
der linearen Abbildung
dung deutlich zu machen, dann haben wir gerade
etabliert
f
(s. (1)) mit
M (f ),
um die Zuor-
M (f + λg) = M (f ) + λM (g).
Nimmt man (10), (9) hinzu, folgt zusammenfassend (für Liebhaber der Abstraktion) der
(7.14)
Darstellungssatz.
M : Hom(V, W ) → K m×n ,
L : K m×n → Hom(K n×1 , K m×1 ), L(A) := LA ,
sind VR-Isomorphismen und es gilt
fˆ = L(M (f ))
Bemerkung.
∀ f ∈ Hom(V, W ).
A ∈ K m×n .
Sei
Dann ist
A
natürlich auch die Abbildungsmatrix anderer linearer Abbildungen,
V 0 , W 0 K -VR
f
0
(vl0 )
mit Basen
:=
m
X
akl wk0
v10 , . . . , vn0
und
f := M −1 (A). Aber A ist
z.B. von LA . Allgemeiner seien
die darstellende Matrix von
0 .
w10 , . . . , wm
Dann bestimmt
l = 1, . . . , m
für
k=1
nach (6.5) eindeutig ein
M
0
(f 0 )
und
W
Üb
=A
wofür
A
ebenfalls die Abbildungsmatrix ist, d.h. wofür
ist. Allerdings ändert sich die darstellende Matrix von
f,
wenn man die Basen in
V
wechselt. Das wird im Abschnitt Basiswechsel untersucht.
Sei
A ∈ K m×n
(7.15) Die
f ∈ Hom(V, W ) und f 0 ∈ Hom(V 0 , W 0 ).
t : W → W 0 derart, dass f 0 = t ◦ f ◦ s−1 .
darstellende Matrix für
Isomorphismen
s:V →V
0 und
Standardbasis von K m×n

0



 ..
.



0
...
..
Nach
(14)
..
.
...
↑
m·n
Matrizen
Zeile
Spalte
ist dim Hom(V, W ) = dim K m×n = m · n.
Sei speziell
dim W = dim V = n.
Einheitsmatrix
E n = E = (δkl )k=1,...,n
l=1,...,n
(
1
δkl :=
0
für
für
f (vl ) := wl , l =
f : V → W . Die zugehörige
Betrachte die durch
gemäÿ (6.5) eindeutig bestimmte lineare Abbildung
Abbildungsmatrix ist die
Dabei ist
besteht aus den
Zeige: Es gibt




.
.
.
 ← k -te


0
1
Bemerkung.
1, . . . , n,
0
.
l-te
(7.16)
f 0 ∈ Hom(V 0 , W 0 ),


1 0 ... 0
0 1 . . . 0


:=  . . .
. .
.
.
.
.
. .
.
.
0 0 ... 1
k=l
k 6= l
das
Kronecker Symbol. Oenbar ist LE = idK n×1 .
43
Produkt von Matrizen
Seien
U
ein weiterer
Abbildung. Damit ist
(7.17)
K -VR mit einer indizierten Basis u1 , . . . , up und g : W → U
h := g ◦ f eine lineare Abbildung von V nach U (s. (6.29)).
eine lineare
Satz. Sei A ∈ K m×n bzw. B ∈ K p×m die Abbildungsmatrix von f bez. der Basen v1 , . . . , vn
in V und w1 , . . . , wm in W bzw. von g bez. der Basen w1 , . . . , wm in W und u1 , . . . , up in U .
Sei C = (cjl )j=1,...,p ∈ K p×n die Abbildungsmatrix von h bez. der Basen v1 , . . . , vn in V und
l=1,...,n
w1 , . . . , wm in W . Dann gilt:
(7.18)
cjl =
m
X
bjk akl
für
j = 1, . . . , p,
l = 1, . . . , n.
k=1
Man schreibt hierfür kurz
Beweis.
Nach (1) ist
h(vl ) =
C = B A.
p
P
cjl uj .
Andererseits ergibt die Anwendung von (1) für
f
und
j=1
g:
m
m
m
P
P
P
akl
akl g(wk ) =
h(vl ) = g f (vl ) = g
akl wk =
anschlieÿend für
k=1
k=1
k=1
p
P
!
bjk uj
=
j=1
p
P
j=1
m
P
bjk akl uj .
k=1
Der Koezientenvergleich liefert (18).
ϕ : V → K n×1 ,
= (χ ◦ g ◦ ψ −1 ) ◦ (ψ ◦ f ◦ ϕ−1 ) = ĝ ◦ fˆ.
Ein Alternativbeweis erfolgt unter Verwendung der Koordinatenabbbildungen
ψ : W → K m×1
und
χ§) : U → K p×1 : g[
◦ f = χ ◦ (g ◦ f ) ◦ ϕ−1
Daher gilt nach (9)
C ξ = B (A ξ)
Setzt man speziell
vektor von
A
∀ ξ ∈ K n×1 .
ξ = el
l-te Spaltenvektor von C sich
B gemäÿ (5) anwendet. Das ist
ein, folgt, dass der
ergibt, indem man auf diesen
aus dem
(18).
l-ten
Spalten-
Zu (18) gehört das kommutative Diagramm
Hieraus ist ersichtlich
f[
◦ g = fˆ ◦ ĝ .
Matrixmultiplikation. Formel (18) gibt an, wie man eine (p × m)-Matrix B
mit einer (m × n)(p × n)-Matrix C = B A zu erhalten. Wichtig dabei ist, dass
die Spaltenzahl von B mit der Zeilenzahl von A übereinstimmt. Es ist (5) ein Beispiel für eine
Matrixmultiplikation. Formel (18) besagt auch LBA = LB ◦ LA .
Matrix
§)
χ
A
multipliziert, um eine
chi
44
Beispiel.


0 −3
1 −1
4+6+6+4
0 + 2 + 6 + 12 −3 − 2 − 6 + 0
=
2 −2
−16 − 9 − 4 − 1 0 − 3 − 4 − 3 12 + 3 + 4 + 0
3 0
4
1
2
3
4 
3
−4 −3 −2 −1 2
1
20
20 −11
=
.
−30 −10 19
(7.19)
Beispiel. Seien ξ ∈ K n×1 , ζ ¶) ∈ K n×1 , η ∈ K m×1 . Dann sind die Produkte
ξ T ζ = ξ1
 
ζ1
n
 .  X
.
. . . ξn  .  =
ξl ζl ∈ K 1×1 = K,
l=1
ζn


 
ζ1 η1 ζ1 η2 . . . ζ1 ηm
ζ1


 .. 
 ζ2 η1 ζ2 η2 . . . ζ2 ηm 
T
n×m
ζ η =  .  η1 . . . ηm =  .
.
.  = (ζl ηk )l=1,...,n ∈ K
..
.
. 
 ..
.
.
.
k=1,...,m
ζn
ζn η1 ζn η2 . . . ζn ηm
deniert. Letzteres heiÿt das
dyadische Produkt. Ebenso ist auch η ζ T
deniert.
Weil die Komposition von Abbildungen assoziativ ist (s. (2.25)), folgt aus (17), dass auch die Matrixmultiplikation assoziativ ist. Ebenso übertragen sich die Distributivgesetze für lineare Abbildungen
auf Matrizen.
(7.20)
Korollar. Die Matrixmultiplikation ist assoziativ und distributiv. Es gelten
A (B C) = (A B) C =: A B C,
λA = (λ E m ) A,
A (λ E n ) = λA,
0
(A + A ) B = A B + A0 B,
A(B + B 0 ) = A B + A B 0
für A, A0 ∈ K m×n , B, B 0 ∈ K n×p , C ∈ K p×q mit m, n, p, q ∈ N, λ ∈ K .
Insbesondere ist
Üb
Zeige für
0 A = 0, 0 A = 0
m, n, p ∈ N
und
für
0∈K
A ∈ K m×n ,
und den entsprechenden Nullmatrizen.
dass
K n×p → K m×p ,
X 7→ AX ,
linear ist. Wie lautet
eine darstellende Matrix hierfür?
Invertierbare Matrizen
V ein K -VR der Dimension n ∈ N und v1 , . . . , vn eine indizierte Basis von V .
f : V → V linear. Man nennt f einen Endomorphismus. Wir bestimmen diejenige
Abbildungsmatrix für f , wofür auch die Bildvektoren f (x) nach der Basis v1 , . . . , vn entwickelt
Sei, wie bisher,
Weiter sei
werden:
(7.21)
f (vl ) =
m
X
akl vk
für
l = 1, . . . , n.
k=1
M (f ) =: A = (akl )k,l=1,...,n
E dargestellt, d.h. M (idV ) = E .
Die Abbildungsmatrix
wird durch
¶)
ζ
zeta
45
ist quadratisch. Die identische Abbildung
idV
Man nennt
End(V ) := Hom(V, V )
die
Endomorphismenalgebra,
weil der VR
End(V )
eine
weitere Verknüfung besitzt, nämlich die Komposition von Abbildungen
End(V ) × End(V ) → End(V ),
wofür die
(g, f ) 7→ g ◦ f,
Algebragesetze gelten:
h ◦ (g ◦ f ) = (h ◦ g) ◦ f
Assoziativität
(h + g) ◦ f = h ◦ f + g ◦ f
h ◦ (g + f ) = h ◦ g + h ◦ f
Distributivgesetze
(λg) ◦ f = g ◦ (λf ) = λ(g ◦ f ), λ ∈ K.
Entsprechend ist auch
K n×n
eine Algebra, die
K n×n × K n×n → K n×n ,
Üb
Weise für
End(V )
und
Matrixalgebra, bez. der Algebraverknüpfung
(A, B) 7→ A B.
K n×n
die Algebragesetze nach.
Aus (14) und (17) folgt
(7.22)
Lemma. Die Matrixdarstellung M : End(V ) → K n×n ist ein Algebraisomorphismus, d.i.
ein VR-Isomoprhismus mit M (idV ) = E
Ein Endomorphismus
f ∈ End(V )
und
M (g ◦ f ) = M (g)M (f ).
ist ein Automorphismus (genau dann), wenn es ein
g ∈ End(V )
gibt mit
g ◦ f = idV
oder
f ◦ g = idV .
Dies gilt nach (6.26) und (2.24). In diesem Fall folgt
(7.23)
g = f −1 .
Die Anwendung von (22) ergibt
Satz mit Denition. Seien A, B ∈ K n×n . Wenn B A = E gilt, dann gilt auch A B = E . Es
ist B durch B A = E eindeutig bestimmt. Wenn B A = E gilt, dann heiÿt A invertierbar
−1
und A
:= B die zu A inverse Matrix.
GL(n, K) := M (Aut(V )) = {A ∈ K n×n : A invertierbar} eine
meine lineare Gruppe über K . Daher gelten z.B. für A, B ∈ GL(n, K):
Insbesondere ist
(A−1 )−1 = A,
Auÿerdem folgt
(7.24)
allge-
(A B)−1 = B −1 A−1 .
LA−1 = (LA )−1 .
Satz. A ∈ K n×n ist invertierbar genau dann, wenn Rang(A) = n oder wenn dim Kern(A) = 0.
Beweis. Wende (6.26), (6.9), (6.10), (12) an.
Üb
Gruppe, die
Zeige:
GL(n, R)
ist für
n≥2
nicht kommutativ.
46
(7.25)
Abbildungsmatrix eines Isomorphismus.
Isomorphismus und
A
Seien
f
die Abbildungsmatrix von
dim V = dim W = n, f : V → W
ein
aus (1). Es ist
h(vl ) := wl , g(wl ) := f (vl ) für l = 1, . . . , n gemäÿ
h durch E dargestellt. Deshalb
Automorphismus g .
ein kommutatives Diagramm mit den durch
(6.5) eindeutig bestimmten Isomorphismen. Nach (16) wird
ist
A
auch die Abbildungsmatrix des
Basiswechsel
Wir kehren zur Ausgangssituation zurück. Die Frage ist, wie sich die Abbildungsmatrix
wenn man die Basis in
V
W
bzw. in
A verändert,
V . Wir
0
0
wechselt. Sei v1 , . . . , vn eine weitere indizierte Basis in
drücken die neuen Basisvektoren durch die alten aus:
0
(7.26) vj
n
X
=
slj vl
für
j = 1, . . . , n.
l=1
s1j , . . . , snj
Dabei sind
die eindeutig bestimmten Koordinaten von
Beachte, dass in (26) über den ersten Index von
f (vj0 )
=f
n
X
n
X
!
slj vl
=
slj f (vl ) =
slj
bez. der Basis
v1 , . . . , vn .
summiert wird. Mit (1) folgt
n
X
akl wk =
n
n
X
X
k=1
k=1
l=1
l=1
l=1
n
X
slj
vj0
!
akl slj
wk .
l=1
S := (slj )l,j=1,...,n ∈ K n×n invertierbar, denn S ist ja nach (1) auch die darstellende
0
des Automorphismus s : V → V , der durch s(vj ) = vj , j = 1, . . . , n eindeutig bestimmt ist
Dabei ist
Matrix
((6.5), (6.23)).
Die Matrix
ordinaten. Da
S
beschreibt die
x =
n
P
l=1
(7.27)
Koordinatentransformation
n
P
ξl0 vl0 =
l=1
ξl0
n
P
sjl vj =
j=1
j=1
l=1
von den neuen auf die alten Ko-
sjl ξl0 vj ,
folgt nämlich wegen
x =
n
P
ξl vl
l=1
S −1
multipliziert, folgt äquivalent zu (27)
ξ 0 = S −1 ξ.
Jetzt betrachten wir auch in
(7.29)
n
P
ξ = S ξ0.
Indem man beide Seiten von (27) von links mit
(7.28)
n
P
wq0 =
m
X
tpq wp
für
W
eine weitere indizierte Basis
0 . Hierfür sei entsprechend
w10 , . . . , wm
q = 1, . . . , m.
p=1
S ist T := (tpq )p,q=1,...,m ∈ K m×m
t : W → W.
Wie
invertierbar. Wie
47
S
bestimmt
T
einen Automorphismus
folgt
m
P
E = T T −1 , d.h. δpq =
tpr t̂rq für p, q = 1, . . . , m.
r=1
m
m
m
m
P
P
P
P
tqr wq =
δqp wq = wp , d.h.
tqr t̂rp wq =
T −1 = (t̂pq )p,q=1,...,m .
Sei
m
P
r=1
(7.30)
t̂rp wr0 =
wp =
m
X
m
P
t̂rp
r=1
Dafür gilt
q=1
t̂qp wq0
q=1
für
Damit
q=1
r=1
p = 1, . . . , m.
q=1
Vgl. dies mit (29). Hiermit können wir die obige Rechnung fortführen:
f (vl0 ) =
m
n
X
X
k=1
!
akl slj
t̂qk wq0 =
q=1
l=1
Für die Abbildungsmatrix
m
X
A0
m
m X
n
X
X
q=1
von
f
!
t̂qk akl slj
wq0 .
k=1 l=1
bez. der Basen
v10 , . . . , vn0
in
V
und
0
w10 , . . . , wm
in
W
gilt
denitionsgemäÿ
0
(7.31) f (vj )
=
m
X
a0qj wq0 .
q=1
Wir schlieÿen daraus
(7.32)
a0qj =
m X
n
X
t̂qk akl slj ,
q = 1, . . . , m,
j = 1, . . . , n.
k=1 l=1
Damit ist gezeigt:
(7.33)
Satz. Seien V , W K -VR mit dim V = n, dim W = m und f : V → W linear. Weiter sei A
die Abbildungsmatrix von f bez. der Basen v1 , . . . , vn von V und w1 , . . . , wm von W . Dann ist
(7.34)
A0 = T −1 A S
0 in W , wobei
die Abbildungsmatrix von f bez. der Basen v10 , . . . , vn0 von V und w10 , . . . , wm
S und T in (26) und (29) die Basiswechsel beschreiben.
Das kommutative Diagramm zu (33) ist:
Dabei sind
Hieraus ist
(7.35)
ϕ0 = ϕ ◦ s−1 , ψ 0 = ψ ◦ t−1
0
−1 ◦ fˆ ◦ ŝ.
ersichtlich fˆ = t̂
Bemerkung.
die Koordinatenabbildungen bez. der gestrichenen Basen.
Gleichung (34) ist die Transformation der Abbildungsmatrix unter Koordina-
tentransformationen. Dabei ist
Rang (A
0
) = Rang (A),
dim Kern (A
0
) = dim Kern (A)
48
LA0 = (LT )−1 ◦ LA ◦ LS .
S ∈ GL(n, K), dass
wegen (12), weil
GL(m, K)
und
Kern (T
A) = Kern (A),
dim Kern (A S)
(7.36)
Rang (T
= dim Kern (A),
Allgemeiner folgt hieraus für
A ∈ K m×n , T ∈
A) = Rang (A),
Bild (A S)
= Bild (A).
Basiswechsel für einen Endomorphismus. Seien V = W , vl = wl für l = 1, . . . , n und
f ∈ End(V ). Dann ist t = s und somit
(7.37)
A0 = S −1 A S
die Transformation der Abbildungsmatrix A bei einem Basiswechsel
Koordinatentransformation (27).
49
(26)
bzw. unter einer
8 Lineare Gleichungssysteme
Für den Fall endlichdimensionaler VR
V
und
W
wird ein Verfahren zur Lösung der in Kapitel 6
(speziell (6.18), (6.19)) untersuchten linearen Gleichung
(8.1)
f (x) = b
entwickelt. Sei
n :=
dim
V , m := dim W . Wir wählen indizierte
f , x und b (s. (7.8), (7.9)) über
Basen in
V
und
W
und gehen zur
Koordinatendarstellung von
(8.2)
A x = b.
A = (akl ) ∈ K m×n die f darstellende Matrix, x = (x1 . . . xn )T
Koordinatenvektoren von x und b. Ausgeschrieben lautet (2)
Dabei bezeichnet
die
(8.3)
a11 x1
a21 x1
+
+
a12 x2
a22 x2
.
.
.
+ ···
+ ···
+
+
a1n xn
a2n xn
.
.
.
=
=
.
.
.
am1 x1 + am2 x2 + · · ·
und
b = (b1 . . . bm )T
b1
b2
.
.
.
+ amn xn = bm
lineares Gleichungssystem (LGS) für n Unbekannte x1 , . . . , xn aus K , was aus
m skalaren Bedingungensgleichungen mit Koezienten akl ∈ K und Absolutgliedern bk ∈ K
besteht. Das LGS (3) heiÿt homogen, wenn b = 0.
Das ist ein
Beispiel
3x1 + 2x2 = 1
3x1 + x2 = 5
hat genau eine Lösung, nämlich
x1 = 3, x2 = −4.
Beispiel
3x1 + 2x2 = 1
3x1 + 2x2 = 5
hat oenbar keine Lösung.
Beispiel
3x1 + 2x2 = 1
−9x1 − 6x2 = −3
hat unendlich viele Lösungen, nämlich
1
3
0
− 32
+R
1
1
x1 = (1 − 2λ), x2 = λ für jedes λ ∈ R, d.i. der ane Raum
3
.
Im ersten Schritt bildet man die


(A|b) := 
a11
···
.
.
.
am1 · · ·
erweiterte Koezientenmatrix

a1n b1
.. 
. .
amn bm
Der vertikale Strich dient lediglich der deutlichen Abgrenzung.
50
(8.4)
Lemma. Das LGS A x = b ist genau dann lösbar, wenn Rang ((A|b)) = Rang (A).
Beweis.
(7.11))
Es gilt: Lösbarkeit
⇔ dim
⇔ b ∈ Bild (A) ⇔ Span {a1 , . . . , an , b} =
= dim Span {a1 , . . . , an }.
Span {a1 , . . . , an } (wegen
Span {a1 , . . . , an , b}
x = (x1 . . . xn )T mit A ∈ K m×n und B ∈ K p×n nennt
n×1 ) besitzen. Im Fall nichtleerer Lösungsman äquivalent, wenn sie dieselbe Lösungsmenge (⊂ K
n×1
existiert mit A x0 = b und B x0 = c und
mengen (s.(4)) bedeutet dies nach (6.18), dass x0 ∈ K
dass Kern (A) = Kern (B) gilt.
Zwei LSG
(8.5)
A x = b
und
B x = c
für
Lemma. Sei T ∈ GL (m, K) Dann sind A x = b und (T A)x = T b äquivalent. Beachte, dass
(T A|T b) = T (A|b). D.h. (A|b) und T (A|b) beschreiben äquivalente LGS.
Üb
Weise (5) nach.
Üb
Seien
A, B ∈ K m×n derart, dass es zu jedem b ∈ K m×1 ein c ∈ K m×1 gibt, wofür A x = b
B x = c äquivalent sind. Zeige: Es existiert T ∈ GL (m, K) mit B = T A.
und
Die Idee, die jetzt verfolgt wird, ist es, das LGS (2) gemäÿ (5) in ein äquivalentes System zu
transformieren, wofür die Lösungen leicht zu bestimmen sind.
Elementare Zeilenumformungen
Oenbar geht das LGS (2) in ein äquivalentes über, wenn man an
taren Zeilenumformungen vornimmt:
1
Vertauschung zweier Zeilen.
2
Multiplikation einer Zeile mit einem Skalar
3
Addition des Vielfachen einer Zeile zu einer anderen.
Betrachte dazu die folgenden

1
..







· · ·




1
Z := 




· · ·













2
Z := 





.
1
···
···
(m × m)
- Matrizen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
···
1 ···
1
..
···
1 ···
.
.
.
.
.
.
.
···
···

.
.
.
.
.
.
···
6= 0.
.
.
.
0 ···
···
.
.
.
1
···
0 ···
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
···
1
..
.







· · · j-te Zeile









· · ·
 k-te Zeile






1

1
..
.
1
λ ···
1
···
..
.
(A|b) eine der folgenden elemen-





· · ·
 k-te




1
Zeile
51
für
λ 6= 0

.
.
.
1






3
Z := 






..
.
.
.
.
1 ···
..
α ···
.
.
.
.
1 ···
.
.
.
..
.
.
.
Alle übrigen Einträge in
(8.6)

.




· · · j-te Zeile




· · · k-te Zeile



1
Z 1, Z 2, Z 3
sind 0.
Lemma. Sei C ∈ K m×p . Entsteht C̃
aus
C
1
Vertauschung der Zeilen j und k, dann ist
2
Multiplikation der k-ten Zeile mit
3
Addition des
α-fachen
C̃ = Z 1 C .
dann ist
C̃ = Z 2 C .
der k-ten Zeile zur j-ten Zeile, dann ist
Z κ , κ = 1, 2, 3 ,
Z (α)Z (−α) = E m für λ 6= 0.
Die Matrizen
3
λ 6= 0,
durch
3
sind invertierbar
Sie heiÿen
C̃ = Z 3 C .
∗) . Genauer gelten
Elementarmatrizen.
Z 1 Z 1 = Z 2 (λ)Z 2 ( λ1 ) =
Daher ist ein Produkt von Ele-
mentarmatrizen invertierbar und die Inverse des Produkts wieder ein Produkt von solchen.
Gauÿ Eliminationsverfahren
Sei
3
A ∈ K m×n , A 6= 0.
auf spezielle Zeilenstufenform gebracht. Der erste Teil des Verfahrens besteht aus der
wird A
(8.7)
1
1, 2,
Durch wiederholte Anwendung von elementaren Zeilenumformungen (Abwärts-) Elimination, Zeilenstufenform.
∈ {1, . . . , n}
Sei l1
die erste Zeile mit der k-ten Zeile. Es
β1 γ2 .. . γm 




mit
∗
β1 6= 0
k ∈ {1, . . . , m} existiert mit akl1 6= 0.
entsteht aus A eine Matrix der Gestalt
minimal derart, dass ein
Vertausche

∗ 

und gewissen
γ2 , . . . , γn ∈ K
†) in der l -ten Spalte und unspezizierten Einträgen
1
. Alle übrigen Einträge sind null.
3
Addiere das
neue Matrix


(− γβk1 )-fache der ersten Zeile zur k-ten Zeile für k = 2, . . . , m.
A0 , wofür in der l1 -ten Spalte unterhalb β1 nur Nullen stehen:

β1

∗
↑
l1 -te
∗)
†)
κ
γ
Spalte
kappa gamma
52
Es entsteht eine
Gibt es kein
a0kl 6= 0

für
k ∈ {2, . . . , m},
∗
β1
A0 = 
dann ist


↑
l1 -te
Spalte
1 und 3 wiederholen:
und die Elimination endet hier. Andernfalls lassen sich 1
Sei
l2 ∈ {l1 + 1, . . . , n}
Vertausche die zweite Zeile mit der k-ten Zeile. Es

β2
δ3
3
β2 6= 0
Addiere das
∗
.
.
.
↑
l1
mit

β1






δm
↑
l2 -te


 ‡)



Spalte
in der l2 -ten Spalte.
(− βδk2 )-fache
der zweiten Zeile zur k-ten Zeile für
neue Matrix, wofür in der l2 -ten Spalte unterhalb

β1
↑
l1
↑
l2 -te
∗
(8.8)
(m × n)-Matrix
in
∗
β2
β3 . . .
βr
↑ ···
l3
↑
lr










(8.9)
‡)
δ
r
Zeilen







m−r
Zeilen
-te Spalte
β1 6= 0, . . . , βr 6= 0. In jeder Zeile der ersten r Zeilen stehen links von βk nur Nullen. Die
m − r Zeilen (falls überhaupt vorhanden) sind Nullzeilen. Es ist 1 ≤ l1 < l2 < · · · < lr ≤ n.
Dabei sind
letzten
Zeilenstufenform









↑
l2
nur Nullen stehen:





β1
↑
l1
Es entsteht eine
Spalte
Die Elimination endet mit einer










β2
k = 3, . . . , m.

β2






k ∈ {2, . . . , m} existiert mit a0kl2 6= 0.
0
entsteht aus A eine Matrix der Gestalt
minimal derart, dass ein
Beispiel. Gegeben sei das homogenen LGS
delta
53
2x4
x2
− 2x3 + 2x4
2x2 − 4x3 + 4x4
− 21 x2 + x3 − 5x4
Man schreibt es in der Form

0 0
0 1
A=
0 2
0 − 21
−
+
+
+
+ x5
+ 4x5
+ 7x5
− 4x5
A x = 0.
4x6
2x6
7x6
7x6
=
=
=
=
0
0
0
0
Die Koezientenmatrix

0
2
1 −4
−2 2
4
2

−4 4
7
7
1 −5 −4 7
wird auf Zeilenstufenform durch Abwärtselimination gebracht.
1
Vertausche erste Zeile mit zweiter Zeile:

0 1
0 0

0 2
0 − 21
3
(−2)-fache der ersten Zeile


0 1 −2 2
4
2
0 0
0
2
1 −4


0 0
0
0 −1 3 
0 − 21 1 −5 −4 7
Addiere das
Addiere das

0
0

0
0
3

−2 2
4
2
0
2
1 −4

−4 4
7
7
1 −5 −4 7
1
2 -fache der
zur dritten Zeile:
ersten Zeile zur vierten Zeile:

1 −2 2
4
2
0 0
2
1 −4

0 0
0 −1 3 
0 0 −4 −2 8
Addiere das
2-fache
der
zweiten
Zeile zur vierten Zeile. Die entstehende Matrix hat Zeilen-
stufenform:

0
0
C := 
0
0
Es sind
1 −2 2 4 2
0 0 2 1 −4
.
0 0 0 -1 3 

0
0
0
0
0
r = 3 , l1 = 2 , l2 = 4 , l3 = 5
und
β1 = 1 , β2 = 2 , β3 = −1.
Der zweite Teil des Verfahrens besteht in der
Aufwärts-)Substitution.
(8.10) (
An der Matrix in Zeilenstufenform aus (8) werden folgende Zei-
3 vorgenommen: Addiere geeignete Vielfache der
lenumformungen vom Typ den Zeilen
r − 1, r − 2, . . . , 1,
um in der
fahre anschlieÿend so mit der
(m × n)-Matrix

β1










lr−1 -ten
lr -ten
Spalte oberhalb
βr
r-ten
Zeile zu
Nullen zu erzeugen. Ver-
Spalte und so fort. Die Substitution endet mit einer
der folgenden Gestalt:
∗

β2
∗
∗
β3 . . .
∗
...
βr










54
Der letzte Teil besteht in der Freistellung der abhängigen Variablen. Dazu benötigt man Zeilenum2.
formungen von Typ (8.11)
Freistellung, spezielle Zeilenstufenform.
mit
−1
βk für
k = 1, . . . , r.

−1
Es entsteht eine
∗
∗
−1






B=





Multipliziere die
m×n
- Matrix
in
k -te
Zeile der Matrix in (10)
spezieller Zeilenstufenform

∗
−1 . . .
∗
...
−1
Speziell gegenüber der Matrix in (8) ist also, dass die
k = 1, . . . , r.
B
lk -te












Spalte von








r
Zeilen







m−r
B
gleich
ist für
= r,
vgl. (7.11). Auch die maximale Anzahl linear unabhängiger Zeilenvektoren von
Bemerkung.
−ek
Damit ist
Rang (B)
der sog.
Zeilen
Zeilenrang, ist oenbar r.
Der Übergang von
βk
nach
−1
B
in
K 1×n ,
in (11) lässt sich bereits während der Elimination
vollziehen. Das hat den Vorteil, leichter rechnen zu können.
(8.12)
Korollar. Sei A ∈ K m×n . Dann existiert Z ∈ GL(m, K) derart, dass B := Z A spezielle
Zeilenstufenform besitzt. Dabei ist Z als Produkt von Elementarmatrizen Z κ wählbar; für B
in der Form von (10) genügen Z 1 und Z 3 Matrizen.
Beweis.
Üb
Wende das Verfahren (7), (10), (11) an und beachte (6).
Eindeutigkeit der speziellen Zeilenstufenform.
A ∈ K m×n und Z ∈ GL (m, K)
0
derart, dass B := Z A spezielle Zeilenstufenform besitzt. Zeige: B ist eindeutig, d.h. ist Z ∈
0
0
0
GL (m, K) derart, dass auch B := Z A spezielle Zeilenstufenform besitzt, dann ist B = B .
Er Zeige weiter: Es existiert T ∈ GL (m, K) derart, dass T =
mit r := Rang (A) und
Seien
∗
Z0 = T Z.
(8.13)
Zeige schlieÿlich:
Z
ist eindeutig genau dann, wenn
r = m.
Korollar. Für jede Matrix sind Spaltenrang und Zeilenrang gleich.
Beweis.
Nach (11) gilt die Behauptung für Matrizen in spezieller Zeilenstufenform. Elementare
Zeilenumformungen erhalten oenbar den Zeilenrang. Wegen (6) gilt dies nach (7.35) auch für den
Spaltenrang. Die Aussage gilt daher wegen (12).
(8.14)
Lösung des homogenen LGS. Das LGS A x = 0 wird durch Elimination (7), Substitution
B x = 0 transformiert, wofür B
Die Menge aller Lösungen von A x = 0 ist
(10), und Freistellung (11) in ein äquivalentes LGS
Zeilenstufenform (s. (11)) besitzt.
Kern (A)
spezielle
= Kern (B).
xl1 , . . . , xlr heiÿen abhängige Variable, die restlichen heiÿen freie Variable. Das LGS B x = 0 mit freigestellten abhängigen Variablen lautet
Die Unbekannten
xlk =
n
X
bkl xl ,
k = 1, . . . , r,
l=1
55
wobei auf der rechten Seite eektiv nur die freien Variablen vorkommen. Diese können beliebig
gewählt werden. Jede Wahl liefert eine Lösung des LGS A x = 0. Um die Lösungsmenge
leichter beschreiben zu können, benennen wir die Unbekannten so um, dass die ersten r die
abhängigen Variablen sind. Dann lautet die Lösungsmenge


 n

X






b1l xl 











l=r+1












.
x


.
1




.


 ..   n




 .  X





Kern (A) =
brl xl  : xr+1 , . . . , xn ∈ K 
 ..  = 




 .  l=r+1












x
x


n
r+1










.


.




.






xn






b1,r+2
b1,r+1
b1,n
 .. 
 .. 
 . 
 .. 
 . 


 . 


br,r+2 


br,r+1 


br,n 


 0 







=K
 1  + K  1  + ··· + K  0 
 0 


 .. 


 0 
 . 
 .. 




 .. 
 . 
 0 
 . 
0
1
0
in der
(8.15)
Parameter- bzw. Basisdarstellung. Es ist ein (n − r)dimensionaler UVR von K n×1 .
Bedeutung von m, n, r. Sei A ∈ K m×n
m
und
Ax=0
das zugehörige LGS. Dann ist
Anzahl der Gleichungen = Anzahl der Zeilen
n
Anzahl der Unbekannten = Anzahl der Spalten
r
Anzahl der abhängigen Variablen = maximale Anzahl linear unabhängiger Zeilenvektoren (Zeilenrang) = maximale Anzahl unabhängiger Spaltenvektoren (Spaltenrang) =
Rang (A)
n−r
(8.16)
Anzahl freier Variablen = Dimension des Lösungsraums = dim Kern (A).
Folgerungen aus (15).
a)
r ≤ n , r ≤ m.
b)
r = n ⇐⇒ 0 ∈ K n×1 ist die einzige Lösung.
c)
m < n (d.h. mehr Unbekannte als Gleichungen) ⇒ es gibt mindestens n − m linear
unabhängige Lösungen x ∈ K n×1 .
Bemerkung.
Die Gleichheit Rang (A)
altbekannte Dimensionsformel (6.14)
Üb
Sei
A ∈ K n×n .
Zeige:
Zeilenvektoren von
(8.17)
A
A ∈
+ dim
für LA .
bilden Basis
= r+n−r = n =
⇔ Spaltenvektoren
1×n .
von K
GL (n, K)
Fortsetzung Beispiel (9). Die Matrix C

0
0
C→
0
0
Kern (A)

von
A
dim K
n×1 ist die
bilden Basis von
K n×1 ⇔
in (9) wird auf spezielle Zeilenstufenform gebracht:

1 −2 2 0 14
0
0
0 0 2 0 −1
→
0
0 0 0 −1 3 
0 0 0 0
0
0
56

1 −2 0 0 15
0 0 2 0 −1

0 0 0 −1 3 
0 0 0 0
0


0 −15
0 −1 2 0
1 
0 0 0 −1 0
2 .
→ B := 
0 0 0 0 −1
3 
0 0 0 0
0
0
Damit sind
x1 , x3 , x6 die freien Variablen und das LGS mit freigestellten abhängigen Variablen
lautet
x2 = 2x3 − 15x6
x4 = 21 x6
x5 = 3x6 .
Sei
ν := x1 , µ := x3 , λ := x6 .§)
Ax=0
Hieraus folgt für die Lösungsmenge von
in Parame-
terdarstellung
  

ν
x1




x2  2µ − 15λ

 




x3  
µ
:
 = 1



x4   2 λ 






x5   3λ 



λ
x6
ν, µ, λ ∈ R















und in Basisdarstellung
 
 


1
0
0
0
2
−15

 
 

0
1
 0 





R  + R  + R 1 
.
0
0
 2 
0
0
 3 
0
1
0
R6×1 .
Die Lösungsmenge Kern (A) ist also ein 3-dimensionaler UVR von
Üb
gilt:
Üb
Z ∈ R4×4 als Produkt von Elementarmatrizen,
B = Z A. Bestimme Z −1 . Tipp: s. (6).
Bestimme
Zeilenstufenform

(8.18)







(B|c) = 






B
(A|b)
Ax=b
B
in (17)
A auf
c=Z b
die gleichen elementaren Zeilenumformungen aus, die
bringen. Dabei geht
−1
erinnern wir uns an (5). Wir führen an der erweiter-
∗
−1
b
in
c
über. Es ist
∗
B=Z A
(s. (12)) und
∗
−1 . . .
∗
. . . −1
c1
c2
c3
spezielle
mit






. 
. 
.
.
cr 

cr+1 

. 
. 
.
cm
Lösbarkeit des inhomogenen LGS. Das LGS A x = b ist genau dann lösbar, wenn cr+1 =
cr+2 = · · · = cm = 0. Insbesondere ist A x = b lösbar, wenn r = m.
ν
in (9) und
W := Span {a, b, c, d, e} ⊂ C4 , wobei a := (0, 0, i, 1 + i), b := (0, 2, 0, 1 − i), c := (2, 1 −
i, 0, 0), d := (−1, 0, 1, 0) und e := (0, 2i, 2, 0). Berechne eine Basis von W .
ten Koezientenmatrix
§)
A
Sei
Zur Lösung des inhomogenen LGS
(8.19)
so dass für
nü,
µ
mü
57
Beweis.
Nach (5) ist
Ax=b
genau dann lösbar, wenn
genau dann lösbar, wenn Rang ((B|c))
(8.20)
= Rang (B).
B x=c
lösbar ist. Letzteres ist nach (4)
Hieraus folgt die Behauptung.
Lösung des inhomogenen LGS. Im Fall der Lösbarkeit lautet das LGS B x = c mit
freigestellten abhängigen Variablen
xlk =
n
X
blk xl − ck ,
(14)
k = 1, . . . , r.
l=1
Eine partikuläre Lösung x0 = (γ1 , . . . , γn )T erhält man durch Nullsetzen der freien Variablen:
γlk = −ck
für
k = 1, . . . , r
und
γl = 0
sonst.
Die Lösungsmenge von A x = b ist dann der ane Raum
x0 + Kern (A).
Beweis.
Siehe (6.18), (6.20) und vor (5). Für den Kern (A) siehe (14).
58
9 Weitere Folgerungen des
Eliminationsverfahrens
Das Eliminationsverfahren nach Gauÿ erönet weitere Einsichten in die Matrizenrechnung.
(9.1)
Dention. Sei A = (akl )k=1,...,m ∈ K m×n . Die zu A transponierte Matrix AT
hat als l -te
l=1,...,n
Zeile die l -te Spalte von

a11 a21
 a12 a22

AT =  .
.
.
 ..
.
a1n a2n
Damit ist
A
l = 1, . . . , n:

. . . am1
. . . am2 

. 
..
.
.
. 
. . . amn
für
AT =: (aTlk )l=1,...,n ∈ K n×m
aTlk = akl .
mit
k=1,...,m
Beispiel.
(9.2)


1
8
T
 0 −7
1 0 −3 2i

=
−3 i 
8 −7 i
0
2i
0
Regeln für das Transponieren. Seien A, B ∈ K m×n , C ∈ K n×p , λ ∈ K . Dann ist
(A + λ B)T = AT + λ B T ,
Üb
Denition.
T
A =A
Es gilt:
A
A ∈ K m×n , ξ ∈ K n×1 .
A ∈ K n×n .
A = −A.
Dann heiÿt
T
symmetrisch
⇔ akl = alk ; A
A symmetrisch bzw. schiefsymmetrisch,
AT A
und
AAT
wenn
⇔ akl = −alk . Für schiefsymmetrische
A ∈ K n×n , dann ist A = 12 (A + AT ) + 21 (A −
m×n ,
schiefsymmetrischen Matrix. Ist A ∈ K
schiefsymmetrisch
Diagonalelemente akk
null. Ist
die Summe einer symmetrischen und einer
dann sind
Üb
für
Sei
bzw.
Matrizen sind die
AT )
(B C)T = C T B T .
Weise (2) nach.
Beispiel. (Aξ)T = ξ T AT
(9.3)
(AT )T = A ,
deniert und symmetrisch.
A, B, C ∈ K n×n mit A = B + C
B=
+ AT ), C = 12 (A − AT ).
Seien
und
B
symmetrisch,
C
schiefsymmetrisch. Zeige:
1
2 (A
(9.4)
Defnition. Eine quadratische Matrix A heiÿt Diagonalmatrix, wenn akl = 0 für k 6= l,
d.h. es ist

∗
 ∗

A=


..


.

.
Man schreibt

λ1

λ2

diag(λ1 , λ2 , . . . , λn ) := 

∗
..


.

.
λn
Jede Diagonalmatrix ist symmetrisch, insbesondere ist es
(9.5)

λE
für
λ ∈ K.
Lemma. Sei A ∈ GL(n, K). Dann ist AT ∈ GL(n, K) mit (AT )−1 = (A−1 )T . Ist zudem A
(schief-)symmetrisch, dann ist es auch A−1 .
59
Beweis.
AT (A−1 )T = (A−1 A)T = E T = E ⇒ (AT )−1 = (A−1 )T . Für AT = A folgt daraus
−1
sofort A
= (A−1 )T . Für AT = −A erhält man (−A)−1 = (A−1 )T . Da (−A)(−A−1 ) = AA−1 = E ,
−1 = −A−1 , gilt somit −A−1 = (A−1 )T .
weshalb (−A)
Es ist:
Defnition. A ∈ K n×n
(9.6)
obere Dreiecksmatrix, wenn akl = 0 für k > l, d.h.
heiÿt


a11 a12 . . . a1n

a22 . . . a2n 


A=
. .
..
. 

.
.
ann
A ∈ K n×n
untere Dreiecksmatrix, wenn AT
heiÿt
eine obere Dreiecksmatrix ist.
Lemma. Eine Dreiecksmatrix ist invertierbar genau dann, wenn die Diagonalelemente un-
(9.7)
gleich Null sind.
Beweis.
x = 0,
Sei
A
eine Dreiecksmatrix. Das LGS
wenn die Diagonalelemente
Speziell ist
6= 0
Ax = 0
hat oenbar genau dann nur die Lösung
sind. Wende (7.24) an.
diag(λ1 , . . . , λn )−1 = diag( λ11 , . . . , λ1n )
für
λ1 , λ2 , . . . , λn 6= 0.
A ∈ K m×n . Nach (7.11) ist der Spaltenraum von A gleich Span{a1 , . . . , an } = Bild(A) =
{Ax : x ∈ K n×1 }. Betrachte jetzt die Zeilenvektoren a01 , . . . , a0m ∈ K 1×n von A. Entsprechend heiÿt
Sei
Span{a01 , . . . , a0m } = {y A : y ∈ K 1×m }
Zeilenraum
der
gilt oenbar, dass
von
A
A.
und
Wie in (8.13) gezeigt, ist Spaltenrang = Zeilenrang. Für
TA
T ∈ GL(m, K)
gleichen Zeilenraum haben. Vgl. dazu die Aussagen in (7.35).
A ∈ K m×n . Zeige, dass RA : K 1×m → K 1×n , RA (ζ) := ζA ∗) eine lineare Abbildung ist.
Oenbar ist Bild(RA ) der Zeilenraum von A. Bestimme die Abbildungsmatrix für RA bez. der
1×m und K 1×n .
Standardbasen in K
Üb
Sei
Üb
Sei
Üb
A ∈ K m×n , T ∈ GL(m, K), S ∈ GL(n, K). Welche Beziehungen bestehen zwischen
Bild(A), Kern(A), Bild(T A), Kern(T A), Bild(A S), Kern(A S), Bild(AT ), Kern(AT ),
Bild((T A)T ), Kern((T A)T ), Bild((A S)T ), Kern((A S)T ), den zugehörigen Dimensionen und
n, m, sowie den jeweiligen Spalten und Zeilenräumen?
C ∈ GL(n, K).
Zeige:
LC
und
RC
sind Automorphismen.
Sei
Analog zu den elementaren Zeilenumformungen deniert man
(9.8)
Elementare Spaltenumformungen.
Elementarmatrizen aus Kap. 8. Ensteht
1
Vertauschen der Spalten
2
Multiplikation der
3
Addition des
Beweis.
dass
(9.9)
1
Da
Z ,Z
2
k ten
αfachen
C Z T = (Z C T )T ,
j
und
k,
C ∈ K p×m
e aus C durch
C
Seien
j ten
κ = 1, 2, 3
die
Spalte zur
k ten
Spalte, dann ist
e = C Z 3.
C
folgt die Behauptung aus (8.6) aufgrund von (1). Beachte dabei,
symmetrisch sind und dass
(Z 3 (j, k))T = Z 3 (k, j)
gilt.
Struktursatz für Matrizen. Sei A ∈ K m×n . Es gibt T ∈ GL(m, K) und S ∈ GL(n, K)
T AS =
Er
mit r = Rang(A).
Jede invertierbare Matrix ist Produkt von Elementarmatrizen.
ζ
für
e = C Z 1.
C
e = C Z 2.
λ, dann ist C
derart, dass
∗)
Z κ ∈ K m×m
dann ist
Spalte mit
der
und
zeta
60
Beweis. Nach (8.12) existiert Z ∈ GL(m, K) derart, dass B := Z A spezielle Zeilenstufenform hat.
Indem man geeignete Vielfache der l1 -ten Spalte von
erste Zeile gleich
−el1 .
B
zu den folgenden Spalten addiert, wird die
Verfahre ebenso mit den Zeilen
2, . . . , r.
Jetzt vertausche die erste Spalte
mit der l1 -ten Spalte, dann die zweite Spalte mit der l2 -ten Spalte, u.s.w. Anschlieÿend multipliziere
jede Spalte mit
−1. Es entsteht aus B
Elementarmatrizen
Sei nun
S ∈ K n×n
A ∈ GL(n, K).
die Matrix
Er
BS =
gibt, so dass
B = −E
Dann ist
. Es folgt aus (8), dass es ein Produkt von
Er
und daher
. Mit
T := Z
A = −Z −1 .
folgt
T AS =
Er
.
Die Behauptung folgt nun mit
(8.6).
Üb
V und W endlichdimensionale VR, f : V → W eine lineare Abbildung und B eine
(m × n)Matrix. Es gelte: n = dim V , m = dim W und Rang(f ) = Rang(B). Gibt es Basen
in V und W derart, dass B die darstellende Matrix von f bez. dieser Basen ist?
Seien
A ∈ K m×n , B ∈ K m×p . Indem man A durch die p Spalten von B erweitert, erhält man
(A|B) ∈ K m×(n+p) . Für T ∈ K q×m ist T (A|B) = (T A|T B). Das bedeutet: Nimmt man an (A|B)
elementare Zeilenumformungen vor, so nimmt man diese gleichzeitig an A und B vor.
Seien
(9.10)
(9.11)
Anwendung: Spezielle Zeilenstufenform.
Berechnung der Inversen.
A
(9.12)
A ∈ K m×n .
Wie berechnet man Z ∈
GL(m, K) derart, dass B := Z A spezielle Zeilenstufenform hat? Antwort: Wende auf
(A|E m ) jene elementaren Zeilenstufenumformungen (Elimination, Substitution, Freistellung)
an, die A in B überführen. E m geht dabei in Z über, denn Z (A|E m ) = (B|Z).
gleich
−E n .
Also ist
A
−1
Sei
= −Z
Sei
A ∈ GL(n, K).
Dann ist die spezielle Zeilenstufenform für
aus (10).
α β
und ∆ := αδ − βγ . Gemäÿ (11) wird (A|E 2 ) umgeformt:
γ δ
β
δ
α β
1 0
α β 1 0
α 0 αδ
− αβ
−∆
1 0 ∆
∆
∆
→
→
→
.
γ
α
γ δ 0 1 (α6=0) 0 ∆
− αγ 1 (∆6=0) 0 ∆
0 1 −∆
− αγ
1
∆
α
−1
α
1
δ −β
α β
für ∆ 6= 0, auch falls α = 0. Allgemein gilt ∆ E 2 =
=
So ist
γ δ
−γ α
∆
δ −β
α β
, wie man leicht nachrechnet.
−γ α
γ δ
Beispiel. Sei A =
m×n , C ∈ K p×n . Indem man A durch die p Zeilen von C
A ∈ K
A
A
AS
(m+p)×n
n×q
∈ K
. Für S ∈ K
ist
S =
. Das bedeutet:
C
C
CS
elementare Spaltenumformungen vor, so nimmt man diese gleichzeitig an A
Seien
(9.13)
Anwendung: Spaltenstufenform.
lenstufenform deniert.
C ∈ K m×n
dass man auf
A
En
C = AS
geht dabei in
C
vor.
A∈
CT
S ∈ GL(n, K) von EleS dadurch,
Spaltenstufenform besitzt. Man berechnet
jene elementaren Spaltenumformungen anwendet, die
S
über, denn
A
En
A in C
überführen.
C
S=
.
S
A und C
C . Diese sind also
Da elementare Spaltenumformungen den Spaltenraum nicht verändern, haben
den gleichen Spaltenraum. Eine Basis davon bilden die ersten
eine Basis von
Zeilenstu-
K m×n mittels elementarer Spaltenum-
En
und
A
C
Die Spaltenstufenform einer Matrix ist analog zur Zei-
formungen in Spaltenstufenform bringen. Damit gibt es ein Produkt
Nimmt man an
hat Spaltenstufenform genau dann, wenn
fenform hat. Entsprechend lässt sich eine Matrix
mentarmatrizen derart, dass
erweitert, erhält man
Bild(A).
61
r
Spalten von
Üb
Sei
V
v1 , v2 , . . . , vp linear unabhängige Vektoren aus V . Weiter seien q
P
ul = pk=1 akl vk mit akl ∈ K für l = 1, . . . , q aus V gegeben. Berechne eine Basis
Span{u1 , . . . , uq } für den Fall, dass p = 4, q = 5 und A = (akl ) die folgende Matrix ist:
ein VR und seien
Vektoren
von


0
0
2
−1 0
 0
2
1 − i 0 2i
.
A=
 i
0
0
1 2
1+i 1−i
0
0 0
62
10 Determinanten
A ∈ K n×n
lässt sich ein Skalar det A ∈ K , die sog. Determinante
A berechnen, der genau dann nicht null ist, wenn A invertierbar ist. Es ist also GL (n, K) =
{A ∈ K n×n : det A 6= 0}. Die Determinatenfunktion hat weitere wichtige Eigenschaften wie z.B. die
Multiplikativität det (A B) = (det A)(det B).
Für jede quadratische Matrix
von
Für
(10.1)
(2 × 2)Matrizen haben wir die
a1 b1
det
:= a1 b1 − a2 b1 .
a2 b2
Im Fall
K=R
ist
det a1 b1 a2 b2 Determinante bereits kennengelernt (9.12):
die Fläche
F
des von den Vektoren
a = (a1 , a2 )
und
b = (b1 , b2 )
aufgespannten Parallelogramms.
Es ist
von
Üb
Rechne die Multiplikativität der Determinante (1) für
Für
(10.2)
a
F = a1 b2 − a2 b1 , falls
b positiv ist.
der kleine Winkel
nach
(2 × 2)Matrizen
nach.
(3 × 3)Matrizen deniert man


a1 b1 c1
det a2 b2 c2  := a1 b2 c3 + b1 c2 a3 + c1 a2 b3 − a3 b2 c1 − b3 c2 a1 − c3 a2 b1 .
a3 b3 c3
Es ist das
Spatprodukt [a, b, c] = a· (b × c)
c = (c1 , c2 , c3 ).
Im Fall
K=R
ist
|[a, b, c]|
der Vektoren
das Volumen
63
V
a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 )
a, b, c.
des Spats mit den Kanten
und
Es ist
V = [a, b, c]
für ein Rechtssystem
a, b, c.
Merkregeln.
det
det
a1 b1
a2 b2
a1
b1
%
&
=
a2
b2
a1
b1
c1
a1
b1


a1 b1 c1
%
%
%
a2 b2 c2  = a2
b2
c2
a2
b2
a3 b3 c3
&
&
&
a3
b3
c3
a3
b3
Dabei bezeichnen
Regel von Sarrus
& (%) Produkte versehen mit einem positiven (negativen) Vorzeichen. Ihre Sum-
me ergibt die Determinante.
Also ist die Determinante im Fall
n = 2, 3 für K = R eine sog. Volumenform. Sie ist genau dann
null, wenn das Parallelogramm zur Strecke oder der Spat zum Parallelogramm entartet, d.h. wenn
die Spaltenvektoren linear abhängig sind. Als Volumenform ist die Determinante, wie geometrisch
ersichtlich, linear in jeder Spalte.
Die Fläche des Parallelogramms mit Seiten
a, c ist die Suma, b und
me der Flächen der Parallelogramme mit Seiten
a, b0 .
3 × 3Matrix


 0

c1
a1 b1 c1
a1 b1 c1
c2  = det a2 b2 c2  + λ det a02 b2 c2 
c3
a3 b3 c3
a03 b3 c3
Z.B. gilt für die Determinante einer
a1 + λa01 b1
a2 + λa02 b2
a3 + λa03 b3

(10.3) det
Üb

Rechne die Linearität der Determinante in (3) nach.
Auÿerdem ist die Determinante normiert, indem
(10.4) det E2
=1,
det E3
= 1.
64
A ∈ K n×n
(K n×1 )n .
Im Folgenden schreiben wir
n×n mit
identizieren K
(10.5)
als nTupel
(a1 , a2 , . . . , an )
ihrer Spaltenvektoren. D.h. wir
Denition. Wir nennen eine Abbildung
det
eine
: K n×n −→ K
Determinatenfunktion, wenn sie folgende Eigenschaften besitzt:
(a) det ist
multilinear bez. der Spalten, d.h. für jedes k = 1, . . . , n ist
+ λa0k , ak+1 , . . . , an ) =
0
det (a1 , . . . , an ) + λ det (a1 , . . . , ak−1 , ak , ak+1 , . . . , an ),
det (a1 , . . . , ak−1 , ak
(b) det (a1 , . . . , an )
(c) det En
=0
falls
a1 , . . . , an ∈ K n×1
linear abhängig sind,
= 1.
Bemerkung. (a)(c) sind für (1) und (2) erfüllt. Im Fall n = 1 gilt dies oenbar für
(10.6) det A
:= a,
wobei
A = (a), a ∈ K.
Es geht nun darum, allgemein für
(10.7)
n∈N
die Existenz und Eindeutigkeit von det zu zeigen.
Lemma. Sei δ : K n×n −→ K multilinear im Sinne von
Aussagen
(i)
(ii)
(iii)
(i), (ii)
Eigenschaft
und
(iii)
(5)(a).
äquivalent:
Dann sind die folgenden
(5)(b).
δ(a1 , . . . , an ) = 0 falls a1 , . . . , an nicht paarweise verschieden sind.
δ ist alternierend, d.h. δ ändert das Vorzeichen bei Platzwechsel, d.h. bei Vertauschung
benachbarter Spaltenvektoren.
Beweis. (i) ⇒ (ii) gilt, weil nicht paarweise verschiedene ak linear abhängig sind. (ii) ⇒ (iii): Ersetze
die l -te und
(l + 1)-te
Komponente für
l<n
durch
al + al+1 .
Dann ist wegen der Multilinearität
0 = δ(. . . , al + al+1 , al + al+1 , . . . )
= δ(. . . , al , al + al+1 , . . . ) + δ(. . . , al+1 , al + al+1 , . . . )
= δ(. . . , al , al , . . . ) + δ(. . . , al , al+1 , . . . ) + δ(. . . , al+1 , al , . . . ) + δ(. . . , al+1 , al+1 , . . . )
= δ(. . . , al , al+1 , . . . ) + δ(. . . , al+1 , al , . . . ).
Pn
Es bleibt (iii) ⇒ (i) zu zeigen. Sei aq =
k=1,k6=q αk ak mit αk ∈ K für ein q ∈ {1, . . . , n}. Dann ist
Pn
δ(a1 , . . . , aq , . . . , an ) = k=1,k6=q αk δ(a1 , . . . , ak , . . . , a1 ) mit ak als q -te Komponente. Weil k 6= q ,
stimmen für den k -ten Summanden die k -te und die q -te Komponente überein. Sind k und q benachbart, dann ist der Summand null als unmittelbare Folge von (iii). Den allgemeinen Fall führt
man auf diesen durch mehrfachen Platzwechsel zurück:
. . . , ∗, a, ∗, ∗, a, ∗. · · · → . . . , ∗, ∗, a, ∗, a, ∗. · · · → . . . , ∗, ∗, ∗, a, a, ∗. . . .
Eine Determinatenfunktion ist demnach eine
K n×n ' (K n×1 )n .
normierte alternierende Multilinearform
auf
Existenz und Eindeutigkeit der Determinantenfunktion ist gleichbedeutend
mit der Existenz eines einfacheren Objekts. Gemäÿ dem physikalischen Sprachgebrauch ist es
(10.8)
Der vollständig antisymmetrische Tensor n-ter Stufe . Sei n ∈ N. Zu j1 , . . . , jn ∈
{1, . . . , n} gibt es j1 ...jn ∈ K derart, dass 12...n = 1 und bei Platzwechel der Indexwerte das
Vorzeichen ändert. ist eindeutig und nimmt für n ≥ 2 genau die Werte −1, 0, 1 an.
65
Beweis.
Zur Eindeutigkeit von
null ist, wenn zwei Indexwerte überein-
j1 ...jn für paarweise
j1 , . . . , jn liegt fest, weil man diese durch mehrfache Vertauschung benachbarter Indizes in die Ordnung 12 . . . n bringen kann, wofür eins ist. Damit ist auch klar, dass für
n ≥ 2 genau die Werte −1, 0, 1 annimmt.
(1)
Die Existenz wird durch rekursive Denition gezeigt. Für n=1 sei 1 := 1 := 1. Seien nun die
(1) , . . . , (n) bereits konstruiert. Setze
Tensoren (
0 falls zwei Indizes übereinstimmen
(n+1)
j1 ...jq ...jn jn+1 :=
(n)
(−1)n+1−q j1 ...\
jq ...jn jn+1 sonst
stimmen, weil
stellt man fest, dass
alternierend ist (vgl. Beweis von (7)). Aber auch der Wert von
verschiedene Indexwerte
q ∈ {1, . . . , n + 1} derart, dass jq = n + 1. Zunächst beachte, dass jk ∈ {1, . . . , n} für
(n+1)
(n)
k ∈ {1, . . . , n + 1}, k 6= q , womit die Denition sinnvoll ist. Weiter ist 1...n(n+1) = (−1)0 · 1...n = 1.
wobei
jq
Bei einem Platzwechsel, der
nicht betrit, liefert
(n)
ein Minuszeichen. Rückt hingegen
(n) unverändert aber der Vorfaktor liefert ein Minuszeichen. Also ist
einen Platz, bleibt normiert und vollständig antisymmetrisch.
j1 . . . jn
Sind
idSn
π(k) := jk eine Permutation π ∈ Sn (s. (4.3).).
schreibt man π := j1 ...jn und nennt π das Vorzeichen oder Signum der Per−1 durch die gleiche Anzahl von Platzwechsel aus
gilt stets π = π −1 , weil π und π
paarweise verschieden, dann deniert
In diesem Fall
mutation.
jq um
(n+1)
Es
hervorgehen.
Produktschreibweise. Alternativ zur Pünktchenschreibweise benutzt man für m < n, m, n ∈ Z,
n
Y
αi := αm αm+1 . . . αn ∗)
i=m
(10.9)
Leibniz Formel für Determinanten. Es gibt genau eine Determinantenfunktion, nämlich
det A
X
:=
π
π∈Sn
Beweis.
n
Y
aπ(k)k
A ∈ K n×n .
für
k=1
Zum Nachweis der Eindeutigkeit sei
δ
eine Determinantenfunktion, d.h. eine normierte
n×1 )n . Dann ist
alternierende Multilinearform auf (K

δ(A) = δ 
n
X
aj1 1 ej1 ,
j1 =1
n
X
=
n
X
n
X
aj2 2 ej2 , . . . ,
j2 =1
···
j1 =1 j2 =1
n
X

ajn n ejn 
jn =1
aj1 1 aj2 2 . . . ajn n δ(ej1 , ej2 , . . . , ejn ).
jn =1
δ(ej1 , ej2 , . . . , ejn ) = j1 j2 ...jn
δ(A) = det (A).
Oensichtlich ist
d.h.
n
X
Zur Existenz bleibt zu zeigen, dass
und somit (s. (8).)
δ(A) =
P
π∈Sn π aπ(1)1 . . . aπ(n)n ,
det wie oben deniert wirklich eine Determinatenfunktion ist,
d.h. normiert, alternierend und multilinear.
Q
P
( nk=1 δπ(k)k ) = π∈Sn ,π=id π = 1.
Bei einem Wechsel der Plätze l und l + 1 geht A in die Matrix B
σ ∈ Sn , σ(l) := l + 1, σ(l + 1) =: l und σ(k) = k sonst. Demnach ist
Es ist det E
n
Y
k=1
∗) Q
=
P
bπ(k)k =
π∈Sn π
n
Y
aπ(k)σ(k) =
k=1
n
Y
aπ(σ−1 (j))j
j=1
Pi , das groÿe griechische P
66
über mit
bk = aσ(k) ,
wobei
und somit
det B
X
=
π
n
Y
aπ◦σ−1 (j)j =
j=1
π∈Sn
X
κ◦σ
n
Y
aκ(j)j =
j=1
κ∈Sn
X
(−κ )
n
Y
aκ(j)j = −det (A).
j=1
κ∈Sn
bl := al + λa0l ,
Es bleibt die Multilinearität zu zeigen. Ersetzt man die l -te Spalte durch
n
Y
n
Y
bπ(k)k =
k=1
k=1
a0k := ak
wobei
aπ(k)k + λ
für
n
Y
dann ist
a0π(k)k ,
k=1
k 6= l.
Einsetzen in die Leibniz Formel liefert die Behauptung.
Konkrete Berechnungen mit Hilfe der Leibniz Formel sind oftmals sehr umfangreich wegen der
groÿen Anzahl
n!
von Summanden (s. Üb. zu (4.3)). Es werden jetzt ausgehend von (9) die
wichtigsten Eigenschaften der Determinantenfunktion bewiesen.
(10.10)
Korollar. Für A ∈ K n×n gilt
Beweis. Zunächst ist
det (A
T
),
weil
Qn
k=1 aπ(k)k
κ−1 = κ
Identiziert man
det (A
=
T
) = det (A).
Qn
j=1 ajπ −1 (j) . Damit folgt det (A)
=
P
κ∈Sn κ−1
nach (8).
K n×n ' (K 1×n )n
und schreibt
A ∈ K n×n
als
n-Tupel
Qn
j=1 ajκ(j)
=
ihrer Zeilenvektoren, dann
folgt sofort aus (10)
(10.11)
Korollar. det : K n×n −→ K ist eine (die einzige) normierte, alternierende Multilinearform
bez. der Zeilen.
Sei
A ∈ K n×n
Matrix, die aus
(10.12)
(k, l) ∈ {1, . . . , n}2 . Dann deniert man A(kl) ∈ K (k−1)×(n−1)
A durch Streichen der k -ten Zeile und der l-ten Spalte ensteht.
und
als diejenige
Lemma. Sei A ∈ K n×n und (k, l) ∈ {1, . . . , n}2 derart, dass al = ek , d.h. der l-te Spalten-
vektor von A ist der k -te Standardspaltenvektor. Dann gilt
det (A)
= (−1)k+l
det A(kl) ,
Die gleiche Formel gilt, wenn der k -te Zeilenvektor von A gleich dem l-ten Standardspaltenvektor ist.
Beweis. Durch n − l
Platzwechsel
...∗
tausche
ek
ek ∗∗∗ →
. . . ∗∗
von der l -ten Spalte in die
n-te
ek ∗∗ →
Zeile. Für die neue Matrix
B
ek ∗ →
. . . ∗∗∗∗
ek
Spalte ohne die Reihenfolge der übrigen Spaltenvektoren
zu verändern. Anschlieÿend tausche analog durch
n-te
. . . ∗∗∗
n−k
gelten:
67
Platzwechsel den
k -ten
Zeilenvektor in die
(i) der letzte Spaltenvektor von
n-ten
(ii) durch Streichen der
(iii) det B
ist
en ,
n-ten
Zeile und der
Spalte von
B
entsteht
A(kl) ,
= (−1)(k+l) det A.
Letzteres gilt, weil
det B
B
(n − l) + (n − k)
X
=
π
π∈Sn
(i)
κ
π∈Sn−1
X
bπ(k)k =
k=1
X
=
n
Y
Platzwechsel vorgenommen werden. Jetzt wende (9) auf
π
π∈Sn ,π(n)=n
n−1
Y
n−1
Y
an:
bπ(k)k
k=1
(ii)
bκ(k)k = det A(kl) .
k=1
Schlieÿlich beachte (iii). Der Rest der Behauptung gilt wegen (10).
Es folgt der Entwicklungssatz von
(10.13)
B
Laplace.
Entwicklung nach Zeile oder Spalte. Sei A ∈ K n×n beliebig. Dann gelten die Entwicklung
von det A nach der lten Spalte
(Sl )
det A
=
n
X
(−1)k+l akl
det A(kl)
k=1
und die Entwicklung von det A nach der k ten Zeile
(Zk )
det A
=
n
X
(−1)k+l akl
det A(kl) .
l=1
Beweis.
P
Aufgrund der Linearität bez. der
lten Spalte ist det A = det (a1 , . . . , al , . . . , an ) =
(Sl ) mit (12). Analog zeigt man (Zk ).
n
k=1 akl det (a1 , . . . , ek , . . . , an ). Hieraus folgt
(10.14)
Verhalten bei elementaren Umformungen. Seien Z κ , κ = 1, 2, 3, die drei Typen von
Elementarmatritzen und C ∈ K n×n , vgl.
(8.6)
1
det (Z
1
C) = det (C Z 1 ) = −det (C),
2
det (Z
2
C) = det (C Z 2 ) = λdet (C),
3
det (Z
3
C) = det (C Z 3 ) = det (C).
und
(9.8).
Dann gelten
Beweis. Diese Beziehungen sind eine unmittelbare Folge der Multilinearität und der vollständigen
Antisymmetrie der Determinantenfunktion.
Üb
Drücke in Worten die Bedeutung von (14) aus.
Die Sätze (13) und (14) erlauben in eektiver Weise Determinanten auszurechnen.
(10.15)
Beispiel. Vandermonde Determinante.



1 x x2
1
x
x2
y 2  = det  0 y − x y 2 − x2  =
det  1 y
1 z z2
0 z − x z 2 − x2
y − x y 2 − x2
1 y+x
det
= (y − x)(z − x) det
=
z − x z 2 − x2
1 z+x
1 y
(y − x)(z − x) det
= (y − x)(z − x)(z − y).
1 z

68
Allgemein gilt

1 x1 . . .
 1 x2 . . .

det  .
.
 .. ..
1 xn . . .
Üb
(10.16)

xn−1
1

Y
xn−1
2

(xj − xi ).
=

.
.

.
1≤i<j≤n
xn−1
n
Weise die allgemeine Formel für die Vandermonde Determinante aus (15) nach.
Multiplikationssatz. Für A, B ∈ K n×n
gilt det (A B)
= (det A)( det B).
Beweis. Da det (E) = 1, folgt aus (14) für C = E , dass
det (Z
(10.17)
1
Daher gilt det (Z
) = −1,
κ
C) =
det (Z
det (Z
κ
2
) = λ,
) det (C)
det (Z
für
3
) = 1.
κ = 1, 2, 3.
Dies wird nun mehrfach angewendet.
A invertierbar. Dann existieren nach (9.9) Elementarmatritzen Z 1 , . . . , Z m derart,
dass A = Z 1 . . . Z m . Daher gilt:
det (A B) = det (Z 1 . . . Z m B) = det (Z 1 ) det (Z 2 . . . Z m B) = det (Z 1 ) det (Z 2 ) det (Z 3 . . . Z m B) =
· · · = det (Z 1 ) . . . det (Z m ) det (B) = det (Z 1 ) . . . det (Z m−2 ) det (Z m−1 Z m ) det (B) = · · · = det (Z 1
. . . Z m ) det (B) = det (A) det (B).
Sei zunächst
Nun sei
A
nicht invertierbar, d.h. Rang(A)<
(5)(b) gilt det (A)
=0
und det (A B)
Wir erinnern an (7.24):
A ∈ K n×n
n.
Dann ist auch Rang(A B )<
n.
Nach Denition
= 0.
ist invertierbar genau dann, wenn Rang (A)
= n
oder wenn
dim Kern (A) = 0.
(10.18)
Invertierbarkeitskriterium. Es ist
GL(n, K) = {A ∈ K n×n : det (A) 6= 0},
d.h. für A ∈ K n×n gilt:
A invertierbar ⇔ det (A) 6= 0.
Beweis. Wir wissen bereits: A nicht invertierbar ⇒ Rang (A) < n ⇒ det (A) = 0. Sei nun A invertierbar. Dann gilt:
(10.19)
E = A A−1 ⇒ 1 = det (E) = det (A A−1 ) = det A det (A−1 ) ⇒ det A 6= 0.
Korrolar. Für A, B, C ∈ K n×n
und S ∈ GL(n, K) gelten:
• det (A B C) = det (B A C) = det (B C A).
• det (Ak ) = (det A)k für k ∈ N, wobei Ak := . . . ((A A) A) . . . A mit k Faktoren.
• det (S −1 ) = (det S)−1 .
• det (S −1 A S) = det (A).
Üb
Weise (19) nach.
69
Üb
Blockmultiplikation von Matrizen.
Akl
seien
(mk × nl )Matrix
eine
C kj :=
n
X
und
Für
B lj
k = 1, . . . , m, l = 1, . . . , n
(nl × pj )Matrix. Damit ist
und
j = 1, . . . , p
eine
Akl B lj
l=1
Pn Setze (Akl )k=1,...,m, l=1,...,n
Pm (mk × pj )Matrix.
l=1 nl zusammen:
k=1 mk und N :=


A11 A12 · · · A1n

 A
 21 A22 · · · A2n 
A= .

.
.
.
.
.
..

 ..
.
.
Am1 Am2 · · · Amn
eine
B ∈ K N ×P
Ebenso bilde
Üb
Sei
A ∈ K n×n
B
wobei
mit
P :=
(M × N )Matrix A
Pp
j=1 pj . Zeige
mit
M :=
C = A B.
B C
B
bzw. A =
,
D
C D
det A = (det B)(det D).
derart, dass als Blockmatrix
D
und
C ∈ K M ×P
und
zu einer
quadratisch sind. Zeige:
A=
Tipp: Zeige die Behauptung für den Spezialfall
D=E
und schreibe
A
in geeigneter Weise als
Produkt zweier Matrizen.
Üb
Dreiecksblockmatrizen. Sei


A11



A=


eine
App
A=
B C
D
Übung folgt, dass
von
Üb
.
mit quadratischen Aii , i = 1, . . . , p. Zeige die Formel
p
.
Entsprechendes
gilt für untere Dreiecksblockmatrizen.
det
A
ii
i=1
=
Sei
..
obere
Q Dreiecksblockmatrix
det A
Üb






∗
A22
B
−1
D
und
Eine Matrix
−1
mit
A
B, D
quadratische invertierbare Matrizen. Aus der vorangegangenen
invertierbar ist. Wie lautet die Blockmatrix für
A−1
unter Verwendung
?
P ∈ K n×n
heiÿt
Permutationsmatrix,
von Spalten hervorgeht, d.h. wenn es eine Permutation
wenn
P
π ∈ Sn
aus
En
durch Vertauschung
(s. (4.3).) gibt derart, dass
P = (eπ(1) |eπ(2) | . . . |eπ(n) )
oder, anders ausgedrückt, wenn
P ek = eπ(k)
für
k = 1, . . . , n.
Also besteht eine eineindeutige
Zuordnung
π 7→ Pπ
zwischen den Permutationen aus
Sn
und den
(n × n)Permutationsmatrizen.
die Menge der Permutationsmatrizen.
a) Zu welcher Permutation gehört

0
0

0
1
0
1
0
0
70
1
0
0
0

0
0
?
1
0
Sei
Πn ⊂ K n×n
π ∈ S5
b) Wie sieht die Permutationsmatrix zu
π(5) := 1
mit
π(i) := i + 1
i ∈ {1, . . . , 4}
für
aus?
Πn ⊂ GL(n, K)
c) Weise nach: Es ist
Gruppenhomomorphismus
und
Sn → GL(n, K), π 7→ Pπ ,
ist ein injektiver
∀ π, κ ∈ Sn ,
Pπ◦κ = Pπ Pκ
Πn ist. Allgemein nennt man einen Gruppenhomomorphismus
GL(n, K) eine ndimensionale Matrixdarstellung von G.
dessen Bild gleich
Gruppe G in
d) Weise nach:
gruppe von
e) Sei
π
Πn ist eine
GL(n, K).
Gruppe bez. der Gruppenmultiplikation, d.h.
π ∈ Sn .
das Vorzeichen der Permutation
Tipp: Wie hängen
Pπ
π
und
Zeige:
nter
antisymmetrischen Tensor
Πn
einer
ist eine Unter-
π◦κ = π κ ∀π, κ ∈ Sn .
zusammen?
f ) Finde einen Zusammenhang zwischen gewissen
(10.20)
und
Stufe
(n × n)Matrizen
und dem vollständig
.
Cramer Regel. Seien A ∈ GL(n, K) und b ∈ K n×1 . Dann hat A x = b die eindeutige Lösung
x mit
xk =
1
det A
det (a1 , . . . , ak−1 , b, ak+1 , . . . , an ).
Beweis. Es ist b = A x =
Pn
Pn
l=1 xl al und somit det (a1 , . . . , ak−1 , b, ak+1 , . . . , an ) =
l=1 xl det (a1 ,
P
. . . , ak−1 , al , ak+1 , . . . , an ) = nl=1 xl δkl det A = xk det A.
(10.21)
Korollar. Sei A ∈ GL(n, K). Setze (âkl )k, l=1,...,n := A−1 . Dann ist
âkl =
1
(−1)k+l det A(lk) für k, l = 1, . . . , n.
det A
Beachte die Reihenfolge der Indizes.
Beweis. Für b = el
x = A−1 el = âl die lte Spalte von A−1 .
1
1
âkl = det
det (a1 , . . . , ak−1 , el , ak+1 , . . . , an ) =
(−1)k+l det A(lk) .
A
det A
(10.22)
in (20) ist
Die Adjunkte. Zu A ∈ K n×n
à = (ãkl )k,l=1,...,n
Die Matrix
Ã
heisst die
mit
Also ist nach (20) und (12)
setze
ãkl := (−1)k+l det A(lk) .
Adjunkte zu A. Sie erfüllt (vgl. (21))
à A = A à = (det A) E n .
Beweis. Mit (12) gilt
Pn
l=1 ãkl
alj =
Pn
l=1 det (a1 , . . . , ak−1 , el , ak+1 , . . . , an ) alj
=
det (a1 , . . . , ak−1 ,
aj , ak+1 , . . . , an ) = δkj det A.
à A = ( det A) E n . Nun ist (A˜T )T = Ã, wie man sich
A˜T AT = ( det AT )E n durch Transponieren A Ã = ( det A) E n .
Also gilt
(10.23)
Beispiel. Die Adjunkte zu A =
α β
γ δ
ist
71
à =
δ −β
−γ α
leicht überzeugt. Damit folgt aus
, vgl. (9.12).
Üb
Seien
f : Rn → Rn
linear und
b1 , . . . , b n
( n
X
Vektoren des
Rn .
Die Teilmenge des
Rn
)
λl bl : λl ∈ [0, 1]
für
l = 1, . . . , n
l=1
heiÿt
Spat mit Kanten b1 , . . . , bn .
bl der Spaltenvektor in Rn×1 bestehend aus den Komponenten
(b1 . . . bn ) ∈ Rn×n . In Übereinstimmung mit der Anschauung im R2
Sei
von
und
bl ∈ Rn . Setze B :=
R3 (vgl. die Erläute-
rungen zu (1) und (2)) nennt man allgemein
V := | det B |
das
Volumen
des Spats mit Kanten
f (b1 ), . . . , f (bn )
ist
b1 , . . . , b n .
| det f | V .
72
Zeige: Das Volumen des Spats mit Kanten
11 Eigenwerte und Eigenvektoren
Gegeben sei eine lineare Abbildung
f : V → W
von einem
ndimensionalen K VR V
in einen
mdimensionalen K VR W .
(11.1)
Struktursatz für Homomorphismen. Bei geeigneter Wahl von Basen in V und W ist die
Abbildungsmatrix A ∈ K m×n von f gleich
Er
A=
mit r := Rang (f ).
Jede weitere Abbildungsmatrix A0 von f ist von der Form A0 = T −1 A S mit T ∈ GL(m, K)
und S ∈ GL(n, K).
Beweis. Die Behauptung folgt sofort aus (9.9) und (7.33).
Ähnlichkeit von Matrizen
A ∈ K n×n von f ,
indem man auch die Bildvektoren f (x) bez. derselben Basis entwickelt. Ein Basiswechsel in V führt
0
auf eine zu A ähnliche Matrix A , nämlich
Im Fall eines Endomorphismus
(11.2)
mit
f
von
V
bestimmt man eine Abbildungsmatrix
A0 = S −1 AS
S∈
GL(n, K), s. (7.36). Die Aufgabe ist,
S
so zu bestimmen, dass
A0
eine möglichst einfache
Gestalt hat. Diese Aufgabenstellung hat einen prinzipiellen Aspekt, auf den wir kurz eingehen
wollen.
(11.3)
Denition.
schaften für
• x∼x
Sei X eine Menge. Eine Äquivalenzrelation ∼ auf X hat
x, y, z ∈ X . Dabei steht x ∼ y für "x ist äquivalent zu y ".
(Reexivität)
• x∼y⇒y∼x
(Symmetrie)
• x ∼ y, y ∼ z ⇒ x ∼ z
Zu jedem
die folgenden Eigen-
x∈X
(Transitivität).
bildet man nun die zugehörige
Äquivalenzklasse
[x] := {y ∈ X : y ∼ x} ⊂ X.
Je zwei Äquivalenzklassen [x] und [x0 ] sind gleich [x] = [x0 ], wenn x ∼ x0 , und disjunkt [x] ∩ [x0 ] = ∅,
wenn x x0 . (Denn ist x ∼ x0 und sind y, y 0 ∈ X mit y ∈ [x] und y 0 ∈ [x0 ], dann gilt y ∼ x ∼ x0 ∼ y 0 ,
0
0
0
0
0
weshalb y ∈ [x ] und y ∈ [x]. Ist hingegen x x , dann ist für jedes y ∈ [x] auch y x und somit
0
y ∈
/ [x ].) Ist K ⊂ X eine Äquivalenzklasse und x ∈ X , dann ist [x] = K und x heiÿt ein
Repräsentant von K .
(11.4)
Beispiel.
aus
K
K
mit
Sei
X
eine Menge. Sei
K ⊂ P(X).
Ist
K
eine
sind paarweise disjunkt und ihre Vereinigung ist
x, y ∈ K "
eine Äquivalenzrelation auf
73
X.
Partition
X,
von
X,
d.h. die Mengen
dann deniert "x
∼ y :⇔ ∃K ∈
(11.5)
Beispiel. Die Isomorphie ist eine Äquivalenzrelation auf der Menge der endlichdimensionalen
K -VR.
(11.6)
(11.7)
(11.8)
Üb
Beispiel.
Sei
Beispiel.
Für
W ⊂ V ein UVR. Dann deniert "x ∼ y : y − x ∈ W " eine
Äquivalenzrelation auf V . Zu x ∈ V ist [x] = x + W . Die Menge der Äquivalenzklassen heiÿt
Quotientenraum und wird mit V /W bezeichnet.
V
ein VR und
A, B ∈ K m×n sei A ∼ B , falls T ∈ GL(m, K) und S ∈ GL(n, K) existieren
mit B = T
A S . Damit ist eine Äquivalenzrelation auf K m×n deniert. Die Anzahl der
Äquivalenzklassen ist endlich, nämlich min{n, m} + 1. Repräsentanten der Äquivalenzklassen
Er
sind die Nullmatrix und
für r = 1, . . . , min{n, m}. Vgl. (1).
−1
Beispiel. Die Ähnlichkeit (2) für Matrizen aus K n×n
ist eine Äquivalenzrelation.
Weise die Behauptungen in (4) - (8) nach.
Die Aufgabe besteht also darin, möglichst einfache Repräsentanten der
nden. Diagonalmatrizen
D :=
diag(λ1 , . . . , λn ),
Abbildungsmatrix eines Endomorphismus
v1 , . . . , vn
(11.9)
von
f (vl ) =
V
f
von
Ähnlichkeitsklassen
zu
λl ∈ K , sind besonders einfach. Wann ist D die
V ? Die Antwort ist oenbar, wenn es eine Basis
gibt derart, dass nach (7.21)
n
X
(λk δkl ) vk = λl vl
für
l = 1, . . . , n.
k=1
(11.10)
Denition.
Sei V ein K -VR, f ∈ End (V ) und λ ∈ K . Dann heiÿt λ ein Eigenwert von f ,
v ∈V, v =
6 0, existiert mit f (v) = λv . Man nennt v einen Eigenvektor von f zum
Eigenwert λ.
wenn ein
Beachte, Eigenvektoren sind stets ungleich
x ∈ Kern (f ) \ {0}
0 ∈ V,
während
0∈K
ein Eigenwert sein kann. Jedes
0.
f diagonalisierbar, wenn es eine Basis von Eigenvektoren
von f gibt. Im Fall n = dim V < ∞ wird f bez. einer solchen Basis durch eine Diagonalmatrix
diag (λ1 , . . . , λn ), λl ∈ K dargestellt, wobei λl die zugehörigen Eigenwerte sind.
ist Eigenvektor zum Eigenwert
Man nennt einen Endomorphismus
(11.11) Sei
A ∈ K n×n .
Im Sinne von (7.10). spricht man von Eigenwerten, Eigenvektoren und Dia-
gonalisierbarkeit von
A
anstelle von
LA .
= n < ∞, f ∈ End (V ) und A ∈ K n×n
ist f genau dann diagonalisierbar, wenn A
Sei dim V
eine Abbildungsmatrix von
haben,
ähnlich zu einer Diagonalmatrix ist. Das ergibt
f.
Wie wir gesehen
zusammenfassend
(11.12)
(i)
(ii)
Üb
(11.13)
Lemma. Sei A ∈ K n×n . Dann sind äquivalent:
A ist diagonalisierbar.
A ist ähnlich zu einer Diagonalmatrix.
Weise (12) direkt nach.
Diagonalisierung. Sei A ∈ K n×n diagonalisierbar. Sei s1 , . . . , sn eine Basis in K n×1 von
Eigenvektoren von A zu den Eigenwerten λ1 , . . . , λn in K . Setze
S := (s1 · · · sn ) ∈ K n×n .
Dann ist S invertierbar und S −1 A S = diag (λ1 , . . . λn ). Umgekehrt, ist A ∈ K n×n und sind
S = (s1 . . . sn ) ∈ GL(n, K) und λ1 , . . . λn aus K derart, dass S −1 A S = diag (λ1 , . . . λn ), dann
ist s1 , . . . , sn eine Basis von Eigenvektoren von A zu den Eigenwerten λ1 , . . . , λn .
74
Beweis.
S el = sl und somit el = S −1 sl
−1
A S el = S −1 A sl = S −1 (λsl ) = λS −1 sl = λel für alle l. Zur
für l = 1, . . . , n. Damit folgt: S
Umkehrung beachte S el = sl und somit A sl = A S el = S diag(λ1 , . . . , λn ) el = Sλl el = λl sl .
(11.14)
Da Rang (S)
= n,
ist
S
invertierbar (7.24). Weiter ist
Lemma. Seien v1 , . . . , vm Eigenvektoren zu paarweise verschiedenen Eigenwerten λ1 , . . . , λm
von f ∈ End (V ). Dann sind v1 , . . . , vm linear unabhängig.
Beweis. Der Beweis erfolgt durch Induktion nach mP
. Für m = 1 gilt die Aussage, weil v1 6= 0. Für
den Induktionsschluss von
0 = λm+1 0 =
0
= f (0)
=
m+1
X
k=1
m+1
X
m
nach
m+1
m+1
k=1 αk vk
betrachte
=0
mit
αk ∈ K .
Dann ist
λm+1 αk vk ,
λk αk vk .
k=1
Pm
k=1 (λm+1 −λk )αk vk
= 0. Aus der Induktionsvoraussetzung
folgt (λm+1 −λk )αk = 0 und somit αk = 0 für k = 1, . . . , m. Daher ist αm+1 vm+1 = 0. Weil vm+1 6= 0
als Eigenvektor, ist auch αm+1 = 0.
Die Dierenz der beiden Ausdrücke ist
(11.15)
Korollar.
dann ist
Seien
V
ist mit
(11.16)
und
f
W
Ist
n :=
dim V
<∞
und hat
f ∈
End (V
)n
paarweise verschiedene Eigenwerte,
K -VR
und
s:V →W
ein Isomorphismus. Das Diagramm
diagonalisierbar.
(beliebig dimensionale)
f 0 := s ◦ f ◦ s−1
kommutativ.
Lemma. Sei v ein Eigenvektor zum Eigenwert λ von f ∈ End (V ). Dann ist λ ein Eigenwert
und s(v) dazu ein Eigenvektor von f 0 .
Üb
Weise (16) nach.
Charakteristisches Polynom
Wie aus dem Bisherigen hervorgeht, ist es wichtig, die Eigenwerte eines Endomorphismus
V < ∞ folgt aus
Eigenwerte wie f besitzt.
kennen. Dies gilt besonders in Hinblick auf die Aussage (15). Im Fall dim
mit (7.8)(7.10), dass jede Darstellungsmatrix
(11.17)
A
von
f
die gleichen
Hauptlemma. Für f ∈ End (V ) gilt:
λ Eigenwert von f ⇔ Kern (f − λidV ) 6= {0}.
Für A ∈ K n×n gilt:
λ Eigenwert von A ⇔ Kern (A − λE n ) 6= {0} ⇔ det (A − λ En ) = 0.
75
f
zu
(16)
Beweis. Oenbar ist f (x) = λx äquivalent zu (f − λidV )(x) = 0, d.h. x ∈ Kern (f − λidV ). Ferner
gilt: Kern (A − λE n )
6= {0} ⇔ A − λE n
nicht invertierbar
⇔ det (A − λE n ) = 0.
Siehe dazu (7.24)
und (10.18).
Sei
X
eine Unbestimmte. Dann ist

a11 − X
a12
···
 a21
a22 − X · · ·

A − XE n = 
.
.
..
.
.

.
.
.
an1
an2
···
a1n
a2n
.
.
.





ann − X
und
(11.18)
χA := det (A − XE n )
bezeichnet das Polynom in
n
Y
χA =
X
gemäÿ der Leibniz Formel (10.9). Danach ist
(akk − X) + Q,
k=1
π = id ist und Q die Summe über π ∈ Sn \ {id} bezeichnet. Q
≤ n − 2. Nach fallenden Potenzen in X geordnet ist
wobei das Produkt der Summand zu
ist ein Polynom in
(11.19)
X
vom Grad
χA = (−1)n X n + (−1)n−1 (Spur A)X n−1 + . . . + det A,
Spur von A deniert ist als
wobei die
(11.20) Spur A
:=
n
X
akk
die Summe der Diagonalelemente von
A.
k=1
Man nennt
χA
das
charakteristische Polynom von A ∈ K n×n . Es ist ein Polynom vom Grad n
in einer Unbestimmten mit Koezienten aus
Üb
Sei
B ∈ K m×n
und
C ∈ K n×m .
K.
Der Leitkoezient ist
Zeige: Spur (B
(−1)n .
C) = Spur (C B).
Polynome über K
Polynomrings K[X] einzuschieben. Die Elemente
Polynome über K in einer Unbestimmten. K[X] ist der VR K (N0 ) (s. (5.4))
Hier ist es angebracht, eine srenge Denition des
von
K[X]
heiÿen
versehen mit einer weiteren inneren Verknüpfung, einem Produkt. Zu seiner Denition wird die
kanonische Basis in
K (N0 )
wie folgt bezeichnet:
X l := (0, . . . , 0, 1, 0, . . .)
für
l ∈ N0 ,
wobei
l
Nullen vor der
p=
stehen.
p ∈ K[X] schreibt man als Linearkombination der Basisvektoren X l , l ∈ N0 ,
n ∈ N0 und eindeutig bestimmte αl ∈ K für l = 0, . . . , n mit
Ein Polynom
existiert ein
1
n
X
d.h. es
αl X l .
l=0
αl = 0, dann heiÿt p = 0 das Nullpolynom. Andernfalls existiert ein maximales d ∈ N0
d ≤ n und αd 6= 0. Dann heiÿt p ein Polynom von Grad d, bezeichnet mit d =: grad p, und
Sind alle
mit
76
Leitkoezient αd .
Im Fall
d = 0
schreibt man
p = α0 X 0 =: α0 ,
lynom hat keinen Grad. Die Sprechweise "p ist ein Polynom vom Grad
Nullpolynom mit ein.
Ist
q=
Pm
p q :=
k=0 βk X
n X
m
X
k ein weiteres Polynom, dann deniert man das
αl βk X l+k =
n+m
X
γj X j
mit
j=0
l=0 k=0
Produkt
αl βk .
l,k mit
l+k=j
Dieses Produkt hat folgende Eigenschaften für
a)
p (q r) = (p q) r
b)
pq = qp
c)
p (q + r) = p q + p r, (p + q) r = p r + q r
p, q, r
in
K[X]:
assoziativ
kommutativ
d) grad (p q)
= (grad p) + (grad q)
für
distributiv
p 6= 0, q 6= 0.
Mit Hilfe des Produkts deniert man auch die
p ◦ q :=
X
γj :=
α0 6= 0. Das Nullpo≤ n" schlieÿt jedoch das
wobei
n
X
αl
l=0
m
X
Komposition zweier Polynome:
!l
βk X k
.
k=0
Hierfür gilt die Assoziativität
(p ◦ q) ◦ r = p ◦ (q ◦ r),
denn
(p ◦ q) ◦ r =
Pn
l=0 αl
Pm
k=0 βk
P
p
j
j=0 γj X
k l
= p ◦ (q ◦ r).
P
p ∈ K[X] ist die Polynomfunktion p̂ : K → K, p̂(λ) := nl=0 αl λl , zugeordnet.
Die Abbildung p →
7 p̂ ist für unendliche Körper injektiv, s. (22) unten. Für endliche Körper ist
das nicht der Fall. Eine Nullstelle von p ist ein λ ∈ K mit p̂(λ) = 0. Wenn es nicht zu
Missverständnissen führt, schreiben wir p(λ) anstelle von p̂(λ).
Für p, q, r ∈ K[X], λ ∈ K gelten
Jedem Polynom
(p + q)(λ) = p(λ) + q(λ)
Üb
und
(pq)(λ) = p(λ)q(λ),
sowie
(p ◦ q ◦ r)(λ) = p(q(r(λ))).
Polynomdivision mit Rest. Sei q ∈ K[X]\{0} und p ∈ K[X]. Zeige: Es existieren eindeutig
bestimmte
h ∈ K[X]
und
r ∈ K[X]
derart, dass
p = hq + r
mit
r=0
oder grad r
< grad q .
Wir fahren mit der Untersuchung des charakteristischen Polynoms fort. Aus (17) folgt sofort
(11.21)
Sei
Satz. Die Nullstellen von χA in K sind genau die Eigenwerte von A.
A0
ähnlich zu
A,
s. (2). Dann ist
χA (λ) = χA0 (λ)
für alle
λ ∈ K,
d.h. die charakteristischen
Polynomfunktionen sind gleich, denn:
χA0 = det(A0 − λE n ) = det(S −1 A S − λS −1 S) = det(S −1 (A − λE n )S) = det(A − λE n ) = χA (λ).
Im Fall, dass
K
unendlich viele Elemente hat, wie etwa
Q, R oder C, folgt daraus, dass χA
und
χA0
selbst gleich sind, denn es gilt:
(11.22)
Lemma. Seien p, p0 zwei Polynome über K vom Grad ≤ n, die für n + 1 paarweise verschiedene Werte λ1 , . . . , λn+1 aus K übereinstimmen. Dann ist p = p0 .
77
Beweis. Oenbar genügt es zu zeigen, dass q := p − p0
n
X
q=
αl X l
mit
das Nullpolynom ist. Sei
al ∈ K, l = 1, . . . , n.
l=0
q(λj ) = 0, j = 1, . . . , n + 1,


···
λn1
x1


···
λn2 
  x2 
.   .  = 0.
.  . 
.
.
n
· · · λn+1
xn+1
Betrachte das LGS

1 λ1
1 λ2

 ..
.
.
.
.
1 λn+1
d.h.
(x1 , . . . , xn+1 ) = (α0 , . . . , αn ). Die Vandermonde
(λ
−
λ
)
=
6
0. Daher hat das LGS nur die Nulllösung.
j
k
1≤k<j≤n+1
Eine Lösung davon ist
Q
(11.23)
Satz. Die charakteristischen Polynome für ähnliche Matrizen sind gleich.
Beweis.
Für den Fall unendlichem
K
siehe (21) fol. Der Fall endlichen Körpers folgt mit etwas
formalen Aufwand, indem man direkt von det(S
(11.24)
Determinante (10.15) ist
−1
(A − XE n )S)
ausgeht.
Denition. Ist dim V < ∞ und f ∈ End (V ), dann setzt man χf := χA , wobei A (irgend)eine
Abbildungsmatrix von
f
ist. Dies ist sinnvoll wegen (23) und (7.36). Ebenso ist detf
:= detA
wohldeniert.
Eigenräume
Zu einem Eigenwert
einfaches Beispiel ist
λ ∈ K von f kann es mehrere linear unabhängige Eigenvektoren geben. Ein
f := α idV für ein α ∈ K : Einziger Eigenwert von f ist α und jedes x ∈ V \ {0}
ist Eigenvektor dazu.
λ ∈ K nennt man E(λ) := Ef (λ) := Kern(f − λ idV ) den Eigenraum von f bez. λ.
Oenbar ist λ genau dann ein Eigenwert von f , wenn Ef (λ) 6= {0} ; in diesem Fall heiÿt γf (λ) :=
dim Ef (λ) die geometrische Vielfachheit oder die Entartung von λ. Jedes x ∈ Ef (λ) \ {0} ist
ein Eigenvektor zu λ von f . Aufgrund von (14) ist für paarweise verschiedene λ1 , . . . , λm aus K
gemäÿ folgender Denition die Summe der Eigenräume Ef (λi ) direkt.
Für
(11.25)
Denition.
V ein VR und W1 , . . . , Wn UVR von V . In Verallgemeinerung von (6.15)
W := W1 +W2 +. . .+Wm direkt, wenn {x1 , . . . , xm }\{0} linear unabhängig
xk ∈ Wk für k = 1, . . . , m. Man schreibt
Seien
heiÿt die Summe
ist, falls
W = W1 ⊕ W2 ⊕ . . . ⊕ Wm .
Üb
Sei
W1 , . . . , Wm . Zeige: Jedes v ∈ V lässt sich in eindeutiger
v = w1 + . . . + wm mit wk ∈ Wk für k = 1, . . . , m schreiben. Zeige weiter: Ist Mk
Basis von Wk für k = 1, . . . , m, dann ist M := M1 ∪ . . . ∪ Mm eine Basis von V .
V
die direkte Summe der UVR
Weise als
eine
Üb
Verallgemeinere die obige Denition der direkten Summe von UVR für beliebig viele UVR
und beweise dafür die Aussagen der vorangegangenen Übung.
Für
A ∈ K n×n
EA (λ) := Ef (λ) für f := LA . Zur Berechnung
(A − λE) x = 0. Es folgen drei typische Beispiele dazu.
setzt man natürlich
löst man das homogene LGS
78
von
EA (λ)
(11.26)
Beispiel 1.


0 −1 1
A = −3 −2 3 ∈ K 3×3 .
−2 −2 3
Sei
χA = −X det
−2 − X
3
−2
3−X
Dann ist
+ 3 det


−X
−1
1
3 
A − XE 3 =  −3 −2 − X
−2
−2
3−X
−1
1
−2 3 − X
− 2 det
und
−1
1
=
−2 − X 3
−X((−2 − X)(3 − X) + 6) + 3(−(3 − X) + 2) − 2(−3 + 2 + X) = −X 2 (X − 1) + 3(X − 1)
−2(X − 1) = (X − 1)(−X 2 + 1) = −(X − 1)2 (X + 1) = −X 3 + X 2 + X − 1.
Also ist
1, −1.
χA = −X 3 + X 2 + X − 1.
Die Nullstellen von
χA
sind die Eigenwerte von
A.
Sie lauten
Jetzt lassen sich die Eigenräume dazu berechnen.
EA (1) = Kern(A − E 3 )
(A − E 3 ) X = 0,
ist die Lösungsmenge des LGS
d.h.

   
0
−1 −1 1
x1
−3 −3 3  x2  = 0 .
0
−2 −2 2
x3
EA (1) wende das Gauÿ




−1 −1 1
−1 −1 1
−3 −3 3 −→  0
0 0
0
0 0
−2 −2 2
Zur Berechnung von
Verfahren an:
λ := x2 , µ := x3 die freien
  


 
 
−λ + µ
−1
1
 x1








x2 =
λ
1 + K 0
EA (1) =
: λ, µ ∈ K = K


x3
µ
0
1
ist bereits die spezielle Zeilenstufenform. Damit sind
in Parameter und Basisdarstellung. Also ist der Eigenwert
Vielfachheit von
1
ist
Variablen und
1 zweifach entartet, d.h. die geometrische
γA (1) = dim EA (1) = 2.
EA (−1) = Kern(A + E 3 ):










1 −1 1
1 −1 1
1 −1 1
1 0 − 21
−1 0 12
A + E 3 = −3 −1 3 −→  0 −4 6 −→  0 −4 6 −→  0 −4 6  −→  0 −1 32 
−2 −2 4
0 −4 6
0 0 0
0 0
0
0
0 0
Berechne jetzt
λ := x3 die freie
   1 

1
 x1

2λ
2
EA (−1) = x2  =  32 λ : λ ∈ K = K  32 


x3
λ
1
ist die spezielle Zeilenstufenform. Damit ist
in Parameter und Basisdarstellung. Also ist
von
−1
ist
Es folgt
−1
Variable und
nicht entartet, d.h. die geometrische Vielfachheit
γA (−1) = dim EA (−1) = 1.
K 3×1 = EA (1) ⊕ EA (−1).
Damit ist
A
diagonalisierbar. Explizit erhält man nach (13)

−1 1 12
S :=  1 0 32  .
0 1 1

S −1 A S = diag(1, 1, −1)
mit
79
(11.27)
Sei
Beispiel 2.
ϕ∈R
und
Dϕ :=
Die Matrix
Winkel
ϕ,
Dϕ
beschreibt eine Drehung in der Ebene
R2 (' R2×1 )
in positivem Drehsinn um den
denn:
Dϕ
cos(ϕ) − sin(ϕ)
∈ R2×2 .
sin(ϕ) cos(ϕ)
cos(ϕ + α)
cos(ϕ) cos(α) − sin(ϕ) sin(α)
cos(α)
.
=
=
sin(ϕ + α)
sin(ϕ) cos(α) + cos(ϕ) sin(α)
sin(α)
χ = (cos(ϕ) − X)2 + sin2 (ϕ) = X 2 − (2 cos(ϕ))X + 1 hat eine reelle
2
Lösung nur für 4 cos (ϕ) − 4 ≥ 0, d.h. nur für ϕ ∈ πZ, wozu zwei unterschiedliche Fälle gehören:
D0 = E 2 und Dπ = −E 2 haben jeweils 2-fach entartete Eigenwerte 1 bzw. −1. Die Eigenräume
2
dazu sind jeweils ganz R . Für ϕ ∈
/ πZ ist E(λ) = {0} für jedes λ ∈ R.
Das charakteristische Polynom
Wir fassen nun
Dϕ ∈ C2×2
auf. Dann gibt es Nullstellen von
χ,
nämlich
λ1,2 = cos(ϕ) ± i sin(ϕ) =: e±iϕ .
Berechne
E(eiϕ )
für
ϕ∈
/ πZ:
cos(ϕ) − eiϕ
− sin(ϕ)
−i sin(ϕ) − sin(ϕ)
−i −1
=
= sin ϕ
sin(ϕ)
cos(ϕ) − eiϕ
sin(ϕ)
−i sin(ϕ)
1 −i
−i −1
−1 i
−→
−→
0
0
0 0
λ := x2 die
iλ
i
=
:λ∈C =C
.
λ
1
ist die spezielle Zeilenstufenform. Damit ist
E(eiϕ ) =
x1
x2
−iϕ )
Analog folgt E(e
2×1
Also ist C
Fazit:
Dϕ
für
=
−i
=C
.
1
E(eiϕ )
ϕ∈
/ πZ
freie Variable und
⊕
E(e−iϕ ) und
ist über
R
S
−1
AS =
iϕ −iϕ ) mit
diag(e , e
S=
nicht diagonalisierbar, wohl aber über
80
C.
i −i
.
1 1
(11.28)
Sei
Beispiel 3.

λ 1


J n (λ) := 


λ

..
.
..
.
Dreiecksmatrix und somit
ist
λ


 ∈ K n×n , n ≥ 2 die Jordanmatrix zu λ ∈ K . Es ist eine obere

1
λ
n
P
n n−i i
n
λ X ) ihr charakteristisches Polynom. Also
χ = (λ − X) (=
i=0 i
einziger Eigenwert.
Berechne

0 1


E(λ) : J n (λ) − λE n = 


0

..
.
..
.

0 −1




0
 −→ 



1
0
µ := x1
   

 
µ
1


 x1



 x2   0 

0
   
 
E(λ) =  .  =  .  : µ ∈ K = K  .  6= K n×n .
. 
.




 .. 
.
.






xn
0
0
hat bereits spezielle Zeilenstufenform. Die freie Variable ist
Ist
J n (λ)
diagonalisierbar? Nein, denn sonst müsste
Eigenwert ist. Aber
λ∈K
λ En
und jeden Körper
Dkl = (dkl )
J n (λ)
zu
λ En

..
.
..
.




−1
0
und
ist nur zu sich selbst ähnlich. Beachte, dass dies für
K
eine
λ der einzige
jedes n ≥ 2, jedes
ähnlich sein, weil
gilt.
(n × n)−Dreiecksmatrix.
Qn
l=1 (dll
− X).
Sei
Üb
Wie lautet die Verallgemeinerung des Ergebnisses der vorangegangenen Übung auf Dreiecksblockmatrizen?
81
Zeige:
χD =
Üb
12 Diagonalisierbarkeit und
Trigonalisierbarkeit
Im Folgenden ist
V
n-dimensionaler K -VR.
stets ein
Wir verfolgen hier weiter die anfangs des
vorangegangenen Kapitels gestellte Aufgabe, einen Repräsentanten möglichst einfacher Gestalt für
jede Ähnlichkeitsklasse zu nden. Das charakteristische Polynom, das für ähnliche Matrizen gleich
ist, ist das entscheidende Hilfsmittel dazu.
Diagonalisierbarkeit
Aus den bisherigen Ergebnissen schlieÿen wir
(12.1)
Lemma. Sei f ∈ End(V ) diagonalisierbar. Dann ist
χf = (λ − X)γ1 (λ2 − X)γ2 . . . (λs − X)γs ,
wobei λ1 , λ2 , . . . , λs die paarweise verschiedenen Eigenwerte von f bezeichnen und γi := γf (λi )
ihre geometrische Vielfachheiten sind.
Beweis. Für die f

darstellende Diagonalmatrix

λ 1 Eγ1

D := 
..


.
λ s Eγs
ist
χf = χD
nach (11.24), und
Umgekehrt, wenn für
f ∈ End(V )
nearfaktoren (λ − X)
χf
wofür
f
n
paarweise verschiedene
Li-
diagonalisierbar nach (11.15). Schwierigkeiten ergeben
mehrfach auftreten.
Denition und Lemma.
α ∈ {0, . . . , n},
αp (λ) von λ.
hat die behauptete Gestalt.
das charakteristische Polynom in
zerfällt, dann ist
sich, wenn Nullstellen von
(12.2)
χD = det(D − XEn )
Sei
q ∈ K[X]
p ∈ K[X]
n ∈ N0 und λ ∈ K . Das maximale
p = (λ − X)α q , heiÿt die Vielfachheit
vom Grad
existiert derart, das
Ist p = (λ − X)α q , für α = αp (λ), dann ist q(λ) 6= 0. Ist p = (λ − X)β q 0 mit β ∈ {0, . . . , n}
und q 0 ∈ K[X] mit q 0 (λ) 6= 0, dann ist α = β und q = q 0 .
Beweis.
Angenommen es ist q(λ) = 0. Dann folgt für q̃ := q ◦ l mit l := λ − X ∈ K[X]: q̃(0) =
Pn
j mit β ∈ K und β = 0 ⇒ q̃ ◦ l = q ◦ (l ◦ l) =
q(l(0)) = q(λ) = 0 ⇒ q̃ =
j
0
j=0 βj X
P
Pn
n
j
j−1 =:
q ◦ (λ − (λ − X)) = q ◦ X = q und somit q = j=0 βj (λ − X) = (λ − X)
β
(λ
−
X)
j
j=1
(λ − X)q1 ⇒ p = (λ − X)α+1 q1
im Widerspruch zur Maximalität von
α.
α ≥ β und somit (λ − X)β ((λ − X)α−β q − q 0 ) = 0.
β
Allgemein gilt für Q ∈ K[X], dass Q = 0 falls (λ − X) Q = 0. Für β = 0 ist dies oensichtlich.
0
0
β−1 Q folgt λQ0 = XQ0 . Der Fall λQ0 6= 0 ist nicht möglich,
Aus (λ − X)Q = 0 für Q := (λ − X)
0
0
0
0
0
weil sonst grad(λQ ) < grad(XQ ). Also ist 0 = λQ = XQ , weshalb Q = 0. Nach β Schritten
folgt Q = 0.
0
α−β q . Wegen q 0 (λ) 6= 0 folgt α = β und somit q = q 0 .
Diese Überlegung zeigt q = (λ − X)
Zur Eindeutigkeit beachte
82
Üb
Weise das Ergebnis von (2) alternativ mit Hilfe der Polynomdivision mit Rest nach.
λ ∈ K
Sei
ein Eigenwert von
Vielfachheit von
(12.3)
λ
f ∈ End(V ).
Die
algebraische Vielfachheit αf (λ)
V.
ist die
von
Ef (λ)
durch
vγ+1 , . . . , vn
zu einer Basis
Bezüglich dieser Basis ist
M (f ) =
λE γ
∗
B
χf = (λ − X)γ det(B − XE n−γ )
γ ≤ αf (λ) nach (2).
und damit
ist
λ
Lemma. Es ist stets γf (λ) ≤ αf (λ), d.h. die geometrische Vielfachheit eines Eigenwertes ist
höchstens gleich der algebraischen.
Beweis. Sei γ := γf (λ). Ergänze eine Basis v1 , . . . , vγ
von
von
als Nullstelle des charakteristischen Polynoms.
mittels Entwicklung nach den ersten
Spalten. Daher
Bemerkung. Weil χf = χA für jede Abbildungsmatrix A von f
αA (λ) := αf (λ)
γ
gilt (s. (11.24)), ist die Bezeichnung
sinnvoll.
Bemerkung. Für Jn (λ) aus (11.28) gilt der Extremfall γ(λ) = 1 < n = α(λ).
(12.4)
Satz zur Diagonalisierbarkeit. Seien V ein K VR mit n := dim V < ∞ und f ∈ End(V ).
Dann sind äquivalent:
(i)
(ii)
(iii)
f ist diagonalisierbar.
χf zerfällt in Linearfaktoren
und γf (λ) = αf (λ) für alle Eigenwerte λ von f .
+ . . . E
+ f (λs ), wobei λ1 , . . . , λs die paarweise verschiedenen Eigenwerte von
V = Ef (λ1 )
f sind.
Beweis. (i) ⇒ (ii) gilt wegen (1) und (2). Aus (ii) folgt in Hinblick auf (iii), dass n = αf (λ1 ) +
· · · + αf (λs ) = γf (λ1 ) + · · · + γf (λs ). Wegen (11.14) folgt daraus (iii). Schlieÿlich bedeutet (iii), dass
es eine Basis von Eigenvektoren von f gibt, d.h. es gilt (i).
(12.5)
Beispiel.
Es soll der Endomorphismus
f : R3 −→ R3 , f (x, y, z) := (y, −2x + z, −2x + 5y)
wenn möglich diagonalisiert werden.
1. Schritt. Man bestimme die Abbildungsmatrix A von f
bez. einer Basis
v1 , . . . , vn .
Bezüglich der kanonischen Basis liest man ab, dass


0 1 0
A = −2 0 1 .
−2 5 0
2. Schritt. Man berechne des charakteristische Polynom χA .
Nach der Regel von Sarrus ist
−X 3
χA = det(A−XE 3 ) = −X 3 +(−2)+0−0−(−X)· 5−1 (−2)(−X) =
+ 3X − 2.
3. Schritt. Finde die Linearfaktoren von χA . Eine explizite Angabe der Linearfaktoren ist oftmals
prinzipiell nicht möglich. Wenn
χA
nicht Produkt von Linearfaktoren ist, ist f nicht diagonalisierbar.
Als Beispiel siehe dazu (11.27).
83
χA (1) = 0. Polynomdivision liefert χA = (1 − X)(X 2 + X − 2) = (1 − X)2 (−2 − X).
Eigenwerte sind also 1 und −2. Der Eigenwert 1 ist doppelt.
Oenbar ist
Die
4. Schritt. Für jeden Eigenwert bestimme man eine Basis des Eigenraums Ef (λ) = Kern(A−λE n ).
Dazu löst man das LGS
Eigenwert
(A − λE n ) x = 0
und schreibt die Lösungsmenge in der Basisdarstellung.
−2:









1
2 1 0
2 1 0
2 1 0
2 0 − 13
−1 0
6
A+2E = −2 2 1 −→ 0 3 1 −→ 0 3 1 −→ 0 3 1  −→  0 −1 − 13  .
−2 5 2
0 6 2
0 0 0
0 0 0
0
0
0

µ := x3 die freie

   1 
 1 
 x1

6µ
6
EA (−2) = x2  = − 31 µ : µ ∈ R = R − 13  .


µ
1
x3
Das ist die spezielle Zeilenstufenform. Damit ist
Eigenwert
Variable und
1:








−1 1
0
−1 1
0
−1 1 0
−1 0 31
A − E = −2 −1 1  −→  0 −3 1  −→  0 −3 1 −→  0 −1 13  .
0
0 0
−2 5 −1
0
3 −1
0
0 0
µ := x3
   1 

1
 x1

3µ
3
EA (1) = x2  =  13 µ : µ ∈ R = R  13  .


x3
µ
1
Das ist die spezielle Zeilenstufenform. Damit ist
5. Schritt.
Ist für einen Eigenwert
γf (λ) < αf (λ),
die freie Variable und
dann ist
f
nach (4) nicht diagonalisiebar.
Andernfalls bilde aus den Basisvektoren der Eigenräume in der Reihenfolge der Eigenwerte mit
Vielfachheiten die
A
diagonalisierende Matrix
S,
d.h.
diag(λ1 , . . . , λn ) = S −1 A S.
γA (1) = 1 < 2 = αA (1) (!) und somit A nicht diagonalisierbar. Ein Beispiel
diagonalisierbare Matrix ist A aus (11.26).
In diesem Beispiel ist
für eine
6. Schritt. Im Fall der Diagonalisierbarkeit von f
bleibt eine Basis von Eigenvektoren anzugeben.
Nach (7.26) ist diese gegeben durch
n
X
sjl vj , l = 1, . . . , n.
j=1
Trigonalisierbarkeit
Nach den Diagonalmatrizen sind Dreiecksmatrizen von nächst einfacher Gestalt. Wenn eine Matrix
schon nicht ähnlich zu einer Diagonalmatrix ist, so könnte sie es doch wenigstens zu einer Dreiecksmatrix sein. Welche Eigenschaft hat ein Endomorphismus mit einer solchen Abbildungsmatrix?
(12.6)
Denition. f ∈ End(V )
derart. dass
f (Vl ) ⊂ Vl
für
heiÿt
trigonalisierbar,
wenn es eine Basis
Vl := Span{v1 , . . . , vl }, l = 1, . . . , n − 1.
84
v1 , . . . , vn
in
V
gibt
Beachte,
f (V1 ) ⊂ V1
bedeutet genau, dass
v1
besitzt einen Eigenvektor, s. (11.27). Ein UVR
(12.7)
f ist. Nicht jeder Endomorphismus
f (W ) ⊂ W heiÿt f invariant.
Eigenvektor zu
W
von
V
mit
Lemma. f ∈ End(V ) ist trigonalisierbar genau dann, wenn es eine Basis in V gibt, bez.
welcher die Abbildungsmatrix von f obere Dreiecksmatrix ist. In der Diagonalen stehen die
Eigenwerte von f , die gemäÿ ihren algebraischen Vielfachheiten auftreten.
Beweis.
f trigonalisierbar.
l = 1, . . . , n − 1:
Sei
Sei
v1 , . . . , vn
f (vl ) =
l
X
akl vk
eine Basis dazu gemäÿ Denition (6). Dann ist für
mit
akl = 0
für
k > l.
k=1
A := (akl ) obere Dreiecksmatrix. Umgekehrt, ist die Abbildungsmatrix A von f bez. eiv1 , . . . , vn obere Dreiecksmatrix, dann besagt obige Gleichung, dass Vl := Span{v1 , . . . , vl }
Also ist
ner Basis
die Denition (6) erfüllen.
Die letzte Behauptung folgt aus der Leibniz Formel (10.9), weil danach
χA =
Qn
k=1 (akk
siehe (11.18) .
Gemäÿ der allgemeinen Verabredung wird eine Martrix
ist. Das ist gleichbedeutend damit, dass
(12.8)
A
A trigonalisierbar
genannt. wenn
− X),
LA
es
ähnlich zu einer oberen Dreiecksmatrix ist.
Satz zur Trigonalisierbarkeit, Schur Normalform. f ∈ End(V ) ist trigonalisierbar genau
dann, wenn χf Produkt von (nicht notwendig verschiedenen) Linearfaktoren ist.
Beweis. Q
Für eine Dreiecksmatrix D = (dkl ) gilt nach der Leibniz Formel (10.9), dass χD = det(D −
n
ll − X). Nach (7) bleibt zu zeigen, dass
l=1 (dQ
n
ist, wenn χA =
l=1 (λl − X).
XE n ) =
A ∈ K n×n
ähnlich zu einer Dreiecksmatrix
t1 ∈ E(λ1 ) \ {0}. Ergänze t1 zu einer Basis t1 , . . . , tn von K n×1 . Dann
invertierbar und A T = (A t1 . . . A tn ) = (λ1 t1 ∗ . . . ∗) = T (λ1 e1 ∗ . . . ∗), d.h.
Sei


T −1 A T = 

∗
λ1
A
0
ist
T := (t1 . . . tn )




(n−1)×(n−1) . Da χ = (λ −X)χ 0 nach (11.23) und dem Determinantenentwicklungssatz,
A0 ∈ K
1
A
A
Qn
0
ist χA0 =
l=2 (λl − X). Wie eben gezeigt, gibt es daher zu A eine invertierbare (n − 1) × (n − 1)
0
0 −1 0 0
Matrix T mit T
A T = (λe2 ∗ . . . ∗). Dann gilt



 

1
λ1
1

 T −1 A T 
=
.
λ2
−1
0
0
T
T
mit
∗
In insgesamt
n−1
solchen Schritten folgt die Behauptung.
Der Beweis von (8) gibt auch bereits ein Verfahren zur praktischen Trigonalisierung eines Endomorphismus an.
(12.9)
Beispiel. Es soll der Endomorphismus f : R3 −→ R3 , f (x, y, z) := (3x + 4y + 3z, −x − z, x +
2y + 3z)
wenn möglich trigonalisiert werden.
85
1. Schritt. Man bestimme eine Abbildungsmatrix A von f .
Bezüglich der kanonischen Basis liest man ab


3 4 3
A = −1 0 −1 .
1 2 3
2. Schritt. Man berechne das charakteristische Polynom χA .
Nach der Regel von Sarrus ist χA = det(A − XE 3 ) = (3 − X)(−X)(3 − X) + 4 (−1) 1 + 3 (−1) 2 −
3 (−X) 1 − (3 − X)(−1) 2 − 4 (−1)(3 − X) = −X 3 + 6X 2 − 9X − 4 − 6 + 3X + 6 − 2X + 12 − 4X =
−X 3 + 6X 2 − 12X + 8.
3. Schritt.
Man nde die Linearfaktoren von
χA . f
ist genau dann trigonalisierbar, wenn
χA
Produkt von Linearfaktoren ist.
χA = (2 − X)3 . Also ist f trigonalisierbar. Der einzige Eigenwert 2 ist 3fach. Damit
γA (2) < 3 = αA (2) (!) und f nicht diagonalisierbar.
Oenbar ist
ist
4. Schritt.
Für den Eigenwert λ1 nde einen Eigenvektor t1 . Nach dem Austauschlemma (5.24)
q ∈ {1, . . . , n} derart, dass t1 , e1 , . . . , e\q , . . . , en eine Basis von K n×1 ist. Bestimme zu dieser
Basis die Abbildungsmatrix von f


λ1



.
0


A
existiert
∗
Wiederhole diesen Schritt für
Eigenvektor zu Eigenwert
A0
u.s.w., bis die Abbildungsmatrix trigonal ist.
2:







1 0 −1
1 4 3
1
4
3
1
4
3
A − 2E 3 = −1 −2 −1 −→ −1 −2 −1 −→ 0 2 2 −→ 0 2 2 
0 0 0
0 0 0
0
0
0
1
2
1


−1 0
1
−→  0 −1 −1 .
0
0
0

µ := x3 die freie Variable und

   
 
1
µ

 x1
E(2) = x2  = −µ : µ ∈ R = R −1 .


1
x3
µ
 


1
1 0 0
Also ist t1 = −1 Eigenvektor zu 2. Wähle t1 , e2 , e3 als neue Basis. T := −1 1 0 besorgt
1
1 0 1
0
−1
den Basiswechsel. Um A zu bestimmen, benötigt man T
:




1 0 0 1 0 0
1 0 0 1 0 0
−1 1 0 0 1 0 −→ 0 1 0 1 1 0 .
1 0 10 0 1
0 0 1 −1 0 1




1 0 0
2 4 3
4 2
−1
−1
0




1 1 0 folgt T A T = 0 4 2 und A =
Mit T
=
. Bekannt ist χA0 =
−2 0
−1 0 1
0 −2 0
(2 − X)2 . Nun wiederholt man den Schritt 4 für A0 .
Das ist die spezielle Zeilenstufenform. Damit ist
86
2:
Eigenvektor zu Eigenwert
0
A − 2E 2 =
2
2
−2 −2
−→
2 2
0 0
−→
−1 −1
.
0
0
Das ist die spezielle Zeilenstufenform mit freier Variable
E(2) =
x1
x2
=
Ergänze den Eigenvektor
Daher ist
Basis.
0
T =
−1 0
1 1
besorgt den Basis-
−1
T0 :
1 0 −1 0
−1 0 1 0
−1 0 1 0
,
−→
−→
0 1 1 1
0 1 1 1
1 10 1
−1 0
2 −2
0 −1
0 −1 0 0
T
=
. Hiermit folgt T
AT =
. Damit
1 1
0 2
wechsel. Bestimme
d.h.
−µ
−1
: µ∈R =R
.
µ
1
−1
0
0
t1 =
mit
zu neuer
1
1
x2 .



2 4 3
1
S −1 A S = 0 2 −2 mit S := T 
0 0 2

T0
ist die Dreiecksform erreicht:


 

1 0 0
1 0 0
1
0 0
 = −1 1 0 0 −1 0 = −1 −1 0.
1 0 1
0 1 1
1
1 1
5. Schritt. Gebe gemäÿ (7.26) die Basis an, bez. welcher f
trigonal ist.
Die trigonalisierende Basis lautet:
3
X
skl ek ,
l = 1, 2, 3,
das ist
(1, −1, 1), (0, −1, 1), (0, 0, 1).
k=1
Üb
(12.10)
Trigonalisiere den Endomorphismus aus (5).
Polynome über C. Der Fundamentalsatz der Algebra besagt: Jedes Polynom p ∈ C[X] mit
grad p ≥ 1 hat mindestens eine Nullstelle.
Hieraus folgt sofort mit (2), dass
p = c (λ1 − X)α1 (λ2 − X)α2 . . . (λs − X)αs
c, λ1 , . . . , λs aus C, und α1 , . . . , αs
λ1 , . . . , λs paarweise verschieden sind.
mit gewissen
wenn
(12.11)
aus
N,
wobei diese Darstellung eindeutig ist,
Korollar. Sei V ein endlich dimensionaler C-VR. Dann ist jeder Endomorphismus von V
trigonalisierbar.
Beweis. Folgt aus (8) und (10).
(12.12)
Polynome über R.
Reelle Polynome zerfallen bekanntlich i. allg. nicht in reelle Linearfak-
1 + X 2 . Jedoch lässt sich folgende Überlegung anstellen: Sei p ∈ R[X]. Fasse
p ∈ C[X] auf. Sei λ ∈ C eine Nullstelle von p. Dann ist auch λ eine Nullstelle von p, denn
P
P
p(λ) = nl=0 αl (λ)l = nl=0 αl λl = p(α) = 0, weil αl ∈ R. Die nicht reellen Nullstellen treten
also in Paaren konjugierter Nullstellen auf. Diese ergeben einen Faktor
toren, wie z.B.
87
(λ − X)(λ − X) = |λ|2 − 2(Re λ)X + X 2 =: γ + βX + X 2 =: q
Daraus schlieÿt man:
mit
β, γ ∈ R
und
β 2 < 4γ .
Jedes Polynom p ∈ R[X] mit grad p ≥ 1 besitzt eine Darstellung
p = c (X − λ1 )α1 . . . (X − λs )αs q1δ1 . . . qtδt
mit c ∈ R, λi ∈ R, αi ∈ N für i = 1, . . . , s und qj = γj + βj X + X 2 mit βj , γj ∈ R, βj2 < 4γj ,
δj ∈ N für j = 1, . . . , t. Dabei kann s oder t auch null sein.
Diese Darstellung ist eindeutig, wenn λ1 , . . . , λs und q1 , . . . , qt paarweise verschieden sind.
Vorstufe der Jordan Normalform
Eine Dreiecksmatrix läÿt sich mittels einer Ähnlichkeitstransformation auf diagonale Blockmatrixform bringen, deren Blöcke Dreiecksmatrizen mit nur einem Eigenwert sind.
(12.13)
Denition. Sei λ ein Eigenwert der Matrix A ∈ K n×n . Dann
vektor der Stufe l ∈ N zum Eigenwert λ der Matrix A, wenn
heiÿt
v ∈ K n×1
ein
Haupt-
(A − λE)l v = 0 und (A − λE)l−1 v 6= 0.
Entsprechend deniert man einen Hauptvektor und seine Stufe für einen Endomorphismus.
Bemerkung. Die Hauptvektoren zur Stufe 1 sind genau die Eigenvektoren,
(A − λE)v = 0
(12.14)
und
denn für beide gilt
(A − λE)0 v = v 6= 0.
Lemma und Denition. Ist v ein Hauptvektor der Stufe l, dann sind oenbar
v,
(A − λE)v,
(A − λE)2 v, . . . , (A − λE)l−1 v
Hauptvektoren der Stufen l, l − 1, . . . , 1. Diese Vektoren sind linear unabhängig. Sie bilden
die durch v bestimmte Kette von Hauptvektoren.
P
i
Beweis. Zum Nachweis der linearen Unabhängigkeit werde die Gleichung l−1
i=0 αi (A − λE) v =
l−1
l−1
0 von links mit (A − λE)
multipliziert. Es folgt α0 (A − λE)
v = 0, weshalb α0 = 0. Die
l−2
verbleibende Summe multipliziert man nun mit (A − λE)
, womit α1 = 0 folgt, u.s.w.
(12.15)
Lemma. Seien v 1 , . . . , v s Hauptvektoren zu den paarweise verschiedenen Eigenwerten λ1 , . . . , λs
der Matrix A ∈ K n×n . Dann sind v 1 , . . . , v s linear unabhängig.
Beweis.
Seien l1 , . . . , ls die Längen der Hauptvektoren und k ∈ {1, . . . , s}. Die Faktoren des ProQ
Pk := (A − λk E)lk −1 sj=1,j6=k (A − λj E)lj lassen sich vertauschen, da jeder Faktor eine
l −1 v ein Eigenvektor zu
Linearkombination von Potenzen von A ist. Weiter ist uk := (A − λk E) k
Qk
l
l
λk . Daher ist (A − λj E) j uk = (λk − λj ) j uk . Damit ndet man Pk v i = δik sj=1,j6=k (λk − λj )lj uk .
Ps
Qs
lj
Wendet man nun Pk auf die Gleichung
i=1 αi v i = 0 an, so folgt αk
j=1,j6=k (λk − λj ) uk = 0,
weshalb αk = 0. Dies gilt für jedes k , woraus die Behauptung folgt.
dukts
(12.16)
Lemma. Das charakteristische Polynom χA der Matrix A ∈ K n×n sei Produkt von Linear-
faktoren. Weiter sei λ ein Eigenwert der algebraischen Vielfachheit k . Dann ist HA (λ) :=
Kern (A − λE)k ein Untervektorraum der Dimension k . Oenbar ist jedes v ∈ HA (λ) \ {0}
ein Hauptvektor zu λ. Schlieÿlich ist HA (λ) unter A invariant, d.h. für jedes v ∈ HA (λ) ist
A v ∈ HA (λ).
88
Beweis. Gemäÿ (7), (8) kann man davon ausgehen, dass A eine obere Dreiecksmatrix ist, deren erste
k Diagonalelemente gleich λ sind. Deshalb ist die Matrix (A−λE)k eine obere Dreiecksmatrix, deren
k
erste k Spalten null sind und deren Diagonalelemente gleich (λi − λ) sind, wobei λ1 , . . . , λn die
Eigenwerte mit algebraischen Vielfachheiten sind. Insbesondere sind genau k ihrer Diagonalelemente
k
gleich null. Damit ist Rang(A − λE) = n − k , woraus mit (8.15) dim HA (λ) = k folgt. Schlieÿlich
k
k
beachte man (A − λE) A v = A(A − λE) v = A 0 = 0 für v ∈ HA (λ).
Seien
λ1 , . . . , λ s
die paarweise verschiedenen Eigenwerte von
A
und
Vielfachheiten. Für den Fall, dass das charakteristische Polynom
ist, ist
Ps
j=1 αj = n.
χA
α1 , . . . , αs
ihre algebraischen
Produkt von Linearfaktoren
Damit beweisen (15) und (16), dass
+ . . . H
+ A (λs )
K n×1 = HA (λ1 )
gemäÿ Denition (11.25), wobei jeder Untervektorraum
aus
αj
(12.17)
HA (λj ) invariant unter A ist und eine Basis
Hauptvektoren besitzt. Damit erhält man folgendes Ergebnis.
Satz. Vorstufe der Jordan Normalform.
tisches Polynom
χA
Sei
A ∈ K n×n
eine Matrix, deren charakteris-
Produkt von Linearfaktoren ist. Dann existiert eine Basis
t1 , . . . , t n
von
K n×1 derart, dass die ersten
α1 Elemente Hauptvektoren zum Eigenwert λ1 sind, die nächsten
α2 Elemente Hauptvektoren zum Eigenwert λ2 sind und so fort. Mit der invertierbaren Matrix
T := (t1 . . . tn ) ist


B1
B2


T −1 A T = 

..




.
Bs
eine diagonale Blockmatrix mit Blöcken
(λj − X)αj . Wendet man auf jeden
man B j in der Schur Normalform
ist

Block das Trigonaliserungsverfahren aus (8) an, erhält

λj
∗
λj


Bj = 

B j ∈ K αj ×αj . Das charakteristische Polynom von B j
..


,

.
λj
das ist eine obere Dreiecksmatrix, deren Diagonalelemente alle gleich
Aus der Denition von
man
N∈
K n×n
HA (λj )
sind.
α
N j j = 0 für N j := B j − λj E .
k ∈ N gibt mit N k = 0.
folgt sofort, dass
nilpotent, wenn es ein
λj
Allgemein nennt
Das Ergebnis (17) ndet eine wichtige praktische Anwendung in der Theorie der Linearen Dierentialgleichungssysteme bei der Berechnung der Matrix-Exponentialfunktion.
Üb
Man zeige: Ist
A ∈ K n×n
Linearfaktoren ist (was für
Matrix
D
K =C
und
χA
Produkt von
stets der Fall ist), dann existieren eine diagonalisierbare
und eine nilpotente Matrix
A=D+N
Hinweis:
eine Matrix, deren charakteristisches Polynom
N
mit
D N = N D.
Benutze (17) und überlege, warum eine Matrix genau dann diagonalisierbar bzw.
nilpotent ist, wenn sie ähnlich zu einer solchen ist.
89
Üb
r, s ∈ N
Seien
akl = 0
und
für
A = (akl ), B = (bkl ) (n × n)Matrizen
k ≥l−r+1
bkl = 0
und
für
derart, dass
k ≥ l − s + 1.
r − 1 bzw. s − 1 Nebendiagonalen
C := A B gilt ckj = 0 für k ≥ j − r − s + 1, d.h. die
Diagonale sowie die anschlieÿenden r + s − 1 Nebendiagonalen von C sind null. Also


0 ··· 0


..
..


.
.




..
C=

.
0




.
..
.

 r + s Nullzeilen
.
.

0
Das bedeutet, dass die Diagonale sowie die auschlieÿenden
von
A
bzw.
B
null sind. Zeige: Für
∗
addieren sich bei der Multiplikation von
A
mit
B
die Anzahlen der Nullzeilen.
Jordan Normalform
Die Blöcke
Bj
in (17) lassen sich durch eine spezielle Wahl der Basis von Hauptvektoren noch weiter
vereinfachen. In der Jordan Normalform erzielt man in der ersten oberen Nebendiagonalen Einträge
0
oder
1.
Alle anderen Nebendiagonalen sind null. Wir verzichten auf einen Beweis des folgenden
Satzes.
Eine quadratische Matrix
n ∈ N,
(12.18)
wobei
J 1 (λ) := (λ)
Satz. Sei V
J
und
K heiÿt Jordanmatrix.
J n (λ) aus (11.28) für n ≥ 2.
über
ein endlichdimensionaler
faktoren. Dann gibt es eine Basis in
A
von
f
die
wenn
J = J n (λ)
K VR. Sei f ∈ End(V ) und χf
V
für ein
λ∈K
und
sei Produkt von Linear-
aus Hauptvektoren, bez. welcher die Abbildungsmatrix
Jordan Normalform besitzt, d.h.

J1

J2

A=


..


,

.
Jm
wobei
J 1, . . . , J m
Jordanmatrizen sind. Sie sind nicht notwendigerweise paarweise verschieden
und sind bis auf Reihenfolge eindeutig.
J n (λ) = λE n + N n

0 1
 .. ..



.
.

,
N n := 

..

. 1
0
Man bemerkt, dass
mit

wofür
N nn = 0
gilt.
Üb
N ∈ K n×n nilpotent. Zeige: Es existiert ein k ∈ N mit k ≤ n,
k
k−1
jedes k ∈ {1, . . . , n} ein Beispiel N an mit N = 0 und N
6= 0.
Üb
Bestimme die Potenzen
Sei
Aj , j ∈ N ,
für
A
wofür
N k = 0.
aus (18). Betrachte dazu zunächst
90
Gebe für
(J n (λ))j .
13 Vektorräume mit Skalarprodukt
Der Anschauungsraum
R3
ist mehr als nur ein Vektorraum. In ihm lassen sich nämlich Längen und
Winkel bestimmen. Der Begri der Orthogonalität und die Gültigkeit des Satzes von Pythagoras
R3 .
sind fundamental für die Geometrie des
Sie sind auch fundamental für den sich der Anschau-
nung entziehenden Zustandsraum eines quantenmenchannischen Systems, dem Hilbertraum. Diese
zusätzliche Struktur eines Vektorraums wird im Sinne der analytischen Geometrie am einfachsten
mit Hilfe eines Skalarprodukts eingeführt.
Im Folgenden werden nur reelle und komplexe Vektorräume betrachtet. Das Symbol
R
oder
C.
Mit
z
wird nach (4.12) die konjugiert komplexe Zahl zu
z∈C
K
steht für
bezeichnet.
Skalarprodukt
(13.1)
Dention. Sei V
(SP) auf
V,
K-VR. Eine Funktion V ×V → K, (x, y) 7→ hx, vi, heiÿt Skalarprodukt
0
für x, y, y aus V und λ ∈ K gelten
ein
wenn
hx, y + λy 0 i = hx, yi + λhx, y 0 i
hy, xi = hx, yi
hx, xi ≥ 0 und hx, xi = 0 nur für x = 0
Ein
VR mit SP (V, h·, ·i)
im Fall
(13.2)
heiÿt
linear im zweiten Argument
konjugiert symmetrisch
positiv denit
euklidischer Raum
im Fall
K=R
und
unitärer Raum
K = C.
Bemerkungen.
Aus der Linearität im zweiten Argument und der konjugierten Symmetrie
λx0 , yi
= hy, x + λx0 i = hy, xi + λhy, x0 i = hy, xi + λ hy, x0 i = hx, yi + λ hx0 , yi für
alle
aus V und λ ∈ K, d. i. die konjugierte Liniearität im ersten Argument. Im euklidischen Raum ist hx, yi = hy, xi = hy, xi, d.h. das SP ist symmetrisch. Als Folge
ist es linear auch im ersten Argument und damit bilinear. Beachte, dass hx, xi = hx, xi
wegen der konjugierten Symmetrie. Daher ist hx, xi stets reell. Die positive Denitheit fordert
insbesondere hx, xi ≥ 0. Für jedes x ∈ V ist hx, 0i = 0, weil hx, ·i linear ist.
hx +
x, x0 , y
folgt
(13.3)
Beispiel. Standard-SP.
a) In
Kn
hx, yi := x1 y1 + . . . + xn yn =
deniert für
n
X
x = (x1 , . . . , xn )
und
y = (y1 , . . . , yn )
xl yl
l=1
P
hx,Pxi = nl=1 |xl |2 ≥ 0
hx, yi = nl=1 xl yl .
das StandardSP. Insbesondere ist
für
x = 0.
b) In
Im Fall
K(X)
K=R
ist
und
=0
nur für
(vgl. (5.4)) lautet das StandardSP
hf, gi :=
X
f (x) g(x).
x∈X
(13.4)
Lemma. Sei x ∈ V und M eine Erzeugendenmenge von V . Dann gilt:
hx, yi = 0 ∀ y ∈ M
⇒
x = 0.
91
xl = 0 ∀ l,
d.h.
Beweis.
P
x= P
y∈M αy y mit den
P Koordinaten αy ∈ K, die Null sind bis auf endlich viele.
Daher ist hx, xi = hx,
y∈M αy yi =
y∈M αy hx, yi = 0 nach Vorraussetzung. Aus der Denitheit
folgt x = 0.
Es ist
p
|x|p
= x21 + x22 + x23 die Länge des Vektors x ∈ R3 . Mit
|x| = hx, xi. Dies verallgemeinert man auf K-VR mit SP.
Bekanntlich ist
schreibt sich
(13.5)
(13.6)
Defnition. Sei V ein K-VR mit
die (zugehörige) Norm auf V .
SP. Dann heiÿt die Funktion
Hilfe des Standard-SP
V → R, x 7→ kxk :=
p
hx, xi
Satz. Sei V ein VR mit SP. Die Norm erfüllt für x, y aus V und λ ∈ K
positiv denit
positiv homogen
Dreiecksungleichung (DU)
Cauchy-Schwarz-Ungleichung (CSU)
kxk ≥ 0 und kxk = 0 nur für x = 0
kλxk = |λ| kxk
kx + yk ≤ kxk + kyk
|hx, yi| ≤ kxkkyk
In der CSU gilt Gleichheit genau dann, wenn x und y linear abhängig sind. Für die DU ist
dies für die Gleichheit notwendig.
Beweis.
Positive Denitheit und Homogenität sind oensichtlich. Wir beweisen erst die CSU. Of-
fenbar ist
|hx, 0i| = kxkk0k (= 0)
ϕ(λ) := kx − λyk2
für
und
x, 0
sind linear abhängig. Sei jetzt
y 6= 0
und betrachte
λ ∈ K.
ϕ(λ) = hx − λy, x − λyi = kxk2 − λhy, xi −
2
λhx, yi + λλkyk2 = kxk2 − kyk−2 |hx, yi| + λkyk − kyk−1 hy, xi um. Beachte dazu, dass |hx, yi|2 =
hx, yihy, xi. Also ist ϕ minimimal genau für λ = kyk−2 hy, xi =: λ0 . Es folgt 0 ≤ kx − λ0 yk2 =
ϕ(λ0 ) = kxk2 − kyk−2 |hx, yi|2 , wobei Gleichheit genau dann vorliegt, wenn x − λ0 y = 0, d.h. wenn
x und y linear abhängig sind.
Zur DU beachte zunächst, dass hx, yi + hy, xi = 2 Re(hx, yi) ≤ 2 |hx, yi| ≤ 2kxkkyk, wobei Gleich2
heit wegen CSU nur bestehen kann, wenn x und y linear abhängig sind. Damit folgt kx + yk =
2
2
2
2
2
hx + y, x + yi = kxk + kyk + hx, yi + hy, xi ≤ kxk + kyk + 2kxkkyk = (kxk + kyk) , woraus DU
mit dem Zusatz folgt.
Wir suchen das Minimum von
ϕ
auf. Dazu formen wir
2
Ein Spezialfall ist die DU für den Betrag in
C nach (4.13), die aus der DU in R2
mit dem Standard-
SP folgt.
Üb
Der Hilbertraum l2 , eine Verallgemeinerung von (3). Hierzu ist etwas Analysis erforderlich.
Es ist
l2
die Teilmenge von
CN ,
die aus den Folgen
sup
N
X
(xn )
besteht, wofür
|xn |2 < ∞
N ∈N n=1
ist. Zeige, dass
l2
Zeige weiter, dass
Wende DU in
(13.7)
C
CN ist. (Tipp: Weise |xn + yn |2 ≤ 2 |xn |2 + 2 |yn |2 nach.)
2
n=1 xn yn absolut konvergiert und ein SP auf l deniert. (Tipp:
RN an.) Wie lautet explizit die zugehörige CSU?
ein UVR von
hx, yi :=
P∞
und CSU in
Denition. Das Standard-SP in Kn×1
hξ, ηi :=
n
X
lautet
ξl ηl .
l=1
Zu einer Matrix
A = (akl ) ∈ Km×n
führen wir die
92
konjugiert komplexe Matrix A := (akl )
adjungierte Matrix A∗ := (aTkl )
(i)
(ii)
ein. Hiermit lässt sich insbesondere
(13.8)
(13.9)
schreiben .
Lemma. Seien A, B aus Km×n , C ∈ Kn×p , S ∈ GL(n, K). Dann gelten
Üb
T
hξ, ηi = ξ η = ξ ∗ η
A∗ = (A)T = (AT )
(A∗ )∗ = A
(A + λ B)∗ = A∗ + λ B ∗
(BC)∗ = C ∗ B ∗
(S ∗ )−1 = (S −1 )∗
hξ, A ηi = hA∗ ξ, ηi für alle ξ ∈ Km×1 , η ∈ Kn×1 .
Weise (8) nach.
Beispiel. Sei D := diag(λ1 , . . . , λn ) mit λl > 0 für alle l und sei S ∈ GL(n, K). Dann sind
a) ξ, η := hξ, Dηi
b) ξ, η := hξ, S ∗ Sηi
SP auf Kn×1 .
√
√
S := diag( λ1 , . . . , λn ) eine Verallgemeinerung von a). Es genügt b) zu
∗
zeigen. Oenbar ist [·, ·] linear im zweiten Argument. Da hξ, S Sηi = hSξ, Sηi (s. (8)), ist [·, ·]
2
konjugiert symmetrisch. Es ist auch positiv denit, da aus ξ, ξ = 0 zunächst kSξk = 0 und somit
ξ = 0 folgt , weil S invertierbar.
Beweis.
b) ist wegen
A ∈ Kn×n gegeben. Wir
(13.10) ξ, η := hξ, A ηi
Sei
für
ξ, η
aus
Kn×1
können nun umgekehrt fragen, welche Eigenschaften
hat? Zunächst ist klar, dass
[·, ·]
aus (10) linear im zweiten und konjugiert linear
[·, ·] nennt man daher sesquilinear. Wann ist [·, ·] konjugiert
η, ξ = hη, A ξi = hA∗ η, ξi = hξ, A∗ ηi. Damit ist [·, ·] aus (10) genau
∗
∗
dann konjugiert symmetrisch, wenn hξ, A ηi = hξ, A ηi, d.h. hξ, (A − A) ηi = 0 für alle ξ, η aus
∗
∗
n×1
n×1
und somit A = A.
K
. Wegen (4) folgt daraus (A − A) η = 0 für alle η ∈ K
im ersten Argument ist. Die Form
symmetrisch? Dazu beachte
(13.11)
Lemma und Denition.
A∗ = A.
a)
[·, ·] aus (10) ist genau dann konjugiert symmetrisch, wenn
A hermitesch oder selbstadjungiert. (Für K = R ist A
In diesem Fall nennt man
symmetrisch.)
[·, ·] aus (10) ist genau dann positiv denit (s. (1)) und somit ein SP, wenn A positiv und,
falls K = R, A symmetrisch ist. Dabei heiÿt A positiv, wenn hξ, A ξi > 0 (insbesondere reell)
n×1 \{0}.
für alle ξ ∈ K
b)
Beweis. Aufgrund der Überlegungen zu (10) bleibt nur noch zu zeigen, dass
(13.12)
A ∈ Cn×n
positiv
⇒A
selbstadjungiert.
R 3 hξ, A ξi = hA∗ ξ, ξi = hA∗ ξ, ξi = hξ, A∗ ξi und somit 0 = hξ, A ξi −
hξ, A∗ ξi = hξ, A ξ − A∗ ξi = hξ, B ξi für alle ξ ∈ Cn×1 mit B := A − A∗ . Hieraus folgt mit (13), dass
hξ, B ηi = 0 für alle ξ, η aus Cn×1 und somit, wie nach (10), B = 0.
Zum Beweis betrachte
93
(13.13)
Polaridentität für komplexe Formen. Sei V ein C-VR und [·, ·] : V × V → C sesquilinear,
d.h. linear im zweiten und konjugiert linear im ersten Argument. Dann gilt
[x, y] =
1X
α [αx + y, αx + y]
4
für alle
x, y
aus
V,
α∈Ω
wobei Ω := {1, −1, i, −i}. Daraus folgt, dass [·, ·] genau dann konjugiert symmetrisch ist, wenn
[x, x] ∈ R für alle x ∈ V .
Üb
Rechne (13) nach.
Üb
Polaridentität für reelle Formen.
symmetrisch. Zeige
Üb
[x, y] =
1
4
V ein R-VR und [·, ·] : V × V → R bilinear
[x + y, x + y] − 41 [−x + y, −x + y] für alle x, y aus V .
Sei
Zeige an einem Beispiel, dass (12) im Reellen nicht gilt, d.h. dass aus
für alle
ξ ∈ Rn×1 \ {0}
[·, ·]
allgemein nicht
A = AT
und
A ∈ Rn×n mit hξ, Aξi > 0
folgt.
K-VR V , was im Fall
K = R eine symmetrische Bilinearform ist. Wie mehrmals bemerkt, ist [x, x] reell für alle x ∈ V .
Ist [x, x] > 0 für x 6= 0, dann ist [·, ·] positiv denit und somit ein SP. Gilt lediglich [x, x] ≥ 0 ∀x,
dann heiÿt [·, ·] positiv semidenit. Entsprechend heiÿt [·, ·] negativ (semi)denit, wenn − [·, ·]
0
0 0
positiv (semi)denit ist. Liegt keiner dieser Fälle vor, d.h. ∃ x, x ∈ V : [x, x] > 0, [x , x ] < 0,
dann nennt man [·, ·] indenit. Wir werden solche Formen im Zusammenhang mit der HauptachSei allgemein
eine konjugiert symmetrische Sesquilinearform auf dem
sentransformation näher untersuchen.
Üb
1
1
R-VR mit SP und x, y ∈ V \{0}. Zeige: h kxk
x, kyk
yi ∈ [−1, 1]. Damit existiert genau
1
1
3
ein Winkel α ∈ [0, π] derart, dass cos(α) = h
kxk x, kyk yi. Zeige: Für V = R ist α der von
3
den Vektoren x und y eingeschlossene (kleine) Winkel. Zeige den Kosinussatz in R , nämlich
2
2
2
a = b + c − 2bc cos(α).
Sei
V
ein
Orthogonale Mengen
V ein K-VR mit SP. Zwei Vektoren x, y aus V heiÿen orthogonal bzw. orthonormal, wenn
hx, yi = 0 bzw. zusätzlich kxk = kyk = 1 gilt. Allgemeiner heiÿt eine Menge M ⊂ V orthogonal
bzw. orthonormal, wenn hx, yi = 0 für alle x, y aus M mit x 6= y bzw. wenn
(
0 für x 6= y
hx, yi = δxy =
1 für x = y
Sei
für alle
x, y
aus
M
gilt. Ist
M
schreibt man auch
(13.14)
M eine Orthonormalbasis
aufeinander senkrecht stehen. Für hx, yi = 0
orthonormal und eine Basis, so heiÿt
(ONB). Statt orthogonal sein sagt man auch
x ⊥ y.
Lemma. Sei M ⊂ V \ {0} orthogonal. Dann ist M linear unabhängig.
94
Beweis.
M . Gemäÿ (5.14) b) ist ihre lineare Unabhängigkeit zu zeigen. Sei also 0 =
i=1 αi xi mit αi ∈ K. Dann folgt 0 = hxj , 0i =
P
P
P
hxj , ni=1 αi xi i = ni=1 αi hxj , xi i = ni=1 αi δji kxj k2 = αj kxj k2 . Daraus folgt αj = 0 für jedes
j ∈ {1, . . . , n}. Das ist die Behauptung.
(13.15)
x1 , ..., xn
Seien
paarweise verschiedene Vektoren aus
Pn
Basisentwicklungssatz. Sei M ⊂ V eine ONB. Dann gilt für jedes y ∈ V
X
y=
hx, yi x,
x∈M
wobei nur endlich viele Produkte hx, yi nicht Null sind. M.a.W. die Koordinaten von y bez.
der Basis M sind hx, yi, x ∈ M , vgl. (5.21).
Beweis.
Nach (5.21) ist y =
P
P
x∈M
(13.16)
αx
hx0 , xi
=
P
αx δ
x∈M
αx x. Hieraus folgt für jedes x0 ∈ M : hx0 , yi = hx0 ,
= αx0 .
x∈M
x0 x
P
αx xi =
y0 = y,
so folgt
x∈M
Korollar. In (15) gelten für y, y 0 aus V die Parsevalgleichungen
hy 0 , yi =
X
hy 0 , xi hx, yi,
x∈M
2
kyk =
X
|hx, yi|2 .
x∈M
Beweis. Nach (15) ist hy 0 , yi = hy 0 ,
P
x∈M hx, yi xi
=
P
x∈M hx, yi hy
0 , xi. Setzt man
die zweite Gleichung.
Satz von Pythagoras. Sei M ⊂ V eine endliche orthogonale Menge und
(13.17)
X
y :=
x.
x∈M
Dann ist kyk2 =
P
x∈M
Beweis. kyk2 = hy, yi = h
kxk2 .
P
P
x∈M
dass die
xi
P
x0 ∈M
x0 i =
x1 , . . . , xn
P
x∈M
=
P
x,x0 ∈M hx, xi δxx0
=
hxi , xj i = δij für alle i, j . Das bedeutet,
{x1 , . . . , xn } eine orthonormale Menge ist.
Beispiel. Die Standardbasis in Kn ist eine ONB bez. des Standard-SP. Die Basis {ey : y ∈ X}
(5.20))
ist eine ONB bez. des Standard-SP (s.
(3) b)).
Prüfe (18) nach.
Die Existenz von ONB im Fall endlichdimensionaler
(13.19)
0
x0 ∈M hx, x i
P
orthonormal sind, wenn
paarweise verschieden sind (s. (14)) und
in K(X) (s.
Üb
x,
kxk2 .
Man sagt etwas lax, dass
(13.18)
x∈M
K-VR
folgt aus dem
Orthonormalisierungsverfahren von Gram und Schmidt. Sei V ein K-VR mit SP
und seien x1 , . . . , xp linear unabhängig. Dann existieren orthonormale v1 , . . . , vp derart, dass
Span{v1 , . . . , vj } = Span{x1 , . . . , xj } für jedes j ∈ {1, . . . , p}.
95
Beweis.
v10 := x1 . Weil x1 linear unabhängig ist, ist x1 6= 0 und kv10 k = kx1 k > 0. Damit
0
0 −1 v . Es ist kv k = 1.
lässt sich v1 auf 1 normieren. Setze v1 := kv1 k
1
1
Seien nun orthonormale v1 , . . . , vj mit j ≥ 1 und j ≤ p−1 bereits konstruiert, so dass Span{v1 , . . . , vj } =
Span{x1 , . . . , xj }. Setze
Setze
0
vj+1
:= xj+1 −
j
X
hvl , xj+1 i vl .
l=1
Dann ist
0
hvk , vj+1
i = hvk , xj+1 i −
{1, . . . , j}.
Weiter ist
0
vj+1
6= 0,
Voraussetzung. Schlieÿlich ist
zu normieren:
(13.20)
Zusatz
hvl , xj+1 ihvk , vl i = hvk , xj+1 i −
zu (19). Sind
j
P
hvl , xj+1 i δkl = 0
für
xj+1 ∈ Span{v1 , . . . , vj } = Span{x1 , . . . , xj } entgegen der
j
P
0
0
0
}. Es bleibt vj+1
= vj+1
+ hvl , xj+1 i vl ∈ Span{v1 , . . . , vj , vj+1
da sonst
xj+1
l=1
w1 , . . . , wp orthonormal mit Span{w1 , . . . , wj } = Span{x1 , . . . , xj }
γj ∈ K mit |γj | = 1 und wj = γj vj für j = 1, . . . , p.
für
dann existieren
Weise (20) nach.
(13.21)
Korollar. Jeder endlichdimensionale K-VR mit SP besitzt eine ONB.
Beweis. Wende (19) auf eine Basis des VR an.
(13.22)
R3
In
k ∈
l=1
l=1
0
0
vj+1 := kvj+1
k−1 vj+1
.
j = 1, . . . , p,
Üb
j
P
Beispiel.
mit Standard-SP seien
x1 = (1, 1, 1)
und
x2 = (0, 2, 4)
gegeben. Oenbar sind
x1 , x2
linear
unabhängig. Wende darauf das Orthonormalisierungsverfahren (19) an:
v1 := kx1 k−1 (1, 1, 1) =
v20 := x2 − hv1 , x2 iv1 =
v2 :=
√1 (1, 1, 1),
3
(0, 2, 4) − √13 (2
+ 4) √13 (1, 1, 1) = (0, 2, 4) − 2(1, 1, 1) = (−2, 0, 2) ⇒
√1 (−1, 0, 1).
2
Damit sind
Man erhält
v1 , v2 orthonormal. Ergänze jetzt
aus v1 , v2 , x3 eine ONB mit (19):
v30 := x3 − hv1 , x3 iv1 − hv2 , x3 iv2 = (1, 0, 0) −
v3 =
Üb
diese zu einer Basis von
√1 √1 (1, 1, 1) −
3 3
− √12
√1 (−1, 0, 1)
2
Sei
V
ein
K-VR
mit SP,
M ⊂ V
x3 = (1, 0, 0).
1
= ( 61 , −2
6 , 6) ⇒
eine abzählbare Erzeugendenmenge. Als Anwendung des
V
besitzt eine ONB.
Orthogonale Projektion
M ⊂V
eine Menge. Dann heiÿt
M ⊥ := {y ∈ V : hx, yi = 0 ∀x ∈ M }
das
durch
√1 (1, −2, 1).
6
Orthonormierungsverfahrens zeige:
Sei
R3
orthogonale Komplement von M . Für M = ∅ setzt man ∅⊥ := V .
96
(13.23)
Lemma. Seien V ein K-VR mit SP und M, N Teilmengen von V . Dann gelten
Beweis.
a)
M⊥
ist ein UVR
b)
M ∩ M ⊥ ⊂ {0}
c)
N ⊂ M ⇒ M⊥ ⊂ N⊥
d)
M ⊥ = (Span M )⊥
e)
Span M ⊂ (M ⊥ )⊥
f)
(M ∪ N )⊥ = M ⊥ ∩ N ⊥
∀ x ∈ M, y, y 0 ∈ M ⊥ , λ ∈ K : hx, y + λ y 0 i = hx, yi + λ hx, y 0 i = 0 + 0 = 0 ⇒ y + λ y 0 ∈
x ∈ M ∩ M ⊥ ⇒ hx, xi = 0 ⇒ x = 0. c) ∀ x ∈ N, y ∈ M ⊥ : hx, yi = 0 ⇒ y ∈ N ⊥ .
0
⊥
0
0
d) "⊃"gilt nach c). ∀x, x ∈ M, y ∈ M , λ ∈ K : hx + λx , yi = hx, yi + λ hx , yi = 0 + 0 =
0 ⇒ y ∈ (Span M )⊥ . e) Nach a) genügt zu zeigen M ⊂ (M ⊥ )⊥ . Dies jedoch folgt direkt aus der
⊥
⊥ ∩ N ⊥ , x ∈ M, y ∈ N : hz, xi = 0, hz, yi =
Denition von M . f ) "⊂" gilt nach c). ∀ z ∈ M
⊥
0 ⇒ z ∈ (M ∪ N ) .
a)
M ⊥ . b)
Üb
Zeige:
(13.24)
M ⊂ P(V ) : (
S
⊥
M ∈M M )
=
T
M ∈M M
⊥.
Lemma und Dention. Seien W1 , . . . , Wm UVR eines KVR V mit SP, die paarweise
orthogonal sind, d.h.
hx, x0 i = 0
falls
x ∈ Wl , x0 ∈ Wk
Dann ist die Summe W := W1 + · · · + Wm direkt gemäÿ
mit
l 6= k.
(11.25) und man schreibt dafür
⊥ ...
⊥ Wm .
W = W1 Beweis. Wende (14) an.
(13.25)
Satz und Dention. Sei W ein UVR von V mit dim W < ∞. Dann gibt es zu jedem x ∈ V
genau ein PW (x) ∈ W derart, dass x − PW (x) ∈ W ⊥ . Es gilt also
⊥ W ⊥.
V =W
PW (x) die orthogonale Projektion von x auf W . Die dadurch denierte Abbildung PW : V → V ist linear und heiÿt der orthogonale Projektor von V auf W . Oenbar
gilt PW ◦ PW = PW .
Man nennt
Beweis. Nach (23) b) ist W ∩ W ⊥ = {0}. Zeige jetzt W + W ⊥ = V . Sei w1 , . . . , wm
W.
x∈V
Für
(13.26)
eine ONB von
deniere
PW (x) :=
m
X
hwk , xi wk .
k=1
W (x). Dafür gilt hwl , yi = hwl , xi − hwl , PW (x)i =
PmPW (x) ∈ W . Setze y := x −
PP
m
hw
,
xihw
,
w
i
=
hw
,
xi
−
k
l
k
l
k=1
k=1 hwk , xi δkl = hwl , xi − hwl , xi = 0 für l = 1, . . . , m.
⊥
Hieraus folgt hw, yi = 0 für alle w ∈ W nach (23)d). Also ist y ∈ W . Die Linearität von PW
ersieht man aus (26).
Oenbar ist
hwl , xi −
Üb
Zeige, dass für den orthogonalen Projektor
PW
gilt:
kPW (x)k2 = hx, PW (x)i = hPW (x), xi.
dim W ⊥ < ∞, d.h. dim V < ∞, dann ist oenbar PW ⊥ = idV −PW .
allgemein im Fall dim W < ∞
PW ⊥ := idV −PW .
Ist auch
Bild(PW ) = W = Kern(PW ⊥ ), Kern(PW ) = W ⊥ = Bild(PW ⊥ ), PW ⊥ ◦ PW ⊥ = PW ⊥ ,
⊥ = dim V (auch im Fall dim V = ∞).
leicht überprüft. Auÿerdem gilt dim W + dim W
Dann ist
man
Daher setzen wir
97
was
(13.27)
Korollar. Ist dim W < ∞ und W ein UVR von V , dann gilt (W ⊥ )⊥ = W .
Beweis. W ⊂ (W ⊥ )⊥
(W ⊥ )⊥ folgt daraus
somit
(13.28)
PW (z) = z ,
d.h.
⊥ W ⊥ = V nach (25). Da W ⊥ ⊥
W
z ∈ (W ⊥ )⊥ gilt daher PW ⊥ (z) = 0 und
gilt immer, s. (23) e). Auÿerdem ist
⊥ (W ⊥ )⊥ =
W ⊥
V
nach (24). Für
z ∈ W.
Satz. Bestapproximation. Sei W ein UVR von V mit dim W < ∞. Dann gilt
kx − PW (x)k ≤ kx − wk
∀x ∈ V, w ∈ W.
D.h. von allen w ∈ W hat PW (x) den kürzesten Abstand zu x.
Beweis. x − w = (x − PW (x)) + (PW (x) − w) = PW ⊥ (x) + w0
kx − wk2
(x)k2
= kPW ⊥
kx − PW (x)k2 , wie
Üb
Sei
mit
w0 := (PW (x) − w) ∈ W ⇒
kx − wk2 ≥ kPW ⊥ (x)k2 =
+ kw0 k2 nach dem Satz von Pythagoras. Also ist
behauptet.
V ein KVR und M ⊂ V eine Basis von V . Zeige: Es gibt es genau
M eine ONB ist. Tipp: Betrachte zuerst den Fall dim V < ∞.
dass
98
ein SP auf
V
derart,
14 Endomorphismen in Vetorräumen mit
Skalarprodukt
Es werden Endomorphismen untersucht, die besondere Eigenschaften bezüglich des Skalarprodukts
besitzen. Sie treten in Anwendungen in natürlicher Weise auf. Symmetrietransformationen werden
durch unitäre (spezieller: orthogonale) Endomorphismen dargestellt. Selbstadjungierte (spezieller:
symmetrische) Endomorphismen hingegen beschreiben Eigenschaften eines Systems. Entscheidend
für die folgenden Untersuchungen ist das folgende Konzept.
Der adjungierte Homomorphismus
(14.1)
Satz und Denition. Seien V und W endlichdimensionale KVR mit SP. Dann gibt es zu
f ∈ Hom(V, W ) genau ein f ∗ ∈ Hom(W, V ) derart, dass
hw, f (v)i = hf ∗ (w), vi
∀v ∈ V, w ∈ W.
Bemerke, dass links das SP in
der zu
W
und rechts da SP in
f adjungierte Homomorphismus.
V
steht. Der Homomorphismus
f∗
heiÿt
Beweis. Zur Eindeutigkeit seien w ∈ W
hz2 , vi
für alle
weshalb
v ∈ V.
Daraus folgt
und dazu zj ∈ V, i = 1, 2 derart, dass hw, f (v)i = hz1 , vi =
hz1 − z2 , vi = 0. Für v = z1 − z2 folgt daher kz1 − z2 k2 = 0,
z1 = z2 .
Zur Existenz wähle ONB
A
bildungsmatrix
von
f.
Sei
v1 , . . . , vn von V
f ∗ : W → V der
w1 , . . . , wm
und
von
W und bestimme dazu die AbA∗ als Abbildungsmatrix bez.
Homomorphismus mit
obiger ONB, d.h.
n
X
∗
f (wk ) =
aTlk vl
=
Hierfür rechnet man nach:
n
P
akl vl
für
k = 1, . . . , m.
l=1
l=1
hf ∗ (wk ), vl i = h
n
X
m
P
hwk , f (vl )i = hwk ,
akj vj , vl i =
n
P
j=1
n
P
Allgemein für
m P
n
P
w =
ζk wk
und
ajl hwk , wj i =
akj δjl = akl .
m
P
ajl δkj = akl
sowie
j=1
Also gilt
j=1
hwk , f (vl )i = hf ∗ (wk ), vl i
m
P
m
P
j=1
akj hvj , vl i =
j=1
j=1
ajl wj i =
v =
k=1
n
P
ηl vl
für
k = 1, . . . , m, l = 1, . . . , n.
folgt daraus
l=1
hw, f (v)i =
m P
n
P
ζ k ηl hwk , f (vl )i =
k=1 l=1
ζ k ηl hf ∗ (wk ), vl i = hf ∗ (w), vi.
k=1 l=1
(14.2)
Bemerkungen.
a) Der Beweis von (1) zeigt:
hw, f (v)i = hz, vi ∀v ∈ V , dann ist z =
∗
nearität von f in (1) automatisch folgt.
Ist w ∈ W und dazu z ∈ V derart, dass
f ∗ (w). Das bedeutet insbesondere, dass die Li-
Ist A die Abbildungsmatrix von f bez. ONB, dann ist A∗
die Abbildungsmatrix von f ∗ bez. der gleichen Basen.
b) Der Beweis von (1) besagt auch:
Für alle ξ ∈ Km×1 , η ∈ Kn×1 , A ∈ Km×n gilt bez. der
Standardskalarprodukte hξ, A ηi = hA∗ ξ, ηi. Das bedeutet (LA )∗ = LA∗ (vgl. b) ).
c) Erinnere an (13.8) letzter Punkt:
99
(14.3)
Lemma. Seien V und W endlichdimensionale KVR mit SP. Dann gelten für f, g ∈ Hom(V, W )
(a)
(f ∗ )∗ = f
(b)
(f + λg)∗ = f ∗ + λg ∗ ,
λ∈K
und für f ∈ End(V ), M UVR von V
Beweis.
(c)
det f ∗ = det f
(d)
(idV )∗ = idV
(e)
λ Eigenwert von
(f )
M f − (bzw . f ∗ −)invariant ⇒ M ⊥ f ∗ −(bzw . f −)invariant.
f ⇔ λ Eigenwert von
f∗
∀x, y ∈ V : hy, f ∗ (x)i = hf ∗ (x), yi = hx, f (y)i = hf (y), xi. Daher ist (f ∗ )∗ = f nach
∗
(1). (c) Sei A eine Abbildungsmatrix von f bez. ONB. Dann ist A die Abbildungsmatrix von
T
f ∗ bez. der gleichen Basen, s. (2)b). Nun ist det f ∗ = det A∗ (nach (11.24)) = det A = det A (nach
⊥ gilt: 0 = hy, f (x)i (weil f (x) ∈ M )
(10.10)) = det A = det f (nach (11.24)). (f ) ∀x ∈ M, y ∈ M
∗
∗
⊥
∗∗
= hf (y), xi ⇒ f (y) ∈ M . Weil f = f folgt hieraus auch der zweite Teil der Behauptung.
(b), (d) und (e) bleiben als Übung.
Üb
(a)
Weise (b), (d) und (e) aus (3) nach.
Normale Endomorphismen
(14.4)
Denition.
wenn
Sei V ein KVR mit SP endlicher Dimension. Dann heiÿt f ∈ End(V ) normal,
f ∗ ◦ f = f ◦ f ∗ . Entsprechend heiÿt eine Matrix A ∈ Kn×n normal, wenn A∗ A = A A∗
gilt.
(14.5)
Lemma. Die Darstellungsmatrix eines Endomorphismus bez. einer ONB ist genau dann normal, wenn der Endomorphimus normal ist.
Beweis. Allgemein gelten LA = ϕ ◦ f ◦ ϕ−1
(s. (7.8)(7.10)) und LB ◦ LA = LBA (s. MatrixmultiLA∗ A = LA∗ ◦ LA = ϕ ◦ f ∗ ◦ ϕ−1 ◦ ϕ ◦ f ◦ ϕ−1 = ϕ ◦ f ∗ ◦ f ◦ ϕ−1 =
= . . . = LAA∗ . Hieraus folgt A∗ A = A A∗ . Die Umkehrung beweist man analog. plikation (7.17) ). Daher ist
ϕ ◦ f ◦ f ∗ ◦ ϕ−1
(14.6)
Lemma. Seien f ∈ End(V ) normal und W ein UVR von V . Dann gelten
(a)
Kern(f ) = Kern(f ∗ )
(b)
∀x ∈ V, λ ∈ K :
(c)
x, y ∈ V Eigenvektoren zu verschiedenen Eigenwerten ⇒ x ⊥ y.
f (x) = λ x ⇔ f ∗ (x) = λ x.
Beweis. (a) Sei x ∈ Kern(f ). Dann gilt: f (x) = 0 ⇒ 0 = kf (x)k2 = hf (x), f (x)i = hf ∗ (f (x)), xi =
hf (f ∗ (x)), xi = hf ∗ (x), f ∗ (x)i = kf ∗ (x)k2 ⇒ x ∈ Kern(f ∗ ). Ebenso folgt Kern(f ∗ ) ⊂ Kern(f ).
∗
∗
(b) ⇒: Es folgt (f − λ idV )(x) = 0, d.h. x ∈ Kern(f − idV ). Da (f − λ idV ) = f − λ idV nach
∗
∗
(3)(b),(d), ist f − λ idV normal. Somit folgt x ∈ Kern(f − λ idV ) nach (a). Also ist f (x) = λx.
⇐
folgt analog.
∗
(c) Sei f (x) = λ x, f (y) = µ y mit λ 6= µ. Dann gilt: λ hx, yi = hλ x, yi = hf (x), yi (wegen (b))
= hx, f (y)i = hx, µ yi = µ hx, yi, woraus die Behauptung folgt.
100
Üb
V ein K-VR mit SP endlicher Dimension und f ∈ End(V ) normal. Weiter sei W ein UVR
V , der von Eigenvektoren von f erzeugt wird. Zeige: f (W ) ⊂ W, f (W ⊥ ) ⊂ W ⊥ , f ∗ (W ) ⊂
W, f ∗ (W ⊥ ) ⊂ W ⊥ .
Sei
von
Üb
Sei
V
ein
CVR
mit SP endlicher Dimension. Seien
paarweise verschiedenen Eigenwerte von
f.
f ∈ End(V )
normal und
λ 1 , . . . λs
die
Zeige:
⊥ ... ⊥ Ef (λs ).
V = Ef (λ1 ) (14.7)
Hauptsatz. Sei V ein C-VR mit SP und dim V =: n ∈ N. Ist f ∈ End(V ) normal, dann gibt
es eine ONB von Eigenvektoren von f . Es gilt auch die Umkehrung.
Beweis.
χf in Linearfaktoren
v1 . O.E. sei kv1 k = 1.
Weil
Eigenvektor
zerfällt (s. (12.11)) hat
f
einen Eigenwert
λ1
und dazu einen
v1 , . . . , vj mit j ∈ {1, . . . , n − 1} für f gefunden. Setze
f (W ) ⊂ W und f ∗ (W ) ⊂ W . Hieraus folgt bereits alles
Seien bereits orthonormale Eigenvektoren
W := Span{v1 , . . . , vj }.
Aus (6)(b) folgt
Übrige:
f (W ⊥ ) ⊂ W ⊥ , f ∗ (W ⊥ ) ⊂ W ⊥ nach (3)(f ). Damit ist g : W ⊥ → W ⊥ , g(x) :=
f (x), ein Endomorphismus von W ⊥ mit g ∗ (x) = f ∗ (x), denn für x, y ∈ W ⊥ gilt hx, g(y)i =
hx, f (y)i = hf ∗ (x), yi mit f ∗ (x) ∈ W ⊥ . Schlieÿlich ist g normal: g ∗ (g(x)) = g ∗ (f (x)) = f ∗ (f (x)) =
f ∗ (f ∗ (x)) = f (g ∗ (x)) = g(g ∗ (x)).
⊥ = n − j ≥ 1, ist W ⊥ 6= {0}. Damit gibt es, wie eingangs für f argumentiert, einen
Weil dim W
⊥ von g mit kv
Eigenvektor vj+1 ∈ W
j+1 k = 1. Dieser ist auch Eigenvektor von f mit vj+1 ⊥ W .
Zur Umkehrung sei v1 , . . . , vn eine ONB von V und seien λ1 , . . . , λn aus C mit f (vl ) = λl vl .
Dann folgt hvk , f (vl )i = hvk , λl vl i = δkl λl = δkl λk = λk hvk , vl i = hλk vk , vl i. Daher gilt allgemein
Pn
Pn
Pn
für x =
l=1 αl hλk vk , vl i = hλk vk , xi.
l=1 αl hvk , f (vl )i =
l=1 αl vl ∈ V , dass hvk , f (x)i =
∗
∗
Nach (2)a) impliziert dies f (vk ) = λk vk für k = 1, . . . , n. Damit rechnet man nach: f ◦ f (vl ) =
∗
∗
∗
∗
∗
f (λl vl ) = λl f (vl ) = λl λl vl = . . . = f ◦ f (vl ) für alle l. Hieraus folgt f ◦ f = f ◦ f .
Zunächst ist auch
Insbesondere ist jeder normale Endomorphimus eines endlichdimensionalen
C-VR
diagonalisier-
bar.
Unitäre Automorphismen
(14.8)
ONBWechsel, unitäre Matrix. Sei V ein KVR mit SP und dim V =: n ∈ N. Seien
v1 , . . . , vn und v10 , . . . , vn0 zwei ONB von V . Dann ist die invertierbare Matrix S , die gemäÿ
(7.26)
vj0
=
n
X
slj vl ,
j = 1, . . . , n
l=1
den Basiswechsel beschreibt, unitär,
d.h. sie erfüllt
S −1 = S ∗ .
Ist umgekehrt v1 , . . . , vn eine ONB von V und S ∈ Kn×n unitär, dann deniert
ONB v10 , . . . , vn0 .
(7.26)
eine
Beweis. Zunächst folgt aus (7.26):
hvk0 , vj0 i
n
n
n X
n
n X
n
n
n
X
X
X
X
X
X
sik slj hvi , vl i =
sik slj δil =
sik sij =
sTki sij .
=h
sik vi ,
slj vl i =
i=1
l=1
i=1 l=1
i=1 l=1
101
i=1
i=1
vj0 , . . . , vn0
Wenn nun
S −1 = S ∗
ist. Ist umgekehrt
Wie bemerkt, ist
K=R
ist
∗
S =S
T
δkj = hvk0 , vj0 i und daher E n = S ∗ S , was äquvalent zu
∗
0
0
dann ist S S = E n und somit hvk , vj i = δkj .
eine ONB ist, dann ist
S −1 = S ∗
S
unitär,
äquivalent zu
und man nennt spezieller
S ∗ S = E n und damit auch zu S S ∗ = E n .
S ∈ GL(n, R) mit S −1 = S T orthogonal.
Im Fall
U(n) := {S ∈ GL(n, C) : S −1 = S ∗ },
O(n) := {S ∈ GL(n, R) : S −1 = S T }
sind Gruppen bez. der Matrixmultplikation, d.h. also Untergruppen der allgemeinen linearen Gruppe
C bzw. R. Daher heiÿt U(n)
O(n) = U(n) ∩ Rn×n .
über
ist
bzw.
O(n)
Üb
Weise die Gruppeneigenschaften von
Üb
Sei
S ∈ Kn×n
die
unitäre
bzw.
U(n) ⊂ GL(n, C)
orthogonale Matrixgruppe.
und
O(n) ⊂ GL(n, R)
Es
nach.
| det S| = 1.
unitär. Zeige:
Es folgt eine Kennzeichnung unitärer Matrizen.
(14.9)
Lemma. Sei S ∈ Kn×n . Dann sind äquvalent
(i)
(ii)
(iii)
Beweis.
S ist unitär.
Die Spaltenvektoren von S bilden eine ONB in Kn×1 bez. des StandardSP.
Die Zeilenvektoren von S bilden eine ONB in K1×n bez. des StandardSP.
Es ist
S = (s1 , . . . , sn ),
wobei wie üblich
sk ∈ Kn×1
k -ten
den
Spaltenvektor von
S
bezeichnet. Damit ist
 ∗
s1
 .. 
∗
S S =  .  s1 . . . sn .
s∗n
(k, l)Element
⇔ (iii).
Das
(i)
⇔
von
S∗S
ist
s∗k sl = hsk , sl i.
Hieraus folgt sofort (i)
Weise (i)
Üb
Gebe Beispiele für unitäre bzw. orthogonale
Dention.
wenn
f
(ii). Ähnlich einfach folgt
Üb
(14.10)
⇔
(iii) von (9) nach.
Seien
V
und
W KVR
bijektiv, linear und
(n × n)Matrizen
mit SP. Dann heiÿt
für
n = 1, 2, 3
f : V → W
SP-erhaltend ist. Letzteres bedeutet
ein
an.
Isomorphismus,
hf (x), f (y)i = hx, yi ∀x, y ∈ V.
Ist
Üb
V = W,
so heiÿt
f
auch
unitär.
f ein Isomorphismus
W : hy, f (x)i = hf −1 (y), xi.
Zeige: Ist
von
KVR
mit SP, so ist es auch
102
f −1
und es gilt
∀x ∈ V, y ∈
(14.11)
Lemma. Seien V, W K-VR mit SP und f ∈ Hom(V, W ). Ist dim V = dim W < ∞, dann
gilt:
f SP-erhaltend ⇔ f bijektiv und f −1 = f ∗ .
Beweis. ⇒: ∀x, y ∈ V
hx, yi = hf (x), f (y)i = hf ∗ (f (x)), yi. Mit (13.4) folgt
f ∗ (f (x)) = x ∀x ∈ V und somit f ∗ ◦ f = idV . Aus (2.24), (6.17) folgt, dass f bijektiv ist und
−1 = f ∗ . ⇐: hf (x), f (y)i = hf ∗ (f (x)), yi = hf −1 (f (x)), yi = hx, yi ∀x, y ∈ V .
somit f
gilt nach (1):
Unitäre Endomorphismen auf endlichdimensionalen VR sind oensichtlich normal. Ensprechend
sind unitäre Matrizen normal. Im Fall
K = R sagt man statt unitär spezieller orthogonal. Wie in
(5) überzeugt man sich, dass die Abbildungsmatrix eines Endomorphismus bez. einer ONB genau
dann unitär ist, wenn der Endomorphimus unitär ist.
Üb
Üb
Seien V, W K-VR mit SP und f ∈ Hom(V, W ). Dann heiÿt f isometrisch,
kxk ∀x ∈ V . Zeige: Ist f isometrisch, dann ist f injektiv.
wenn
kf (x)k =
V, W K-VR mit SP und f ∈ Hom(V, W ). Zeige: f ist SP-erhaltend genau dann, wenn f
hf (x), f (y)i die Polaridentität an. Achte auf die Fälle K = C
K = R.
Seien
isometrisch ist. Tipp: Wende auf
und
Üb
Sei
V K-VR
Üb
Sei
V
ein
mit SP,
K-VR
natenabbildung.
Üb
Sei
dim V < ∞
und
f ∈ End(V ).
Zeige:
f
unitär
⇔f
v1 , . . . , vn eine ONB in V und ϕ : V → Kn×1
n×1 mit dem Standard-SP. Zeige: ϕ ist ein
Versehe K
mit SP,
isometrisch.
die zugehörige KoordiIsomorphismus.
V K-VR mit SP, dim V < ∞ und f ∈ End(V ). Weiter sei v1 , . . . , vn eine
f ist unitär genau dann, wenn f (v1 ), . . . , f (vn ) eine ONB von V ist.
ONB von
V.
Zeige:
(14.12)
Lemma. Seien V ein C-VR mit SP endlicher Dimension und f ∈ End(V ). Dann sind äqui-
valent:
(a)
f ist unitär.
(b)
f ist normal und alle Eigenwerte sind vom Betrag 1.
Beweis.
Zu (a)
V
ein
RVR
oder
−1.
⇒ (b) sei λ ∈ C und x ∈ V , x 6= 0, mit f (x) = λx. Dann gilt: kxk2 =
hx, xi = hf (x), f (x)i = hλ x, λ xi = λ λ̄ hx, xi = |λ|2 kxk2 ⇒ |λ| = 1. Zu (b) ⇒ (a) betrachte nach (7) eine ONB v1 , . . . , vn von Eigenvektoren zu den Eigenwerten λ1 , . . . λn vom Betrag 1.
DP
E
Pn
Pn
Pn
n
Für x =
α
v
,
y
=
β
v
gilt
damit
hf
(x),
f
(y)i
=
α
λ
v
,
β
λ
v
=
j
j
j
l
l
l
l
l
l
l
l=1
l=1
l=1
j=1
Pn Pn
Pn Pn
l=1
j=1 ᾱl λ̄l βj λj hvl , vj i =
l=1
j=1 ᾱl λ̄l βj λj δlj . Letzteres ist gleich hx, yi, weil λ̄l λl = 1.
Also ist f SP-erhaltend.
Ist
(14.13)
mit SP und
Das zeigt man wie
f ∈ End(V ) orthogonal,
in (a)⇒(b) von (12).
dann ist jeder Eigenwert von
f
entweder
+1
Diagonalisierbarkeit normaler Matrizen. Sei A ∈ Cn×n normal. Dann existiert eine
unitäre Matrix S derart, dass
S −1 A S = diag(λ1 , . . . , λn ),
wobei λ1 , . . . , λn die Eigenwerte von A sind.
103
Beweis.
Da
LA
normal ist, existiert nach dem Hauptsatz (7) eine ONB von Eigenvektoren. Der
Basiswechsel von der Standardbasis zu dieser Basis wird nach (8) durch eine unitäre Matrix
vermittelt. Die Abbildungsmatrix
S −1 A S = diag(λ1 , . . . , λn )
A
(von
LA )
S
geht dabei gemäÿ (11.13) in die Diagonalmatrix
über.
Die Umkehrung in (13) gilt auch:
(14.14)
Lemma. Ist A ∈ Cn×n , S ∈ U(n) und ist S −1 A S = diag(λ1 , . . . , λn ) mit gewissen λ1 , . . . , λn
aus C, dann ist A normal und λ1 , , . . . , λn sind die Eigenwerte von A. Die Spaltenvektoren
s1 , . . . , sn von S sind dazu eine ONB aus Eigenvektoren.
Beweis. Mit D := diag(λ1 , . . . , λn ) ist A = S D S −1 und A∗ = (S −1 )∗ D∗ S ∗ = S D̄ S −1 , weil S −1 =
S∗
und
D∗ = D̄.
Damit folgt
A∗ A = S D̄ S −1 S D S −1 = S D̄ D S −1 = S D D̄ S −1 = · · · = A A∗ .
Der Rest der Behauptung folgt aus (11.13) und (9).
Üb
V ein CVR mit SP endlicher Dimension und f ∈ End(V ) normal. Weiter sei W ein
f invarinater UVR. Zeige: W ⊥ ist f invariant.
Pm
P
j
n×n sei p(A) :=
j
Anleitung. Für p ∈ K[X], p = m
j=1 αj A . Sei
j=1 αj X und A ∈ K
n×n
D∈C
eine Diagonalmatrix. Zeige: Dann gibt es ein Interpolationspolynom p ∈ C[X] vom
∗
Grad ≤ n derart, dass p(D) = D . Verallgemeinere obiges Ergebnis von Diagonalmatrizen
Sei
auf normale Matrizen mit Hilfe von (13). Wende (3)(f ) an.
Selbstadjungierte Endomorphismen
KVR mit SP und dim V < ∞. Dann heiÿt f ∈ End(V ) selbstadjungiert, wenn f = f ∗ ,
d.h. wenn hx, f (y)i = hf (x), yi für alle x, y aus V . Oenbar ist die Abbildungsmatrix eines EndomorSei
V
ein
phismus bzgl. einer ONB genau dann selbstadjungiert, wenn der Endomorphismus selbstadjungiert
ist (vgl. (5)).
Ein Beispiel im Fall
PW
hPW ⊥ (y), PW (x)i = 0
gonale Projektor
(14.15)
dim V < ∞
für einen selbstadjungierten Endomorphismus ist der ortho-
x, y aus V gilt: hy, PW (x)i = hPW (y), PW (x)i
hPW (y), xi = hPW (y), PW (x)i weil hPW (y), PW ⊥ (x)i = 0.
aus (13.25), denn für
und ebenso
weil
Lemma. Sei V ein CVR mit SP endlicher Dimension und f ∈ End(V ). Dann sind äquivalent:
(a)
f ist selbstadjungiert.
(b)
f ist normal und alle Eigenwerte sind reell.
Beweis.
Zu (a) ⇒ (b) sei λ ∈ C und x ∈ V , x 6= 0 mit f (x) = λ x. Dann gilt: λ hx, xi =
hx, λxi = hx, f (x)i = hf ∗ (x), xi = hf (x), xi = hλ x, xi = λ̄ hx, xi ⇒ λ = λ̄. Zu (b) ⇒ (a)
betrachte nach (7) eine ONB v1 , . . . , vn von Eigenvektoren zu reellen Eigenwerten λ1 , . . . , λn . Mit
Pn
P
P P
der gewohnten Notation folgt hx, f (y)i = h
αl vl , nj=1 βj λj vj i = nl=1 nj=1 ᾱl βj λj δlj =
l=1
Pn Pn
∗
l=1
j=1 ᾱl βj hλl vl , vj i = . . . = hf (x), yi, weil λl = λ̄l . Also ist f (x) = f (x) für alle x ∈ V .
Üb
V ein KVR mit SP endlicher Dimension
W ⊂ V ein UVR. Zeige: Ist W f invariant,
Sei
und
f ∈ End(V ) selbstadjungiert. Weiter sei
W ⊥ f invariant. (Dies ist ein
dann ist auch
leichter zu beweisender Spezialfall der vorangegangenen Übung.)
Üb
Gebe Beispiele für normale Endomorphismen an, die weder unitär noch selbstadjungiert sind.
104
Diagonalisierbarkeit über R
Sieht man den Beweis des Hauptsatzes (7) durch, erkennt man sofort die Gültigkeit von
(14.16)
Zusatz. Sei V ein RVR mit SP und dim V ∈ N. Ist f ∈ End (V ) normal und ist χf das
Produkt reeller Linearfaktoren, dann gibt es eine ONB von Eigenvektoren von f . Es gilt auch
die Umkehrung.
Daher gilt wegen (15) und aufgrund von (13), (14)
(14.17)
Folgerung.
a)
b)
A ∈ Rn×n ist genau dann symmetrisch, wenn S ∈ O(n) existiert derart, dass S −1 AS
diagonal ist. Damit folgt auch:
Sei V ein RVR mit SP mit dim V ∈ N. Ist f ∈ End (V ) selbstadjungiert (hier auch
symmetrisch genannt), dann gibt es eine ONB von Eigenvektoren von f . Es gilt auch
die Umkehrung.
Das charakteristische Polynom orthogonaler Matrizen zerfällt i. allg. nicht in reelle Linearfaktoren.
Fundamental ist das Beispiel
(14.18)
Dϕ
für
ϕ∈
/ πZ
aus (11.27), wie wir gleich sehen werden.
Lemma. Seien V ein RVR mit dim V ∈ N und f ∈ End (V ). Dann gibt es einen f invarianten UVR W von V mit dim W ∈ {1, 2}.
Beweis.
A ∈ Rn×n eine Abbildungsmatrix für f . Es genügt die Behauptung für LA statt f zu
n×n auf. Dann existiert ein Eigenwert λ ∈ C von A. Sei z ∈ Cn×1 \ {0} mit
zeigen. Fasse A ∈ C
1
A z = λ z . Hieraus folgt A z = A z = λ z = λ z . Setze x := 21 (z + z) ∈ Rn×1 und y := 2i
(z − z) ∈
n×1
n×1
R
. Man rechnet leicht nach, dass W := Span {x, y} ⊂ R
die Behauptung erfüllt.
Üb
Sei
Rechne nach, dass
W
in Beweis von (18) erfüllt:
W 6= {0}, LA (W ) ⊂ W.
Orthogonale Endomorphismen lassen sich i. allg. nicht diagonalisieren (s. o.), aber es gilt immerhin
(14.19)
Satz. Sei V ein RVR mit SP und dim V =: n ∈ N. Ist f ∈ End (V ) orthogonal, dann gibt
es eine ONB von V , wofür die Abbildungsmatrix T von f die Blockdiagonalgestalt


E n1


−E n2




D1
T =



..


.
Dp
hat, wobei Dj := Dϕj , ϕj ∈
/ πZ (s.
Beweis.
(11.27))
für j = 1, . . . , p.
T = ±E 1 , weil f (x0 ) = λ x0
für V = R x0 mit |λ| = 1. Nach (18) existiert UVR W mit dim W ∈ {1, 2} und f (W ) ⊂ W .
Weil f isometrisch ist, ist f injektiv und damit bijektiv. Daher gilt sogar f (W ) = W . Daraus
−1 (W ) = W und somit f ∗ (W ) = W . Nach (3)(f ) folgt f (W ⊥ ) ⊂ W ⊥ und schlieÿlich
folgt f
⊥
f (W ) = W ⊥ .
Der Beweis erfolgt durch Induktion nach
n.
Für
n=1
ist
Nun läÿt sich die Induktionsvoraussetzung anwenden. Danach gibt es eine Abbildungsmatrix von
f
von der Form
T =
T1
T2
,
T 2 die behauptete
dim W = 1 ist T 1 = ±E1 .
wofür
Gestalt hat und
T1
eine Abbildungsmatrix von
Der Rest des Beweises folgt sofort aus (20).
105
f
auf
W
ist. Im Fall
(14.20)
Die Matrixgruppe O(2). Für T ∈ O(2) gilt: Es gibt ϕ ∈ R derart, dass entweder T = Dϕ
oder T = D−
ϕ , wobei
cos ϕ − sin ϕ
Dϕ :=
,
sin ϕ cos ϕ
D−
ϕ
:=
cos ϕ sin ϕ
.
sin ϕ − cos ϕ
−1 −
Zu D−
ϕ existiert S ∈ O(2) mit S D ϕ S = diag(1, −1).
α β
T
2
Beweis. Sei T =
. Da 1 = det E 2 = det (T T ) = ( det T ) ist det T = ±1. Wegen
γ δ
δ −γ
α β
α β
−1 T
1
, s. (10.23). Das führt auf die beiden Fälle T =
T = (T ) ist
=∆
−β α
γ δ
−β α
α β
2
2
und T =
mit α + β = 1, die in der angegebenen Weise parametrisiert werden.
β −α
−
2
2
Das charakteristische Polynom von D ϕ lautet (cos ϕ − X)(− cos ϕ − X) − sin ϕ = X − 1 =
2×1
⊥ E(−1).
(1 − X)(−1 − X). Folglich ist R
= E(1) Üb
Deute
Üb
Sei
Dϕ
und
D−
ϕ
geometrisch. Wie hängen
Dϕ
und
D−
ϕ
zusammen?
T ∈ O(n). Zeige: Dann gibt es S ∈ O(n) derart, dass S −1 T S = diag(E n1 , −E n2 , D1 , . . . , Dp ),
vgl. (19).
Hauptachsentransformation
V ein KVR mit dim V =: n ∈ N. Darauf sei eine Sesquilinearform [, ] : V × V → K erklärt,
d.h. [, ] ist linear im zweiten und konjugiert linear im ersten Argument. Wähle eine indizierte Basis
v1 , . . . , vn in V . Für x, y aus V seien ξ , η die zugehörigen Koordinatenvektoren aus Kn×1 . Dann
Sei
folgt
"
[x, y] =
n
X
ξl vl ,
l=1
n
X
#
ηk vk =
n X
n
X
ξ l ηk [vl , vk ] = ξ ∗ A η
mit
A := ([vl , vk ])l,k=1,...,n .
l=1 k=1
k=1
D.h. es gilt
(14.21)
[x, y] = ξ ∗ A η = hξ, A ηi.
A = ([vl , vk ])k,l die darstellende Matrix der Sesquilinearform [, ] bez. der indibei einem
v1 , . . . , vn (vgl. (13.10)). Wie transformiert sich die darstellende
Pn MatrixPA
n
0
0
0
0
Wechsel zu einer neuen Basis v1 , . . . , vn ? Mit S aus (7.26) folgt [vl , vk ] = [
i=1 sil vi ,
j=1 sjk vj ] =
P
n Pn
s
s
[v
,
v
]
,
was
bedeutet
i
j
il
jk
i=1
j=1
Man nennt
zierten Basis
(14.22)
A0 = S ∗ A S.
Bemerke, dass sich A als darstellende Matrix einer Sesquilinearform nicht in der gewohnten Weise
mittels Ähnlichkeit (7.37) transformiert.
Üb
Kn×n betrachte die folgende Relation: A ∼ B ,
B = S ∗ A S . Zeige: ∼ ist eine Äquivalenzrelation.
Auf
Nach (13.11) ist
[, ]
wenn
konjugiert symmetrisch genau dann, wenn
dann ist (13) anwendbar. Da
∗
S =S
−1
für
S ∈ U (n),
106
S ∈ GL(n, K)
A
existiert derart, dass
selbstadjungiert ist. Gilt letzteres,
folgt aus (22) mit (8) die
(14.23)
Hauptachsentransformation. Sei V
ein
konjugiert symmetrische Sesquilinearform
und
λ1 , . . . , λ n
[x, y] =
aus
n
X
R
KVR mit SP und dim V =: n ∈ N und sei [, ] eine
auf V . Dann existieren eine ONB v1 , . . . , vn von V
derart, dass
λl ξ l ηl
l=1
für
x, y ∈ V
und
ξ, η
λ1 , . . . , λn die
[, ] sind. Es ist [, ] genau
die zugehörigen Koordinatenvektoren. Es folgt, dass
Eigenwerte einer (jeden) selbstadjungierten darstellenden Matrix von
dann positiv denit (d.h. ein SP) bzw. positiv semidenit, wenn alle Eigenwerte positiv bzw.
nichtnegativ sind. Es ist
[, ] genau dann indenit, wenn es einen positiven und einen negativen
Eigenwert gibt.
Üb
Es gelten die Voraussetzungen von (23). Zeige: Es gibt eine orthogonale Basis
V
und
p, r ∈ {0, . . . , n}
[x, y] =
p
X
ξ l ηl −
l=1
für alle
Beachte, dass
ist.
x, y ∈ V
S∗A S
mit
p≤r
r
X
von
ξ l ηl
l=p+1
mit Koordinatenvektoren
mit
A ∈ Kn×n
und
Der Trägheitssatz von Sylvester
genau dann
ṽ1 , . . . , ṽn
derart, dass
ξ, η
aus
S ∈ GL(n, K)
Kn×1 .
genau dann selbstadjungiert ist, wenn
0
besagt: Seien A, A ∈
S ∈ GL(n, K) mit A0 = S ∗ A S , wenn Rang (A0 ) = Rang (A) sowie A und A
positive Eigenwerte besitzen.
107
A
es
Kn×n selbstadjungiert. Es existiert
0
gleich viele
Herunterladen