Skriptum zur Linearen Algebra I und II

Werbung
Lineare Algebra
Otto Mutzbauer
November 2007
Würzburg
Vorwort
Der Stoumfang dieses Manuskripts entspricht einer zweisemestrigen
Vorlesung Lineare Algebra für Mathematikstudenten. Auf fortgeschrittene Theorien wie Modultheorie und Algebra wird verzichtet, allein
Methoden der Linearen Algebra werden verwendet.
Der klassische Sto der Linearen Algebra wird aus der Sicht der nachfolgenden Algebra präsentiert. Insbesondere wird die Normalformentheorie über beliebigen Körpern dargestellt. Die reellen und komplexen
Vektorräume werden explizit behandelt.
In aller Regel folgen den Denitionen sofort eine Reihe direkter Konsequenzen mit kurzen Begründungen, um die verwendeten Begrie sofort
in ihr natürliches Umfeld einzubetten. Denitionen, Beispiele und Bemerkungen sind nicht nummeriert. Alle Begrie sind im umfangreichen
Index zu nden.
Die Vielfalt der Anwendungsgebiete der Linearen Algebra wird nur
gestreift. Es gibt hierfür keine eigenen Kapitel. Jedoch werden Literaturstellen zu einigen aufgeführten Begrien benannt.
Ich möchte mich bei Dogan Cinbir, Sebastian Huber und Ruben Schulze
für ihre engagierte Mithilfe und für Korrekturlesen bedanken.
Würzburg, im November 2007
Otto Mutzbauer
LINEARE ALGEBRA
OTTO MUTZBAUER
Inhaltsverzeichnis
0.
0.1.
Präliminarien
3
Aussagen, Wahrheitstafel und Logik
3
0.2.
Mengen
4
0.3.
Zahlen
6
0.4.
Relationen
7
0.5.
Funktionen
9
0.6.
Mächtigkeit von Mengen
11
0.7.
Beweise, Beispiele
12
1.
Algebraische Strukturen und Vektorräume
14
1.1.
Gruppen
1.2.
Körper und Ringe
17
1.3.
Vektorräume
19
2.
14
Unterräume, Basis und Dimension
21
2.1.
Unterräume
2.2.
Basis und Dimension
23
2.3.
Direkte Summen
29
3.
3.1.
21
Lineare Abbildungen und Matrizen
32
Matrizen
32
3.2.
Lineare Abbildungen
35
3.3.
Darstellung von linearen Abbildungen durch Matrizen
39
3.4.
Rang einer Matrix
42
3.5.
Äquivalenz und Ähnlichkeit von Matrizen
44
Abbildungsraum, Dualraum und Faktorraum
45
Lineare Gleichungssysteme und Gauÿalgorithmus
50
3.6.
4.
4.1.
Lineare Gleichungssysteme
50
4.2.
Elementare Umformungen
51
Gauÿalgorithmus
53
4.3.
5.
Determinanten
57
5.1.
Permutationen
57
5.2.
Multilinearformen
59
5.3.
Determinanten von Endomorphismen und Matrizen
62
Date : 26. November 2007.
1
2
LINEARE ALGEBRA
5.4.
5.5.
6.
Rechenregeln für Determinanten von Matrizen
64
Anwendungen
69
Eigenwerte und Eigenvektoren
72
6.1.
Charakteristisches Polynom und Eigenwerte
72
6.2.
Diagonalisierbarkeit von Matrizen
78
7.
Euklidische und unitäre Vektorräume
82
7.1.
Bilinearformen
82
7.2.
Skalarprodukt und hermitesche Form
84
7.3.
Betrag und Orthogonalität
89
7.4.
Orthogonalisierung
92
7.5.
Adjungierte Abbildungen und normale Endomorphismen
96
7.6.
Orthogonale und unitäre Abbildungen
104
7.7.
Hauptachsentransformation
108
8.
Normalformen von Matrizen
114
8.1.
Polynomringe über Körpern
114
8.2.
Polynome von Endomorphismen und Minimalpolynom
118
8.3.
Zyklische Unterräume
121
8.4.
Unzerlegbare Unterräume und Frobenius Normalform
123
8.5.
Jordan Normalform und Anwendungen
129
Literatur
133
Index
134
LINEARE ALGEBRA
3
0. Präliminarien
Aussagen, Wahrheitstafel und Logik.
Aussagen.
0.1.
Aussagen sind entweder wahr , z.B. 0
w, oder falsch , z.B. 1
=
1
= 0
ist wahr, bezeichnet mit
ist falsch, bezeichnet mit f .
Mathematische Zeichen.
Symbole
^
_
:
)
,
2
Quantoren
8
9
und oder Konjunktion
oder oder Disjunktion
nicht oder Negation
für alle
es existiert
folgt, Subjunktion oder Implikation
genau dann, wenn oder Äquivalenz
Teilmenge oder Inklusion , mit Gleichheit
Element von
Gebrauch
8 x : p(x), d.h. für alle x gilt die Aussage p(x),
9 x : p(x), d.h. es existiert ein x, für das p(x) gilt.
Negation
: ( 8 x : p(x)) , 9 x : :p(x)
bzw.
: 9 x : p(x) , 8 x : :p(x).
Formale Ausdrücke lassen sich formal negieren. Man ersetzt den Quantor 9 durch 8 und umgekehrt, und negiert die Aussage. Wir geben
ein Beispiel.
f : R ! R heiÿt stetig in x0 , wenn
8 > 0 9 Æ > 0 8 x 2 R : (jx x0 j < Æ ) jf (x) f (x0 )j < ):
Eine Funktion
Die Negation, also nicht stetig, ist
9 > 0 8 Æ > 0 9 x 2 R : (jx x j < Æ ^ jf (x) f (x )j ):
0
0
Wahrheitstafel.
p q p^q p_q p)q p,q
w
w
w
w
w
w
w
f
f
f
w
f
w
f
f
w
w
f
f
f
f
f
w
w
4
LINEARE ALGEBRA
alles folgern,
Aus einer falschen Aussage kann man
1 = 1
z.B. folgt aus der falschen Aussage mit
0,
wahr und falsch,
durch Multiplikation
also eine korrekte Vorgehensweise, die wahre Aussage 0
Eine Implikation, ),
= 0.
ist eine Aussage in einer Richtung und gilt
i.A. nicht umgekehrt. Die mathematische Widerlegung einer Aussage
geschieht
immer mit einem Gegenbeispiel .
Logikregeln.
(1) p _ :p ist immer wahr (vollständige Fallunterscheidung ),
(2) :(p ^ q ) , :p _ :q ,
(3) :(p _ q ) , :p ^ :q ,
(4) :(p ) q ) , p ^ :q ,
(5) (p ) q ) , (:q ) :p) (Kontraposition ).
0.2.
Mengen.
Intuitiv ist eine Menge Eine Menge von Objekten.
Das ist jedoch
keine exakte Denition. Eine Menge ohne Elemente heiÿt leere Menge ,
i.Z.
;. Es gibt auch Klassen von Objekten, die keine Mengen sind.
Satz 0.2.1.
(Russelsche Antinomie) Die Menge aller Mengen
ist kei-
ne Menge.
Beweis. Sei
A
=
fM j M
Menge
g
als Menge angenommen.
Also
A 2 A, und es gibt eine Menge, die sich selbst enthält. Dann ist auch
B = fM j M 2= M g, die Menge aller Mengen, die sich nicht selbst
enthalten, eine Menge. Man untersucht, ob B eine Menge ist, die
sich selbst enthält oder nicht, und erhält beidemale einen Widerspruch.
Denn für
B 2 B folgt B 2= B , und für B 2= B
Mengen schreibt man in der Form
P
= fx 2 S
j p(x)g S;
Für eine endliche Menge
P
z.B.
folgt
B 2 B.
[0; 1] = fx 2 R j 0 x 1g:
bezeichnet
für eine unendliche Menge bezeichnet
jP j die Anzahl der Elemente,
jP j die Mächtigkeit , vgl. Ab-
Q wird die Inklusion bezeichnet, hier unter Einbeziehung der Gleichheit. Dabei verwendet man x 2 P , x ist Element
von P , und x 2
= P , x ist nicht Element von P , wie üblich.
schnitt 0.6. Mit
P
Mengenoperationen.
Seien P = fx 2 S j p(x)g und Q = fx 2 S j q (x)g Teilmengen von S .
(a) Durchschnitt : P \ Q = fx 2 S j p(x) ^ q (x)g.
(b) Vereinigung : P [ Q = fx 2 S j p(x) _ q (x)}.
LINEARE ALGEBRA
5
P Q, wenn 8 x 2 S : p(x) ) q (x) . Gleichheit : P = Q, wenn 8 x 2 S : p(x) , q (x) oder (P Q ^ Q P ).
Komplement in S: {P = {S P = fx 2 S j :p(x)g oder fx 2 S j
x 2= P g.
Dierenzmenge : P n Q = fx 2 S j p(x) ^ :q (x)g oder fx 2 S j
x 2 P ^ x 2= Qg = {P (P \ Q).
(c) Inklusion :
(d)
(e)
(f )
Rechenregeln für Mengen.
Seien P; Q; R S .
P [ (Q \ R) = (P [ Q) \ (P [ R);
P \ (Q [ R) = (P \ Q) [ (P \ R), die Distributivgesetze .
(i)
(ii)
(iii)
(iv)
\ Q) = {P [ {Q und {(P [ Q) = {P \ {Q.
Q , P [ Q = Q , P \ Q = P , {Q {P .
* Q , P \ {Q 6= ; (leere Menge ).
{(P
P
P
): P * Q ) 9 x 2 P : x 2= Q )
9 x 2 P : x 2 {Q ) 9 x 2 P \ {Q ) P \ {Q 6= ;.
(: P \ {Q 6= ; ) 9 x 2 P : x 2 {Q ) 9 x 2 P : x 2
= Q)
P * Q.
Beweis. Exemplarisch (iv): Mengensysteme.
M = fM j 2 Ag heiÿt Mengensystem mit Indexmenge A.
Ein 2 A
fM j 2 Ag ein System von Teilmengen einer
Menge S , d.h. M S für alle 2 A, dann sind Durchschnitt und
heiÿt Index .
Sei
Vereinigung deniert durch
T
fx 2 S j 8 2 A : x 2 M g = TfM j 2 Ag,
S
S
2A M = fx 2 S j 9 2 A : x 2 M g = fM j 2 Ag.
2A M =
Für Komplemente gelten
{
Für
und
S
T
2A M = 2A {M
{
S
T
2A M = 2A {M .
A = N schreibt man spezieller M = fMn j n 2 Ng = fM1 ; M2 ; : : : g,
T
n2N Mn =
Für
und
T1
n=1 Mn = M1
\ M \ .
Mn = fm 2 N j m ng N , n 2 N , gilt
2
T
n2N Mn =
;.
6
LINEARE ALGEBRA
Kartesisches Produkt.
Die Menge aller geordneten
n
Y
i=1
n-Tupel
Pi = P1 Pn = f(x1 ; : : : ; xn ) j xi 2 Pi g
P1 ; : : : Q
; Pn, nach Descartes. Unendliche kartesische Produkte schreibt man
2A P und deren Elemente sind die Tupel (x j ) mit Einträgen x 2 P . Die reelle Ebene
2
in der Form R
= R R = f(x; y ) j x; y 2 Rg ist ein kartesisches
Produkt. Man nennt (x; y ) kartesische Koordinaten .
heiÿt kartesisches Produkt der Mengen
0.3.
Zahlen.
Als Zahlen bezeichnet man z.B. Elemente der Mengen
N , Z, Q , R , C ,
also natürliche, ganze, rationale, reelle und komplexe Zahlen, und viele
mehr. Für ganze Zahlen gibt es eine Primfaktorzerlegung.
p 2 Znf0; 1g heiÿt Primzahl , wenn sie nur durch 1
p ganzzahlig teilbar ist.
Eine ganze Zahl
und durch
Lemma 0.3.1. Für ganze Zahlen gibt es eine Division mit Rest, d.h.
für a; b 2 Z existieren q; r 2 Z mit
a = qb + r;
0 r < b:
Die Zahl r heiÿt Rest, q und r sind eindeutig bestimmt.
Beweis. Es existiert genau eine ganze Zahl
0r=a
q mit qb a < (q +1)b, also
qb < b, und auch der Rest r ist eindeutig bestimmt.
Die folgende Eigenschaft von Primzahlen ist äquivalent zur Denition.
Lemma 0.3.2.
Wenn eine Primzahl ein Produkt teilt, dann teilt sie
mindestens einen Faktor. Umgekehrt sind ganze Zahlen mit dieser Eigenschaft Primzahlen.
Beweis. Sei die Primzahl
p
ab. Wir machen
a 6= 1 und b 6= 1, so dass p
ein Teiler des Produktes
eine Widerspruchsannahme, seien nämlich
a noch b teilt, und so dass ab diesbezüglich minimal ist. Dann
a = qp + r mit 0 < r < p. Also teilt p
die Zahl ab
qbp = br < ab, und weil ab minimal war, folgt der
Widerspruch, dass p ein Teiler von b ist.
Nimmt man umgekehrt an, dass eine ganze Zahl p diese Eigenschaft
hat, dann folgt aus dem Ansatz p = ab, o.B.d.A. dass p ein Teiler von a
ist, also b = 1, und p ist eine Primzahl.
weder
gilt, wegen Division mit Rest,
LINEARE ALGEBRA
7
Die Primfaktorzerlegung ganzer Zahlen ist eine Konsequenz der Di-
vision mit Rest und der Eigenschaft von Primzahlen, wie im obigen
Lemma 0.3.2.
Satz 0.3.3.
Für ganze Zahlen gibt es eine Primfaktorzerlegung, d.h.
jede ganze Zahl ist das Produkt von Primzahlen, und dieses Produkt ist
eindeutig bis auf Vorzeichen und Reihenfolge.
Beweis. Es genügt die Primfaktorzerlegunges für natürliche Zahlen zu
a schon eine Primzahl oder zerlegbar, a = bc,
mit b 6= 1 und c 6= 1. Fortsetzung dieser Prozedur für die Teiler b; c
von a führt nach endlich vielen Schritten zu einer Darstellung von a
beweisen. Entweder ist
als Produkt von Primzahlen, weil die Teiler immer kleiner werden.
Zum Beweis der Eindeutigkeit der Primfaktorzerlegung seien zwei Zer-
a = p1 p2 = q1 q2 , mit Primzahlen pi ; qi .
p1 das Produkt der qi , also gilt mit Lemma 0.3.2 nach Umordnung p1 = q1 , usw..
legungen angenommen
Dann teilt
Auf Grund der Primfaktorzerlegung erhält man einen gröÿten gemein-
samen Teiler ,
ggT,
und ein kleinstes gemeinsames Vielfaches ,
p
kgV.
2, , e), und i =
Reelle Zahlen x 2 R n Q heiÿen irrational (z.B.
p
1 2 C heiÿt imaginäre Einheit . Komplexe Zahlen lassen sich verschieden darstellen. Es gibt die kartesische Darstellung z = x + iy 2 C ,
x; y 2 R , und die Darstellung in Polarkoordinaten z = r ei' , 0 r 2 R ,
0 ' < 2 . Dabei heiÿen x p
= Re(z ) und y = Im(z ) Realteil bzw.
x2 + y 2 ist der Betrag
Pythagoras gilt x = Re(z ) jz j und y = Im(z ) jz j.
Imaginärteil von
z,
und
r
=
von
z.
Nach
Relationen.
Für zwei Mengen P; Q heiÿt eine Teilmenge R P Q eine (zweistellige) Relation . Man sagt x und y sind R-reliert , und schreibt x R y ,
sofern (x; y ) 2 R. Die beiden speziellen Relationen R1 = f(x; y ) 2
R 2 j x = yg und R2 = f(x; y) 2 R 2 j x yg bezeichnen Gleichheit,
x R1 y , x = y , bzw. Ordnung, x R2 y , x y . Für P = Q gibt
0.4.
es einige wichtige spezielle Eigenschaften von Relationen.
f(x; x) j x 2 P g R oder 8 x 2 P : x x.
8 x; y 2 P : (x y ) y x).
(3) Transitivität : 8 x; y; z 2 P : (x y ^ y z ) x z ).
(4) Antisymmetrie : 8 x; y 2 P : (x y ^ y x ) x = y ).
(1) Reexivität :
(2) Symmetrie :
8
LINEARE ALGEBRA
Eine nicht-leere, reexive, symmetrische und transitive Relation auf der
Menge
P
[x] = fy 2 P j y xg
x 2 P , und jedes y 2 [x] heiÿt Repräsentant
heiÿt Äquivalenzrelation . Die Menge
heiÿt Äquivalenzklasse von
der Klasse
[x].
Lemma 0.4.1.
Für eine Äquivalenzrelation auf
äquivalent:
(1) [x] \ [y ] 6= ;,
(2)
x y,
P
und
x; y
2P
sind
(3) [x] = [y ].
) (2): Falls [x] \ [y] 6= ;, dann existiert ein z 2 [x] \ [y]
mit z x und z y . Wegen Symmetrie und Transitivität folgt x y .
(2) ) (3): Sei x y und z 2 [x]. Folglich ist z x y , also [x] [y ],
Beweis.
(1)
und somit
(3) ) (1)
[x] = [y ]
Ein System
fM j 2 Ag von Teilmengen M S 6= ; heiÿt Zerlegung
oder Partition von
(1)
(2)
(3)
aus Symmetriegründen.
ist oensichtlich.
S , wenn gelten:
M 6=S; für alle 2 A,
S = 2A M ,
M \ M = ; für alle ; 2 A mit 6= .
N ist
N = fn 2 N j n ungeradeg [ fn 2 N j n geradeg:
Ein Beispiel für eine Partition von
Satz 0.4.2.
R eine Äquivalenzrelation auf der Menge S , dann bilden die zugehörigen Äquivalenzklassen eine Partition von S . Umgekehrt bestimmt eine beliebige Partition fM j 2 Ag von S eindeutig
eine Äquivalenzrelation auf S derart, dass die Partitionsmengen M
Sei
genau die Äquivalenzklassen sind.
Beweis. Nach Lemma 0.4.1 bilden die Äquivalenzklassen eine Partition.
Umgekehrt ist durch
x
y , 9 2 A : x; y 2 M
eine passende
Äquivalenzrelation deniert.
eine Äquivalenzrelation auf P . Dann heiÿt P= = f[x] x 2 P g
Quotientenmenge von P bzgl. der Relation . Die Elemente der
Sei Quotientenmenge sind die Äquivalenzklassen.
Beispiel. Sei f : P ! Q eine Funktion. Dann ist R = f(x; x0 ) 2 P 2 j
f (x) = f (x0 )g, d.h. x x0 , f (x) = f (x0 ), eine Äquivalenzrelation
auf P , weil die Denition durch eine Gleichung gegeben ist. Sei f (x) =
y 2 Q, dann ist [x] = f (y ) = fx 2 P j f (x) = y g das komplette Urbild
von y unter f . Identiziert man [x] $ f (x), dann ist P= = f (P ).
LINEARE ALGEBRA
9
[2A M
ist eine Partition mit den Äquivalenzklassen M . Mit f : P ! P= ,
Sei umgekehrt eine Äquivalenzrelation auf P , d.h. P
=
f (x) = [x], ist eine Funktion deniert derart, dass die
Urbilder der Bildpunkte [x] genau die Mengen [x], also die Äquivalenzdeniert durch
klassen, sind.
Eine Funktion deniert also in natürlicher Weise eine
Äquivalenzrelation auf ihrem Denitionsbereich und umgekehrt.
Eine nichtleere, reexive, antisymmetrische und transitive Relation
heiÿt Ordnungsrelation .
gleichbar . Wenn weder
x y , und nennt x; y very x gilt, dann heiÿen x und y
Man schreibt
x y,
noch
unvergleichbar . Eine geordnete Menge heiÿt linear geordnet , wenn je
zwei Elemente vergleichbar sind, sonst spricht man von Ordnung , bzw.
von Halbordnung .
Ordnung.
N , Z, Q , R sind linear geordnet bzgl. ihrer üblichen
g aller Teilmengen von P
heiÿt Potenzmenge von P , insbesondere ;; P 2 P(P ). Die PotenzmenDie Menge
P(P ) = fU P j U
Teilmenge
ge ist geordnet bzgl. der natürlichen Inklusion von Teilmengen. Nur für
P
= fxg, d.h. eine Menge mit nur einem Element, ist n
die Potenzmenge
o
linear geordnet, denn für
d.h.
P
=
fx; yg, ist P(P )
fxg und fyg sind unvergleichbar.
n ist jP(P )j = 2n .
=
;; fxg; fyg; P
Für eine endliche Menge
P
,
der
Mächtigkeit
0.5.
Funktionen.
Abbildung , Zuordnung und Funktion sind synonyme Begrie.
Wir
verwenden den Begri Funktion suggestiv, ohne Denition.
Man
f : P ! Q, deniert durch f (x) = y . Das Element y heiÿt
Bild von x, und x heiÿt Urbild von y . Das komplette Urbild von y ist
f (y ) = fx 2 P j f (x) = y g. Die Menge P heiÿt Denitionsbereich , Q
heiÿt Bildbereich . f (P ) Q heiÿt Bild von P unter f . Die Teilmenge
R = f x; f (x) 2 P Qg P Q heiÿt Graph von f . Eine Funktion
ist charakterisiert durch die Eigenschaft, dass es zu einem x 2 P genau
ein Bild y 2 Q gibt.
schreibt:
Eigenschaften von Funktionen.
Sei f : P
! Q eine Funktion.
f heiÿt injektiv , wenn 8 x; x0 2 P : (f (x) = f (x0 ) ) x = x0 ).
f heiÿt surjektiv , wenn 8 y 2 Q 9 x 2 P : f (x) = y, bzw.
f (P ) = Q.
f
heiÿt bijektiv oder umkehrbar , wenn
ist.
f
injektiv und surjektiv
10
LINEARE ALGEBRA
f : P ! Q, f (x) = y ,
schreibt man f
: Q ! P , deniert durch f 1 (y ) = x. Es gelten
1
f (f (x)) = x und f (f 1 (y )) = y . Insbesondere ist f 1 6= f , wobei
f das komplette Urbild für
f bezeichnet. Vereinbart man f : R + !
R , deniert durch f (x) = px, wobei px 2 R mit (px)2 = x, so ist das
Für die Umkehrfunktion der bijektiven Funktion
1
keine Funktion, da das Vorzeichen der Wurzel nicht festgelegt ist.
Satz 0.5.1. Für gleichgroÿe endliche Mengen P und Q und eine Funktion f : P ! Q sind äquivalent:
(1) f ist injektiv,
(2) f ist surjektiv,
(3) f ist bijektiv.
)(2): f injektiv ) jP j = jf (P )j jQj = jP j mit Gleichf (P ) = Q.
(2))(1): f surjektiv ) jf (P )j = jQj und jP j jf (P )j = jQj = jP j
mit Gleichheit, also jP j = jf (P )j und f ist injektiv.
Beweis. (1)
heit, also
Damit ist auch (3) äquivalent zu (1) und zu (2).
Der Satz gilt nicht für unendliche Mengen, denn seien
sei
f
:
N ! N , deniert durch f (x) = 2x.
P
=Q=N
Natürlich ist
f
und
injektiv,
aber nicht surjektiv.
Man schreibt
f Æg : P
! R, deniert durch (f Æ g)(x) = f (g(x)),
für die Komposition bzw. Hintereinanderausführung der Funktionen
! Q und f : Q ! R.
Satz 0.5.2. Seien f : P ! Q und g : Q ! P Funktionen. Wenn
g Æ f = idP und f Æ g = idQ Identitäten sind, dann sind f und g bijektiv,
g:P
und
g=f
1
.
f als bijektiv nachzuweisen.
0
0
Zuerst zeigen wir die Injektivität. Seien x; x 2 P mit f (x) = f (x ).
0
0
0
Also x = (g Æ f )(x) = g (f (x)) = g (f (x )) = (g Æ f )(x ) = x , und f ist
Beweis. Aus Symmetriegründen genügt es
injektiv.
Weiter zeigen wir die Surjektivität. Sei
y 2 Q.
Wegen
g (y ) = x 2 P
ist
y = (f Æ g )(y ) = f (g (y )) = f (x), und f ist surjektiv, also auch bijektiv.
1
Da f bijektiv ist, gelten f (P ) = Q und x = f
(f (x)) = g (f (x))
1
für alle x 2 P . D.h. f
und g haben für jedes Element f (x), also für
alle Elemente von Q, gleiche Werte, sind also gleich.
LINEARE ALGEBRA
11
Mächtigkeit von Mengen.
Die Mengen P; Q heiÿen gleichmächtig , jP j = jQj, wenn es eine Bijektion f : P
! Q gibt, z.B. jZj = j2 Zj, per z 7! 2z. Der folgende Satz,
0.6.
der ohne Beweis angegeben wird, erleichtert die Feststellung, ob zwei
Mengen gleichmächtig sind.
Satz 0.6.1.
(Schroeder, Bernstein, [5]) Zwei Mengen sind genau dann
gleichmächtig, wenn es gegenläuge injektive Abbildungen gibt.
Natürlich ist
jf1; : : : ; ngj = n. Man schreibt j N j = @
heiÿt abzählbar unendlich. Hat die Menge
P
0
bezeichnet man die Mächtigkeit der Potenzmenge mit
@
sagt man zu @1 = 2 0
(aleph), und
die Mächtigkeit
2c .
c,
N
dann
Insbesondere
überabzählbar unendlich . Die Potenzmenge einer
@ < @ < .
N und Z sind gleichmächtig, vermöge der Bijektion: 1 7!
0; 2 7! 1; 3 7! 1; 4 7! 2; 5 7! 2; : : : .
Satz 0.6.2. (Cantor) @ = j N j = j Q j < j R j = j C j = @ = 2@0 .
Menge hat immer eine echt gröÿere Mächtigkeit, d.h.
0
1
Die Mengen
0
1
Die Vereinigung von abzählbar vielen abzählbaren Mengen ist wieder
abzählbar.
Beweis. Nach dem Satz von Schroeder-Bernstein
N
und der Bijektion
Z, genügt es eine Abzählung von Q = f mn j m; n 2
Ng zu denieren, um j N j = j Q j zu zeigen. Durch die Pfeile in der
zwischen
und
+
folgenden Tabelle ist die gewünschte Abzählung deniert, wobei die
Duplikationen wegzulassen sind.
# m n n!
1
2
3
4
..
.
1
1=1#
2
3
1=2! 1=3. 1=4!
2=1% 2=2. 2=3%
3=1#
4=1%
4
3=2%
..
..
..
.
.
.
..
.
Mit demselben Argument zeigt man auch, dass die Vereinigung von
abzählbar vielen abzählbaren Mengen wieder abzählbar ist.
Mit dem sog. Cantorschen Diagonalverfahren beweist man, dass
R
nicht abzählbar ist. Wir nehmen eine Abzählung aller reellen Zahlen
12
LINEARE ALGEBRA
im Intervall
(0; 1) =
fx 2 R j 0 < x < 1g = fx ; x ; : : : g als gege1
2
ben an und verwenden die Dezimalbruchentwicklung bzw.
10-adische
Entwicklung .
x1 = 0; a11 a12 a13 : : :
x2 = 0; a21 a22 a23 : : :
x3 = 0; a31 a32 a33 : : :
..
.
Die Zahl
y = 0; y1y2 y3 : : : , in Dezimalbruchentwicklung mit den Ziern
yi =
4
5
ist dann nicht in der Liste der
aii = 5 ;
aii 6= 5
falls
falls
xj , im Widerspruch
zur Annahme. Es
y mehr1; 0 : : : =
wird angemerkt, dass durch die Wahl der Ziern 4 und 5 für
deutige Dezimalbruchentwicklungen von
0; 9 : : : .
y
vermieden, z.B.
j R j = j C j genügt es nach dem Satz von SchroederBernstein eine injektive Abbildung von C in R zu nden. Dergleichen
Für die Aussage
gibt es viele, aber der Beweis wird hier weggelassen.
0.7.
Beweise, Beispiele.
Es gibt direkte und indirekte Beweise. Bei letzteren wird das Gegenteil der Behauptung angenommen und zum Widerspruch geführt. Wir
geben einige Beispiele für die verschiedenen Beweistechniken.
Der Beweis, dass das geometrische Mittel kleiner oder gleich dem arith-
metischen Mittel ist, wird direkt geführt.
Satz 0.7.1.
x; y 2 R
Für positive
gilt
pxy x
y.
+
2
Beweis.
0 (x
y )2 = x2
) xy da
2xy + y 2
x + y 2
x; y beide positiv sind.
Der Beweis, dass das
Satz 0.7.2.
p
2
p
2
2
) xy 14 (x + 2xy + y )
) pxy x + y ;
2
2
2
nicht rational ist, wird indirekt geführt.
ist irrational.
LINEARE ALGEBRA
p
13
2 = m
n 2 Q angenommen, mit m; n 2 N teilerfremd.
2
m
2
2
2
Aus 2 = 2 , d.h. 2n = m , folgt, dass 2 ein Teiler von m ist, d.h. 2
n
2
teilt m , und 2 teilt sogar m nach Lemma 0.3.2. Folglich ist 4 ein Teiler
2
von 2n und 2 teilt n, wegen der Primfaktorzerlegung, ein Widerspruch
Beweis. Sei
zur Teilerfremdheit von
m und n.
Der Beweis des antiken Satzes von Euklid (300 v. Chr) ist indirekt.
Satz 0.7.3.
(Euklid) Es gibt unendlich viele Primzahlen.
Beweis. Unter der Annahme, dass es nur die endlich vielen Primzahlen
p; q; : : : ; r, gibt, betrachten wir die Zahl z = (pq r) + 1 in Primfak0
torzerlegung, vgl. Satz 0.3.3. Also teilt p o.B.d.A. z . Somit ist z = pz
0
0
0
mit z 2 N und pz = z = p(q r ) + 1, d.h. p(z
q r) = 1, im
Widerspruch zu p 6= 1.
Induktionsbeweis.
Das Prinzip der vollständigen Induktion wird benutzt um einen Induk-
tionsbeweis zu führen, d.h. eine Aussage
p(n) für alle n 2 N
zu zeigen.
Häug benutzt man das folgende Schema.
Satz.
Für alle natürlichen Zahlen gilt
p(n).
n.
p(1).
Gelte p(m) für alle m 2 N ; m n.
Beweis. Induktion über
Induktionsbeginn: Es gilt
Induktionsannahme:
Induktionsschluss: Unter Verwendung der Annahme folgt
Der Induktionsbeginn kann eine beliebige Zahl aus
N
0
p(n +1) .
sein. Den fol-
genden Satz mit Induktionsbeweis schreibt man Gauÿ als Schulkind
zu.
Satz 0.7.4.
(Gauÿ)
Pn
n(n+1)
.
k=1 k =
2
Beweis. Induktion über
n.
Beginn: Die Formel ist richtig für
n = 1.
Annahme: Sei die Formel richtig für alle
m 2 N ; m n.
Schluss: Unter Verwendung der Annahme folgt
n+1
X
k=1
k=
n
X
k=1
k + (n + 1) =
n(n + 1)
2
+ (n + 1) =
(n + 1)(n + 2)
:
2
14
LINEARE ALGEBRA
1. Algebraische Strukturen und Vektorräume
Eine Menge mit Verknüpfungen heiÿt algebraische Struktur .
Die Ei-
genschaften der Verknüpfungen werden durch Axiome festgelegt.
1.1.
Gruppen.
M ist eine Abbildung
: M M ! M; (x; y) 7! x y = xy;
Eine (zweistellige) Verknüpfung in einer Menge
oft bezeichnet als Produkt.
Meistens wird der Multiplikationspunkt
weggelassen.
Denition.
Eine nichtleere Menge
G = (G; ) mit einer Verknüpfung
heiÿt Gruppe , wenn die folgenden Axiome, hier Gruppenaxiome ,
gelten.
x; y; z 2 G gilt (x y ) z = x (y z ).
e, d.h. x e = x für alle
(G1) (Assoziativgesetz ) Für alle
(G2) Es gibt ein (rechts-)neutrales Element
x 2 G.
(G3) Es gibt (rechts-)inverse Elemente , d.h. zu jedem
ein
x0 2 G mit x x0 = e.
x 2 G existiert
Eine Gruppe heiÿt kommutativ oder abelsch , wenn zusätzlich gilt:
(G4) (Kommutativgesetz ) Für alle
x; y 2 G ist x y = y x.
Im folgenden Lemma werden einige Konsequenzen der Gruppenaxiome
formuliert.
Lemma 1.1.1.
Sei
(G; )
eine Gruppe.
(1) Es existiert genau ein neutrales Element, d.h. das rechtsneutrale
e ist eindeutig bestimmt und xe = ex = x für alle x 2 G.
1
Es existiert genau ein inverses Element für x, bezeichnet mit x ,
0
0
d.h. das rechtsinverse Element x ist eindeutig bestimmt und xx =
0
x x = e für alle x 2 G.
1
1
Für alle x; y 2 G ist (x )
= x und (xy ) 1 = y 1 x 1 .
Für a; b 2 G sind die Gleichungen xa = b und ay = b immer
1
1
und eindeutig lösbar mit x = ba
bzw. y = a b. Insbesondere
Element
(2)
(3)
(4)
gelten die Kürzungsregeln:
ab = ac
=)
b=c
und
ab = cb
=)
a = c:
Beweis. (1) und (2): Die Beweise von (1) und (2) sind gekoppelt. Sei
x0
x, und sei x00 ein Rechtsinverses von x0 . Dann
0
ist sowieso xx = e, aber auch
x0 x = (x0 x)e = (x0 x)(x0 x00 ) = x0 (xx0 ) x00 = (x0 e)x00 = x0 x00 = e;
ein Rechtsinverses von
LINEARE ALGEBRA
15
d.h. Rechtsinverse sind auch Linksinverse. Damit folgt
ex = (xx0 )x = x(x0 x) = xe = x;
d.h. ein rechtsneutrales Element ist auch linksneutral. Man verwendet
diese beiden Überlegungen, und nimmt an, dass es die beiden Rechtsinversen
x0 ; x00 von x gibt. Dann folgt deren Gleichheit
x0 = x0 e = x0 (xx00 ) = (xx0 )x00 = ex00 = x00 ;
d.h. inverse Elemente sind eindeutig bestimmt.
rechtsneutrale Elemente
e; e0
Weiter gilt für zwei
e = ee0 = e0 ;
d.h. es gibt genau ein neutrales Element. Zusammenfassend sind (1)
und (2) gezeigt.
(3): Die Beziehung
(x 1 )
1
=
x
folgt aus (2), und
(xy )
1
=
y 1x
1
bestätigt man durch Einsetzen.
(4): Die angegebenen Lösungen bestätigt man durch Einsetzen und die
Kürzungsregeln folgen per Linksmultiplikation mit
multiplikation mit
b
1
a
1
bzw. Rechts-
. Damit ist auch die Eindeutigkeit der Lösungen
gezeigt.
Denition.
(Untergruppenkriterium ) Eine nicht-leere Teilmenge
G heiÿt Untergruppe , wenn gelten:
hh0 2 H für alle h; h0 2 H .
h 1 2 H für alle h 2 H .
H
einer Gruppe
(UG1)
(UG2)
Es ist einfach zu zeigen, dass die beiden Bedingungen (UG1) und (UG2)
zur Bedingung (UG) äquivalent sind.
(UG)
Man
h 1 h0 2 H
schreibt H
für alle
h; h0 2 H .
G (Gleichheit eingeschlossen) und sagt, H
ist ab-
H ist bzgl. der inG eingeschränkt auf die
Insbesondere hat H dasselbe neutra-
geschlossen bzgl. Multiplikation und Inversion, d.h.
duzierten Operation , d.h. die Verknüpfung in
H , selbst eine Gruppe.
G. Die Untergruppenbeziehung ist transitiv , d.h. aus
H L G folgt H G.
Wenn sich alle Elemente einer Gruppe G als Produkt der Elemente x1 ; x2 ; : : : 2 G bzw. ihrer Inversen darstellen lassen, dann sagt
man, dass G von diesen Elementen erzeugt wird und man schreibt
G = hx1 ; x2 ; : : : i. Die Menge fx1 ; x2 ; : : : g heiÿt ein Erzeugendensystem von G. Eine Gruppe, die von einem Element erzeugt wird, heiÿt
Teilmenge
le Element wie
zyklisch .
16
LINEARE ALGEBRA
Beispiel.
(1)
(Z; +)
(Q ; +) (R ; +) (C ; +) sind additiv ge-
schriebene abelsche Gruppen in Untergruppenbeziehung. Die additive
Z = h1i ist eine unendliche zyklische Gruppe mit dem erzeugenden Element 1. Dagegen ist (N ; +) keine Gruppe.
(2) (Q n0; ) (R n0; ) (C n0; ) sind multiplikativ geschriebene abelsche Gruppen in Untergruppenbeziehung. (Zn0; ) ist keine Gruppe.
(3) Die Menge der Permutationen von f1; : : : ; ng, für n 3, ist bzgl.
Gruppe
Hintereinanderausführung eine nichtabelsche Gruppe mit
ist die kleinste, nicht abelsche Gruppe. Sie hat
G
=
f1; x : : : ; xng
2
und neutralem Element
Multiplikationen in
1
1
1
.
.
.
.
.
.
.
..
.
.
.
G.
x2 x2
x3 x3
1.
Elemen-
Sn , vgl. [3, symmetric group].
ten, die sog. symmetrische Gruppe
(4) Sei
n!
6
Die
S3
Elemente.
eine endliche Gruppe mit
n
Elementen
Die folgende Gruppentafel beschreibt alle
x2
x3
x2
x3
x2 x2 x2 x3
x3 x2 x3 x3
xj
xj
x2 xj
x3 xj
.
.
.
xn
xn
x2 xn
x3 xn
.
.
.
xi xi xi x2 xi x3
xixj xi xn
xn xn xn x2 xn x3
xn xj xnxn
.
.
.
.
.
.
Auf Grund der Kürzungsregel stehen in jeder Zeile und in jeder Spalte
einer Gruppentafel jeweils genau alle Gruppenelemente. Insbesondere
xi genau einmal in jeder Zeile und in
jeder Spalte. Solch eine quadratische n n Anordnung von n Symbolen,
meist 1; : : : ; n, derart dass jedes Symbol genau einmal in jeder Zeile
steht also jedes einzelne Element
und jeder Spalte auftritt, nennt man ein Lateinisches Quadrat . Allerdings ist nicht jedes Lateinische Quadrat eine Gruppentafel, auch schon
deswegen nicht, weil die Multiplikation in einer Gruppe assoziativ ist.
Die Gruppentafel für eine Gruppe
und ist eindeutig bestimmt:
G = f1; a; bg der Ordnung 3 existiert
a b
1 1 a b
a a b 1
b b 1 a
1
LINEARE ALGEBRA
a
Also ist
=
1
3.
Ordnung
b,
17
und es gibt (strukturell) genau eine Gruppe der
Die Symmetrie einer Gruppentafel bzgl. der Hauptdia-
gonalen, so wie bei der Gruppe der Ordnung
3,
ist äquivalent zur
Kommutativität.
Es gibt zwei strukturell verschiedene Gruppen der Ordnung
4,
die
sog. zyklische Gruppe und die elementar abelsche Gruppe , beide sind
Letztere heiÿt auch Kleinsche Vierergruppe .
abelsch.
Die Gruppen-
tafel der Kleinschen Vierergruppe ist im Beispiel nach Lemma 1.2.1
angegeben.
Bemerkung.
Die leere Menge ist keine Gruppe, weil sie kein neu-
trales Element enthält.
Die Gruppe mit nur einem Element heiÿt
triviale Gruppe , bzw. Null-Gruppe oder
xm+n
geln , d.h.
x
1-Gruppe ,
je nach Schreib-
In multiplikativ geschriebenen Gruppen gelten die Potenzre-
weise.
n=
x
1
n
= xm xn
und
xmn
xm
=
n
, für alle
m; n
2 Z, wobei
. Abelsche Gruppen schreibt man oft additiv. In additiv
nx = x + + x
n Summanden, und man erhält die Potenzregeln in der Form:
(m + n)x = mx + nx, bzw. mnx = m(nx) und nx = x x.
geschriebenen abelschen Gruppen bezeichnet z. B.
mit
1.2.
Körper und Ringe.
Mit dem Gruppenbegri erhält man weitere algebraische Strukturen .
Denition.
Eine Menge
K = (K; +; ) mit zwei Verknüpfungen heiÿt
Körper , wenn die folgende Axiome, hier Körperaxiome , gelten.
(K1)
(K; +)
ist eine additiv geschriebene abelsche Gruppe mit
0
als
neutralem Element.
(K2)
(K
n 0; ) ist eine multiplikativ geschriebene Gruppe mit 1 als
neutralem Element.
a; b; c 2 K gelten
a(b + c) = ab + ac und (a + b)c = ac + bc:
(D) (Distributivgesetze ) Für alle
Ist
(K
n 0; ) eine abelsche Gruppe in (K2), d.h. ab = ba für a; b 2 K ,
dann spricht man von einem kommutativen Körper . Für ein Element
Es gilt die Konvention Punkt vor Strich, wobei der Multi-
das Negative von
Für
a
2 K n 0 heiÿt a
a
von
a.
a.
a
heiÿt
1
das Inverse
plikationspunkt i.A. weggelassen wird. Eine Teilmenge eines Körpers,
die
0
und
1
enthält heiÿt Teilkörper , wenn sie bzgl. der induzierten
Verknüpfungen abgeschlossen ist.
Im folgenden Lemma werden einige Konsequenzen der Körperaxiome
formuliert.
18
LINEARE ALGEBRA
Lemma 1.2.1.
(1)
(2)
Sei
(K; +; )
ein Körper.
1 6= 0, insbesondere hat jeder
a0 = 0a = 0 für alle a 2 K .
Körper mindestens zwei Elemente.
( a)b = a(
a; b 2 K , insbesondere ist ( a)( b) = ab.
Aus ab = 0 folgt a = 0 oder b = 0.
b)
(3) Die Vorzeichenregel gilt, d.h.
(4)
Beweis. (1): Nach (K2) gilt
=
für alle
1 2 K n 0.
a0 + a0 = a(0 + 0) = a0,
0a = 0.
(2): Mit dem Distributivgesetz folgt
a0 = 0 nach (K1).
ab
Analog folgt
also ist
ab + ( a)b = (a
a( b) = ab, und
(3): Nach dem Distributivgesetz, (K1) und (2) gilt
a)b
= 0b = 0,
also
(
zusammen ergibt sich
(
a)b = ab. Analog
a)( b) = ab.
folgt
a 6= 0 führt Linksmultiplikation der Gleichung ab = 0 mit a
1
mittels (2) zu b = a ab = 0.
(4): Für
Bemerkung.
1
Die Vorzeichenregel folgt im Wesentlichen aus den Dis-
tributivgesetzen.
Beispiel.
(1)
Teilkörper.
(2) Die Menge
bzw.
1=
Q ; R; C
sind kommutative Körper und
Q R C
sind
GF(2) = Z2 = f0; 1g ist mit der Vereinbarung 1 + 1 = 0,
1, ein Körper mit zwei Elementen. Das ist der kleinste KörGF(q ) sind kommutativ, vgl. [3, Wedderburn's
n
haben als Ordnungen Primzahlpotenzen q = p und zu je-
per. Endliche Körper
Theorem],
der Primzahlpotenz gibt es (bis auf Isomorphie) genau einen Körper,
vgl [3, Finite Fields].
Die Bezeichnung
GF(q )
steht für Galois eld .
Die rationalen Quaternionen bilden den kleinsten nicht kommutativen Körper, vgl. [3, Quaternions]. Nicht kommutative Körper heiÿen
auch Schiefkörper .
(3) Für einen endlichen Körper
K
sind
(K; +)
und
(K
n 0; ) endli-
che Gruppen, die sich durch Gruppentafeln beschreiben lassen. Man
spricht hier von der Additionstafel und der Multiplikationstafel .
den Körper
Für
GF(2) = f0; 1g ist die Additionstafel durch 1 + 1 = 0 völlig
fest gelegt, die Multiplikationstafel ist sowieso trivial.
GF(4) = f0; 1; a; bg ist im Bei3
sich wegen 1 + 1 = 0 eindeutig
Die Multiplikationstafel für den Körper
spiel nach Lemma 1.1.1 als Gruppentafel einer Gruppe der Ordnung
angegeben. Die Additionstafel ergibt
zu:
LINEARE ALGEBRA
+ 0 1
0
1
0 1
1 0
a a b
b b a
19
a b
a b
b a
0 1
1 0
Das ist die Gruppentafel der Kleinschen Vierergruppe.
Eine Menge R = (R; +; ) mit zwei Verknüpfungen heiÿt
(R; +) eine additiv geschriebene abelsche Gruppe ist, wenn
Denition.
Ring , wenn
die Multiplikation assozativ ist, und wenn die Distributivgesetze gelten.
Das sind die Ringaxiome . Für Ringe gilt, wie in Körpern,
Z ist ein kommutativer Ring mit 1.
und es gilt die Vorzeichenregel.
Der Ring
2 Z hat
1.
keine
Vektorräume.
Denition. Sei K
a0 = 0a = 0,
1.3.
ein kommutativer Körper und
geschriebene abelsche Gruppe.
deniert durch
(a; v )
7! av.
V eine additiv
KV ! V
K -Vektorraum ,
Sei eine Verknüpfung
Dann heiÿt
(V; +; )
ein
wenn folgende Axiome, hier Vektorraumaxiome , gelten:
(V1) (Gemischte Assoziativität ) Für alle
(ab)v = a(bv ).
a; b 2 K; v 2 V
ist
a; b 2 K; u; v 2 V
a(u + v ) = au + av und (a + b)v = av + bv .
(Normierung ) Für alle v 2 V ist 1v = v .
(V2) (Gemischte Distributivität ) Für alle
(V3)
ist
Elemente eines Vektorraums heiÿen Vektoren , Elemente aus dem Körper
K
und
K
av
heiÿen Skalare oder Koezienten , die Verknüpfung
Skalarmultiplikation .
0
2V
heiÿt Skalarenkörper .
Die
V
heiÿt
= 0 heiÿt Nullraum ,
Verknüpfungen + und für V
heiÿt Nullvektor ,
heiÿen lineare Operationen , wobei wiederum der Multiplikationspunkt
i.A. weggelassen wird. Die
0 bezeichnet
auch den Nullvektor, je nach Kontext.
sowohl die Null im Körper, als
Ist
K
=
R
bzw.
K
=
spricht man von einem reellen bzw. komplexen Vektorraum.
Nimmt
man in den Vektorraumaxiomen statt eines Körpers einen Ring
spricht man von einem
R-Modul
und von Modulaxiomen .
C , so
R, so
Die leere
Menge ist kein Vektorraum, weil ein Vektorraum als additive abelsche
Gruppe ein neutrales Element hat. Mit dem Buchstaben
tig stets ein Vektorraum bezeichnet.
V
wird künf-
= f(a1 ; : : : ; an ) j ai 2 K g,
K , also die Menge aller n-Tupel mit Einträgen aus K , wird zu einem n-dimensionalen K -Vektorraum, dem sog.
Beispiel.
(1) Die kartesische Potenz
eines kommutativen Körpers
Kn
20
LINEARE ALGEBRA
arithmetischen Vektorraum , vermöge der folgenden linearen Operationen für
n-Tupel.
(a1 ; : : : ; an ) + (b1 ; : : : ; bn ) = (a1 + b1 ; : : : ; an + bn );
a(a1 ; : : : ; an ) = (aa1 ; : : : ; aan ):
(2) Insbesondere ist jeder Körper ein Vektorraum über einem Teilkörper.
Also kann
werden.
(3) Die Menge
C
M
auf dem Intervall
für alle
f; g
z.B. als
Q -, R - oder als C -Vektorraum aufgefasst
= ff j f : [a; b] ! Rg aller reellwertigen Funktionen
[a; b] wird vermöge der linearen Operationen
(f + g )(t) = f (t) + g (t)
und
(af )(t) = a
f (t ) ;
2 M; a 2 R ; t 2 [a; b], zu einem reellen Vektorraum mit
der Nullfunktion als Nullvektor.
Lemma 1.3.1. Für einen K -Vektorraum V
(1) 0v = 0 und a0 = 0,
(2) av = 0 impliziert a = 0 oder v = 0,
(3)
v = ( 1)v .
mit
a 2 K, v 2 V
gelten:
V und K sind additive abelsche Gruppen, und aus 0v =
(0 + 0)v = 0v + 0v , bzw. a0 = a(0 + 0) = a0 + a0 folgen beide Aussagen.
Beweis. (1):
(2): Mit
a 6= 0 folgt aus av = 0 mittels (1)
v = 1v = (a 1 a)v = a 1 (av ) = a
1
0 = 0:
(3): Das Distributivgesetz und (2) implizieren
v+(
1)v = 1v + ( 1)v = 1 + ( 1)
v = 0:
LINEARE ALGEBRA
21
2. Unterräume, Basis und Dimension
Unterräume.
Denition.
(Unterraumkriterium ) Eine nicht-leere Teilmenge U
eines K -Vektorraumes V heiÿt Unterraum , wenn gelten:
0
0
(UR1) u + u 2 U für alle u; u 2 U .
(UR2) au 2 U für alle u 2 U; a 2 K .
Man schreibt U V (Gleichheit eingeschlossen) und sagt, U ist linear
abgeschlossen , d.h. U ist bzgl. der induzierten linearen Operationen,
d.h. die Verknüpfungen in V eingeschränkt auf die Teilmenge U , selbst
ein Vektorraum und hat denselben Nullvektor wie V . Die Unterraumbeziehung ist transitiv , d.h. aus U W V folgt U V .
Es sei hier ausdrücklich erwähnt, dass für einen Vektorraum V die
Bezeichnung U V stillschweigend einen Unterraum U bezeichnet.
Sollte mit U tatsächlich nur eine Untermenge gemeint sein, dann wird
2.1.
das explizit erwähnt.
Beispiel.
Der arithmetische reelle Vektorraum
R
2
= f(a; b)
j a; b 2
Rg, also die reelle Ebene, hat u.A. als Unterräume den Nullraum 0 =
f(0; 0)g, den ganzen Raum R , die x-Achse X = f(a; 0) j a 2 Rg, die
y -Achse Y = f(0; a) j a 2 Rg, und die Winkelhalbierende W = f(a; a) j
a 2 Rg.
2
Denition.
K -Vektorraum. Endliche Summen der Form
(2.1)
v = a1 v1 + + an vn ;
mit ai 2 K und vi 2 V , heiÿen Linearkombinationen der Vektoren vi .
Sei M eine (nicht notwendig endliche) Teilmenge eines Vektorraumes,
seien v1 ; : : : ; vn 2 M und a1 ; : : : ; an 2 K , dann heiÿt ein Ausdruck der
Form (2.1) eine Linearkombination von M , bzw eine Darstellung von v
bzgl. M . Die Darstellung a1 v1 + + an vn = 0 des Nullvektors heiÿt
trivial , wenn alle Skalare ai = 0 sind, und nicht trivial, wenn ai 6= 0
für mindestens einen Index i gilt.
P1
Unendliche Ausdrücke ähnlich zu (2.1), z.B. von der Form
i=1 ai vi ,
Sei
V
ein
sind mit den Vektorraumaxiomen nicht denierbar. Man braucht dafür
einen Konvergenzbegri , wie z.B. in der Analysis.
Satz 2.1.1.
Sei
M
eine nicht-leere Teilmenge des
Dann ist die Menge
L(M ) =
n
nX
i=1
K -Vektorraumes V .
ai vi j n 2 N ; ai 2 K; vi 2 M
aller Linearkombinationen von
M
ein Unterraum von
o
V.
22
LINEARE ALGEBRA
0 = 0v
Beweis. Wegen
2 L(M ) für ein beliebiges v 2 M ist L(M ) nicht
leer. Die lineare Abgeschlossenheit von
L(M ) folgt sofort aus der Form
der Elemente.
Satz 2.1.2.
Der Durchschnitt von (beliebig vielen) Unterräumen eines
Vektorraumes ist ein Unterraum.
D
T
U 2S U der Durchschnitt des Unterraumsystems S
K -Vektorraumes V . Da alle Unterräume U den Nullvektor enthalten, ist D nicht leer, und es genügt die lineare Abgeschlossenheit von D
zu zeigen. Seien u; v 2 D , d.h. u; v 2 U für alle U 2 S . Dann ist auch
u + v 2 U für alle Unterräume U 2 S . Somit ist u + v 2 D. Analog
bestätigt man, dass av 2 D , für a 2 K und v 2 D .
Beweis. Sei
=
des
Bemerkung.
Wenn der Durchschnitt von Unterräumen gleich
0
ist
dann sagt man, dass der Durchschnitt trivial ist. Insbesondere ist der
Durchschnitt von Unterräumen niemals leer.
Denition.
M eines Vektorraumes V
fU j M U; Unterraum U g
Für eine Teilmenge
hM i =
\
heiÿt
M . Das ist oensichtlich der kleinste Unterraum
V , der M enthält. Es gilt h;i = 0.
Satz 2.1.3. Das Erzeugnis einer nicht-leeren Teilmenge M des Vektorraumes V ist die Menge aller Linearkombinationen von M , d.h.
hM i = L(M ).
das Erzeugnis von
von
L(M ) folgt hM i L(M ) laut Denition und nach
Satz 2.1.1. Umgekehrt folgt für alle Unterräume U von V aus M U
sofort L(M ) U , also L(M ) hM i mit Gleichheit.
Satz 2.1.4. Seien U; W V Unterräume des Vektorraumes V . Die
Menge U [ W ist genau dann ein Unterraum, wenn entweder U W
oder W U .
Beweis. Es genügt für U 6 W und W 6 U zu zeigen, dass U [ W nicht
linear abgeschlossen ist. Die Summe u + w der Elemente w 2 W n U
0
und u 2 U n W ist nicht in U [ W , denn z.B. der Ansatz u + w = u 2 U
0 u 2 U.
führt zum Widerspruch w = u
Beweis. Aus
M
Denition.
Sei
S
eine (beliebige) Menge von Unterräumen des
S
S
V , sei mit S = fU j U 2 S g die Mengenvereinigung
der Unterräume in S bezeichnet. Dann heiÿt der Unterraum
X
fU j U 2 S g = S S = L S S
Vektorraumes
LINEARE ALGEBRA
23
S . Die Elemente dieser Summe sind
endliche Summen der Form v = u1 + + un , wobei die ui aus jeweils
einem der Unterräume aus der Menge S sind. Insbesondere ist U + W =
fu + w j u 2 U; w 2 W g = hU [ W i die Summe von U; W V , also
der kleinste Unterraum, der U und W enthält.
die Summe der Unterräume aus
Die Menge aller Unterräume eines Vektorraumes ist mit der üblichen
Inklusion eine geordnete Menge und hat die beiden Verknüpfungen
Durchschnitt und Summe. Das Distributivgesetz, wie für Mengen, vgl.
die Rechenregeln für Mengen, Kapitel 0.2, gilt nicht.
x-Achse X ,
Ebene
(W
R
2
die
y -Achse Y
und die Winkelhalbierende
, wie im obigen Beispiel, ist
\ X ) + (W \ Y ).
W
\ (X + Y )
Denn für die
W
=
der reellen
R 6=
2
0 =
Stattdessen gilt das schwächere Dedekindsche
Modulargesetz oder auch nur Modulargesetz .
Lemma 2.1.5.
(Dedekindsches Modulargesetz) Seien
X Y gilt
X \ (Y + W ) = Y + (X \ W ):
X; Y; W
Unter-
räume eines Vektorraums. Für
X \ (Y + W ) Y + (X \ W ).
x = y + w 2 X \ (Y + W ), dann ist w = x y
X \ (Y + W ) Y + (X \ W ).
Beweis. Sowieso ist
Sei umgekehrt
2 X\W
und
Basis und Dimension.
Denition. Eine Teilmenge M V eines Vektorraumes mit V =
hM i = L(M ) heiÿt Erzeugendensystem von V . Ein Vektorraum heiÿt
2.2.
endlich erzeugt , wenn er ein endliches Erzeugendensystem besitzt, z.B.
V
= hv1 ; : : :
; vn i.
Es ist natürlich, nach minimalen Erzeugendensystemen eines Vektorraumes zu fragen. Hierfür dient die folgende und wichtigste Denition
der Linearen Algebra.
Denition.
Vektoren
v1 ; : : : ; vn 2 V , die nur die triviale Darstellung
des Nullvektors gestatten, heiÿen linear unabhängig , d.h.
a1 v1 + + an vn = 0
sonst linear abhängig .
)a
ai 2 K;
Eine (nicht notwendig endliche) Menge M heiÿt
1
= = an = 0;
wobei
linear unabhängig, wenn jede endliche Teilmenge linear unabhängig ist.
Ein einzelner Vektor
v 6= 0 ist linear unabhängig.
Eine Menge, die den
Nullvektor enthält, ist linear abhängig, die leere Menge ist linear unabhängig. Obermengen linear abhängiger Mengen sind linear abhängig,
Teilmengen linear unabhängiger Mengen sind linear unabhängig.
24
LINEARE ALGEBRA
Beispiel. Die n-Tupel
e1 = (1; 0; : : : ; 0); e2 = (0; 1; 0; : : : ; 0) : : : ; en = (0; : : : ; 0; 1);
n
im n-dimensionalen arithmetischen Vektorraum K heiÿen Einheitsvektoren . Sie sind oensichtlich linear unabhängig.
Für eine Teilmenge
S
V
eines Vektorraumes
V
stellen sich zwei
zentrale Fragen.
T S
v 2 V , dass v 2= hS i?
(1) Wie sehen die minimalen Teilmengen
(2) Wie erkennt man für
aus mit
hT i = hS i?
Die Antwort wird durch die folgenden beiden Lemmata gegeben.
Lemma 2.2.1. Seien T S V Teilmengen des Vektorraumes V
mit hT i = hS i. Die Menge T ist genau dann minimal bzgl. hT i = hS i,
wenn sie linear unabhängig ist.
h;i = 0 genügt es 0 2= T 6= ; und hT i = hS i zu bev ; : : : ; vn 2 T mit einer
Pn
nicht trivialen Darstellung
6 0, d.h.
i ai vi = 0. Sei o.B.d.A. a =
Pn
v =
a
a
v
.
Somit
h
T
n
f
v
gi
=
h
T
i
=
h
S
i
und
T
ist nicht
i i
i
Beweis. Wegen
trachten. Ist
1
T
linear abhängig, dann gibt es
1
=2
T
1
=1
1
1
minimal.
Ist umgekehrt
1
0 =
6 v 2 T mit
2 L(T n fvg), d.h. es gibt paarweise
nicht minimal, dann existiert ein
hT n fvgi = hT i = hS i.
Also
v
v; v1 ; : : : ; vn 2 T mit
v = a1 v1 + + an vn ; d.h. v
verschiedene
eine nicht triviale Darstellung der
0.
a1 v1
Somit ist
anvn = 0;
T
linear abhängig.
Lemma 2.2.2. Sei S V eine linear unabhängige Teilmenge des Vektorraumes V , und sei v 2 V . Dann gilt die Äquivalenz:
v 2= hS i () S [ fv g ist linear unabhängig:
S [ fv g linear abhängig, dann gibt es v1 ; : : : ; vn 2 S mit
av + a1 v1 + + an vP
n = 0. Dabei
n
1
da S linear unabhängig ist. Also ist v =
i=1 a ai vi 2
Beweis. Ist
einer nicht trivialen Darstellung
a 6= 0,
L(S ) = hS i
ist
nach Satz 2.1.3.
Ist umgekehrt
S [ fv g linear unabhängig, also nach Lemma 2.2.1 ein
hS; vi, dann gilt v 2= hS i.
minimales Erzeugendensystem von
Denition.
heiÿt Basis .
jeder Vektor
raum
GF(2)
Ein minimales Erzeugendensystem eines Vektorraumes
Ist im Vektorraum
v2V
V
PB gegeben, dann hat
u2B au u. Der Vektor-
eine Basis
eine Basisdarstellung
v=
ist der einzige, der nur eine Basis besitzt, nämlich
f1g.
LINEARE ALGEBRA
Die Skalare
au
25
in der obigen Basisdarstellung sind gemäÿ des folgen-
den Satzes eindeutig bestimmt und heiÿen Koezienten von
der Basis
B.
Das Tupel
bzgl. der Basis
B.
(au
j u 2 B ) heiÿt Koordinatentupel
v
bzgl.
von
v
; vn ) eine geordnete Basis des (endlich dimensionalen) VekV , sei v = a1 v1 + + an vn eine Basisdarstellung von v 2 V .
n
Das eindeutig bestimmte Tupel (a1 ; : : : ; an ) 2 K heiÿt Koordinatenvektor oder Koordinatentupel von v bzgl. der Basis (v1 ; : : : ; vn ). Die
Skalare a1 ; : : : ; an , in geordneter Folge, heiÿen Koordinaten des Vektors v bzgl. der Basis (v1 ; : : : ; vn ). Die Anordnung resultiert aus der
Sei
(v1 ; : : :
torraumes
Anordnung der Basis, deshalb wird in diesem Kontext die Anordnung
der Basis immer stillschweigend vorausgesetzt.
Satz 2.2.3.
Für eine Teilmenge
B eines Vektorraumes V
sind die fol-
genden Aussagen äquivalent:
(1)
(2)
B
B
ist eine Basis.
ist linear unabhängig und
Erzeugendensystem.
(3)
B
hB i = V , d.h. B ist ein minimales
ist eine maximale linear unabhängige Menge.
(4) Jeder Vektor aus
V
hat eine eindeutige Darstellung bzgl.
B.
Insbesondere sind Basisdarstellungen von Vektoren eindeutig.
Beweis. Lemma 2.2.1 impliziert (1)
ziert (1)
() (3).
(4) =) (1):
für alle
B
v 2 B.
(2) =) (4):
() (2) und Lemma 2.2.2 impli-
ist ein minimales Erzeugendensystem, da
P
v 2= B n fv g
P
v = ni=1 ai vi = ni=1 P
bi vi zwei Darstellungen von
v 2 V mit v1 ; : : : ; vn 2 B , dann folgt aus ni=1 (ai bi )vi = 0 und der
linearen Unabhängigkeit von B die Gleichheit der Darstellungen.
Seien
Das folgende Korollar resultiert aus Lemma 2.2.1.
Korollar 2.2.4.
Jedes endliche Erzeugendensystem eines Vektorrau-
mes enthält (mindestens) eine Basis. Insbesondere haben endlich erzeugte Vektorräume eine endliche Basis.
Lemma 2.2.5. In einem Vektorraum mit einer Basis aus n Vektoren
sind jeweils n + 1 Vektoren linear abhängig.
u1 ; : : : ; un eine Basis von V und seien v1 ; : : : ; vn+1 2 V n 0.
Der Induktionsbeweis beginnt mit n = 1. Also v1 = au1 und v2 = bu1
Beweis. Sei
26
LINEARE ALGEBRA
mit
a
6=
0
und
b
6=
0.
Somit ist
bv1
av2
= 0
eine nicht triviale
v1 ; v2 sind linear abhängig.
Die Aussage wird als richtig für alle Zahlen < n angenommen.
Darstellung der
0,
d.h.
Es wird
o.B.d.A. eine Anordnung der Basis angenommen derart, dass
v1
=
a1 u1 + y1 mit a1 6= 0 und y1 2 U = hu2; : : : ; uni. Weiter gibt es aj 2 K
und yj 2 U , so dass für alle 2 j n + 1
vj = aj u1 + yj :
Damit folgt für alle 2 j n + 1
wj = a1 vj aj v1 = a1 (aj u1 + yj ) aj (a1 u1 + y1 ) = a1 yj aj y1 2 U:
Für U gilt die Induktionsannahme, also sind die Vektoren w2 ; : : : ; wn+1
linear abhängig, und es existieren Skalare b2 ; : : : ; bn+1 , nicht alle gleich 0,
so dass
0 = b2 w2 + + bn+1 wn+1 =
= ( a2 b2 an+1 bn+1 )v1 + a1 b2 v2 + + a1 bn+1 vn+1
schlieÿlich eine nicht triviale Darstellung der
v1 ; : : : ; vn+1 sind linear abhängig.
Satz 2.2.6. In einem endlich erzeugten
0
ist, d.h. die Vektoren
Vektorraum sind alle Basen
(endlich und) gleichmächtig und alle echten Unterräume sind endlich
erzeugt mit Basen kleinerer Mächtigkeit.
Beweis. Nach Korollar 2.2.4 existiert eine endliche Basis, und nach
Lemma 2.2.5 sind alle Basen von gleicher Mächtigkeit
n, und darüber
hinaus haben alle linear unabhängigen Teilmengen von Unterräumen
eine Mächtigkeit
n.
Somit haben auch alle Unterräume endliche
Basen. Nach Lemma 2.2.2 ist die Mächtigkeit der Basen echter Unterräume
< n.
Denition.
Die Mächtigkeit
n
einer Basis (und damit aller Ba-
sen) eines endlich erzeugten Vektorraumes
dim V =
n.
Es gilt
dim 0 = 0.
V
heiÿt Dimension von
V,
Vektorräume, die nicht endlich erzeugt
sind, heiÿen unendlich dimensional ,
dim V =
1.
Genauer kann man
von abzählbarer oder überabzählbarer Dimension eines Vektorraumes
sprechen, gemäÿ der Mächtigkeit der Basis.
Das folgende Korollar ist eine sofortige Konsequenz von Lemma 2.2.2
und Satz 2.2.6.
Korollar 2.2.7.
U
V
und
U V eines endlich dimen dim V . Insbesondere folgt aus
Für einen Unterraum
sionalen Vektorraumes
V
ist
dim U = dim V ,
dim U
dass
U
= V.
LINEARE ALGEBRA
27
Beispiel. (1) dim K n = n, da fe1 ; : : : ; en g eine Basis ist.
3
3
(2) U = f(a; b; 0) 2 K j a; b 2 K g ist ein Unterraum von K
dim U = 2, da f(1; 0; 0); (0; 1; 0)g eine Basis von U ist.
Lemma von Zorn.
mit
Das Lemma von Zorn ist ein Axiom, mit dem die Existenz maximaler
Elemente in geordneten unendlichen Mengen unter gewissen Voraussetzungen garantiert wird. Äquivalent zum Zornschen Lemma sind u.A.
der Wohlordnungssatz und das Auswahlaxiom , vgl. [5]. Letztere sollen
hier nicht formuliert werden. Mit diesen zusätzlichen Axiomen lassen
sich Resultate beweisen, die ansonsten nicht erhalten werden können.
Man weiÿ durch Gödel, vgl. [5], dass diese Zusatzaxiome die Widerspruchsfreiheit der Mathematik nicht verletzen.
Denition. Sei (P; ) eine (teilweise) geordnete Menge mit Teilmenge Q. Das Element x 2 P heiÿt eine obere Schranke von Q, wenn
y x für alle y 2 Q, analog untere Schranke . Eine Teilmenge Q einer
(teilweise) geordneten Menge P heiÿt Kette , wenn je zwei Elemente
von Q vergleichbar sind, d.h. für y1 ; y2 2 Q ist entweder y1 y2 oder
y2 y1 . Ein Element x 2 P heiÿt maximal in P , wenn für y 2 P , mit
y x, folgt y = x.
Lemma. (Lemma von Zorn) Eine nicht-leere geordnete Menge, in der
jede Kette eine obere Schranke hat, besitzt (mindestens) ein maximales
Element.
In einer endlichen geordneten Menge existieren immer maximale Elemente und das Lemma von Zorn ist deshalb überüssig.
Beispiel.
N ohne N selbst, also P(N ) nfNg, hat
N nfng. Die Mengen N ; Z mit ihrer natürli-
Die Potenzmenge von
die maximalen Elemente
chen Ordnung haben keine maximalen Elemente.
Der nachfolgende Basisergänzungssatz ist für endlich dimensionale Vektorräume eine sofortige Konsequenz von Lemma 2.2.2. Für unendlich
dimensionale Vektorräume benötigt man das Lemma von Zorn als Beweismittel. Der Beweis des folgenden Basisergänzungssatzes ist typisch
für den Einsatz des Lemmas von Zorn.
Satz 2.2.8.
(Basisergänzungssatz)
Jede linear unabhängige Teilmenge
eines Vektorraumes lässt sich zu einer Basis fortsetzen. Insbesondere
hat jeder Vektorraum eine Basis.
Beweis. Sei
SV
die gegebene linear unabhängige Menge. Man ver-
wendet das Lemma von Zorn, um die Existenz einer maximalen linear
unabhängigen Teilmenge des Vektorraumes
V
zu zeigen, die
S enthält.
28
LINEARE ALGEBRA
Nach Satz 2.2.3 ist damit eine Basis gefunden und der Zusatz, dass
jeder Vektorraum eine Basis besitzt, folgt, wenn speziell
S als die leere
Menge angesetzt wird.
Hierzu sei
S
2U
=
fL V j S L; L
linear unabhängig
g die,
per Inklusion geordnete, nichtleere Menge aller linear unabhängigen
Teilmengen von
U
V,
die
wird gezeigt, dass
M
S
=
enthalten.
S
L2K L
Für eine beliebige Kette
2 U.
K
Das ist die Voraussetzung
des Lemmas von Zorn, dass nämlich jede Kette eine obere Schranke
U, d.h. maximale linear
unabhängige Teilmengen von V . Jedes Element L 2 K enthält S , also
besitzt, und dann gibt es maximale Elemente in
gilt
S M.
Seien weiter die endlich vielen Elemente
v1 ; : : : ; vn 2 M .
L1 ; : : : ; Ln 2 K mit vi 2 Li für 1 i n. Da K eine Kette
Lj unter den L1 ; : : : ; Ln , d.h. v1 ; : : : ; vn 2 Lj .
Alle Li sind linear unabhängige Mengen, also sind auch die v1 ; : : : ; vn
linear unabhängig, und damit auch M .
Dann gibt es
ist, gibt es ein maximales
Bemerkung.
Beweise, die mit dem Lemma von Zorn geführt werden,
sind Existenzbeweise, wie z.B. der Basisergänzungssatz, insbesondere
nicht konstruktiv . Z.B. ist der Körper
R
der reellen Zahlen auch ein
Q -Vektorraum, von überabzählbarer Dimension nach Satz 0.6.2, und
hat nach dem Basisergänzungssatz, Satz 2.2.8, eine Basis, aber, da der
Beweis hierfür nur mit dem Lemma von Zorn, oder äquivalenten Axiomen, geführt werden kann, lässt sich keine Basis angeben. Deswegen
lehnen manche Mathematiker das Lemma von Zorn als Beweismittel
ab.
U; W V Unterräume. Dann heiÿt W ein KomV , wenn U + W = V und U \ W = 0. Gleichfalls
ist U ein Komplement von W . Man sagt, Komplemente zerlegen den
Vektorraum in eine direkte Summe V = U W . Das Komplement
von V ist 0 und umgekehrt.
Satz 2.2.9. (Komplementierungssatz) Jeder Unterraum ist komplemenDenition.
plement von
Seien
U
in
tierbar.
S des Unterraumes U V lässt sich nach dem Basisergänzungssatz zu einer Basis B von V fortsetzen. Also gilt V = U +W
mit U = hS i und W = hB n S i. Ein Element v 6= 0 des Durchschnitts
U \ W hätte bzgl. der Basis B verschiedene Darstellungen, also folgt
aus der eindeutigen Basisdarstellung, dass V = U W , und W ist ein
Komplement von U .
Beweis. Eine Basis
Beispiel. Komplemente sind i.A. nicht eindeutig. Die x-Achse X ,
2
die y -Achse Y , und die Winkelhalbierende W der reellen Ebene R
LINEARE ALGEBRA
29
komplementieren sich gegenseitig, d.h.
R
2
=X
Y = X W = Y W:
Um die Dimension von Vektorräumen denieren zu können muss gezeigt werden, dass alle Basen eines Vektorraumes die gleiche Mächtigkeit besitzen. Hierfür kann man auch statt Lemma 2.2.5 den folgenden
Austauschsatz von Steinitz heranziehen. Parallelen zum Basisergänzungssatz sind unverkennbar.
Satz 2.2.10.
(Austauschsatz
near unabhängig. Sei
fv ; : : : ; vng eine
1
vi ist auch
fu1; : : : ; um; vm+1; : : : ; vng
und bei geeigneter Nummerierung der
eine Basis von
V.
u1 ; : : : ; um 2 V liBasis von V , dann ist m n
von Steinitz) Seien
m n. Für m = n ist
m < n, d.h. U = hu1 ; : : : ; um i ( V . Nach
Lemma 2.2.2 gibt es ein vm+1 2
= U nach Umnummerierung der vi . Nach
endlich vielen solchen Auswahlen erhält man eine Basis von V .
Beweis. Nach dem Basisergänzungssatz ist
nichts zu zeigen. Sei also
Bemerkung. Sei V ein Vektorraum mit Basis fv1 ; : : : ; vng. Der Vektor u 2 V lässt sich genau dann gegen vi eintauschen, d.h. auch
fv1; : : : ; vi 1; u; vi+1; : : : ; vng
Pn
ist eine Basis, wenn in der eindeutigen Basisdarstellung u =
i=1 ai vi
gilt ai 6= 0, wenn also die Koordinate von u in Richtung vi nicht 0 ist.
Direkte Summen.
Denition. Sei fUi j i 2 P
I g eine Menge von Unterräumen eines
Vektorraumes V . Die Summe
heiÿt direkt ,
i2I Ui dieser Unterräume
P
P
L
wenn Ui \
U
=
0
für
alle
i
2
I
.
Man
schreibt
U
= i2I Ui ,
j
i
j
=
6
i
i
2
I
Ln
und
i=1 Ui = U1 Un sofern I = f1; : : : ; ng.
Beispiel. (1) Komplemente bilden direkte Summen, U W = V .
n Ln Ke mit Ke = fae j a 2 K g = he i, da
(2) K =
i
i
i
i
i=1
Kei \ he1 ; : : : ; ei 1 ; ei+1 ; : : : ; en i = 0;
für alle i = 1; : : : ; n.
2.3.
(3) In der reellen Ebene komplementieren sich die drei Unterräume,
die
x-Achse,
die
y -Achse
und die Winkelhalbierende paarweise, aber
sie bilden nicht ihre direkte Summe, d.h. Summen von mehr als zwei
Summanden sind i.A. nicht direkt, wenn sich jeweils zwei der Summanden trivial schneiden.
30
LINEARE ALGEBRA
L
Lemma
i Ui . Dann ist die (endliche) Darstellung
P 2.3.1. Sei V =
v = S i ui mit ui 2 Ui eindeutig. Sind Bi UP
i Basen, dann ist
B = i Bi eine Basis von V , und es gilt dim V = i dim Ui , falls V
endliche Dimension hat. Insbesondere ist eine Teilmenge B eines K L
Vektorraumes V 6= 0 genau dann eine Basis, wenn V =
v2B Kv .
Beweis. Sei
fui j ig P
V eine endliche Menge mit ui 2 Ui für paarweise
i
P
verschiedene . Wenn
denn
ui =
j 6=i ui
= 0 ist, dann sind alle Summanden ui = 0,
i uiP
Ui j 6=i Uj = 0. Somit sind zwei Darstellungen
2 \
eines Vektors gleich, weil ihre Dierenz gleich
0
ist.
B ein Erzeugendensystem P
und es genügt die lineaP
re Unabhängigkeit von B zu zeigen. Sei 0 =
v2B av v =
i ui eine
P
Darstellung des Nullvektors, wobei ui =
a
v
die
jeweilige
Teilv2Bi v
summe ist, die in Ui liegt. Nach obiger Überlegung sind alle ui = 0, und
da Bi eine Basis von Ui ist, sind schlieÿlich alle Koezienten av = 0,
d.h. B ist eine Basis.
Der Zusatz ist eine Spezialisierung der Ui zu 1-dimensionalen Unterräumen und es genügt zu zeigen, dass für eine Basis B die Summe
P
V = Pv2B Kv direkt ist, aber ein Element u 6= 0 des Durchschnitts
Ku \ v6=u Kv hätte verschiedene Darstellungen bzgl. der Basis B , im
Denitionsgemäÿ ist
Widerspruch zur eindeutigen Basisdarstellung, vgl. Satz 2.2.3.
Satz 2.3.2.
(Dimensionssatz
U
für Unterräume) Für endlich dimensio-
W eines Vektorraumes gilt
dim U + dim W = dim(U + W ) + dim(U \ W ):
nale Unterräume
und
W = (U \ W ) X mit einem Komplement X , dann ist
U + W = U + X . Weiter ist U \ X U \ W und folglich auch
U \ X (U \ W ) \ X = 0. Also U + W = U X . Man stattet die
Beweis. Sei
auftretenden Unterräume mit Basen aus und erhält nach Lemma 2.3.1
dim X = dim W dim(U \ W ),
dim(U \ W ), wie behauptet.
Beispiel.
(1) Der Unterraum
also
U
dim(U + W ) = dim U + dim W
aller Polynome
p(x) =
Pn
i
i=0 ai x
im
f :R !R
f1; x; x ; : : : g, bestehend aus allen Monomen .
reellen Vektorraum aller stetigen reellwertigen Funktionen
hat die (geordnete) Basis
Das Tupel
türlich ist
2
(a0 ; : : : ; an ; 0; : : : ) ist der Koordinatenvektor von p(x).
U unendlich dimensional.
Na-
(2) Oensichtlich ist jeder Körper ein Vektorraum über einem Teilkörper.
Der Körper
Dimension
2.
C
hat als
R -Vektorraum die Basis f1; ig,
also die
LINEARE ALGEBRA
31
n-dimensionaler
K -Vektorraum V isomorph zum arithmetischen Vektorraum K n ist.
Satz 2.3.3. Sei V ein K -Vektorraum mit Basis (v1 ; : : : ; vn ). Dann
n
ist die Abbildung ' : V ! K , deniert durch 'v = (a1 ; : : : ; an ), falls
Pn
v = i=1 ai vi , bijektiv und linear, d.h.
'(v + v 0 ) = 'v + 'v 0 und '(av ) = a('v ):
Auf Grund des folgenden Satzes sagt man, dass ein
Beweis. Auf Grund der eindeutigen Basisdarstellung ist
und injektiv.
also ist
'
' wohldeniert
Jeder Koordinatenvektor hat oensichtlich ein Urbild,
insgesamt bijektiv.
üblichen Rechenregeln für
Die Linearität von
n-Tupel.
'
folgt wegen der
32
LINEARE ALGEBRA
3. Lineare Abbildungen und Matrizen
Matrizen.
Denition. Eine m n Matrix A = (aij ) = (aij )1im; 1j n; über
dem kommutativen Körper K ist ein rechteckiges Zahlenschema mit m
Zeilen und n Spalten,
3.1.
0
a11 a12
a21 a22
B
A=B
@
.
.
.
.
.
.
am1 am2
und mit Einträgen
aij
2 K.
a n
a n
1
2
..
.
.
.
.
amn
Die Matrix
1
C
C = (aij );
A
A heiÿt vom Format m n.
Man kann auch Matrizen über Ringen denieren, i.A. nehmen wir stillschweigend an, dass die Einträge von Matrizen aus einem kommutativen Körper sind. Eine Matrix hat Zeilen- und Spaltenvektoren , wobei
hier
i der Zeilenindex und j der Spaltenindex ist.
Die Dimension des Er-
zeugnisses der Spaltenvektoren einer Matrix im arithmetischen Vektorraum
in
Km
K n.
heiÿt Spaltenrang ,
Ist
m
=
n,
s-rang(A),
analog Zeilenrang ,
dann heiÿt die Matrix
n-reihig
z-rang(A)
quadratisch . Die
quadratische Matrix,
0
1 0
B 0 1
E = En = B
@
.
..
..
0 0
heiÿt Einheitsmatrix , wenn
häug unterdrückt.
Einträge alle
0
Æij
Æij
=
.
1
0
1
0
0 C
.
..
C = (Æij );
A
1
falls
falls
i = j.
i 6= j
heiÿt Kroneckersymbol .
Der Index
n
wird
Eine Matrix, deren
sind, heiÿt Nullmatrix . Die Matrix
0
B
B
Eij = B
B
@
0
.
.
.
0
0
.
.
.
1
1
C
C
C
C
A
0
1 an der Stelle (i; j ), und sonst nur Einträgen 0, heiÿt
(i; j )-Matrixeinheit . M(m n; K ) bezeichnet die Menge aller Matrizen
vom Format m n mit Einträgen aus K . Man schreibt kurz M(n; K ) =
M(n n; K ).
mit genau einer
LINEARE ALGEBRA
Beispiel.
Die Matrix
0
33
1
1 1 0 0
@
A = 0 1 1 0 A = (aij )
0 0 1 1
ist vom Format
3 4.
Spaltenrang und Zeilenrang sind beide gleich
3.
Später wird gezeigt, dass für Matrizen über Körpern grundsätzlich
Zeilen- und Spaltenrang gleich sind.
Satz 3.1.1.
M(m n; K )
K -Vektorraum vermöge der linea-
wird zum
ren Operationen
(aij ) + (bij ) = (aij + bij )
und
a(aij ) = (aaij ):
Die Matrixeinheiten bilden eine Basis, d.h.
dim M(m n; K ) = mn.
K n beweistPman, dass
Aus der Identität, A =
i;j aij Eij ,
Beweis. Wie für den arithmetischen Vektorraum
M(m n; K ) ein K -Vektorraum ist.
folgt, dass die Matrixeinheiten
Eij
eine Basis bilden.
Denition. Seien A = (aij ) eine m n Matrix, und B = (bjk )
eine n t Matrix. Für A und B wird, in dieser Reihenfolge, eine
Produktmatrix C = (cik ) vom Format m t deniert durch
cik =
n
X
j =1
aij bjk ; i = 1; : : : ; m; k = 1; : : : ; t:
cik an der Stelle (i; k) ist das Skalarprodukt der i-ten Zeile
von A mit der k -ten Spalte von B . Sei A 2 M(m n; K ), dann ist
Em A = A = AEn . Die Matrizen A und B müssen zusammenpassen,
damit man sie multiplizieren kann. Die Produkte AB und BA existieren nur dann gemeinsam, wenn die Formate von A und B gleich m n
bzw. n m sind. Für A; B 2 M(n; K ), existieren AB und BA, aber
i.A. ist AB 6= BA. Aus AB = 0 folgt nicht, wie für Körper, A = 0
oder B = 0, vielmehr gibt es sog. Nullteiler , d.h. Elemente A 6= 0, für
die es ein Element B 6= 0 gibt, so dass AB = 0 ist. M(n; K ) ist nicht
Der Eintrag
nullteilerfrei .
Beispiel.
AB =
1 2 0
0 1 1
Das umgekehrte Produkt
0
1
1 0 1
3
2
1
@ 1 1 0 A=
:
3 2 0
2 1 0
BA existiert nicht.
34
LINEARE ALGEBRA
Av =
1 2 0
0 1 1
ist das Produkt der Matrix
0
1
1
3
@ 1 A=
3
2
A mit einem Spaltenvektor v .
Matrixprodukt ist nicht kommutativ.
CD =
Übrigens sind
0 1
0 0
D und C
0 0
0 1
=
0 1
0 0
6=
0 0
0 0
Das folgende
= DC:
Nullteiler.
Der folgende Satz ist sehr technisch. Der (mühsame) Beweis verwendet
nur die denierte Addition und Multiplikation von Matrizen und wird
hier nicht ausgeführt.
Satz 3.1.2.
Für zusammenpassende Matrizen gelten das multiplikative
Assoziativgesetz, und die Distributivgesetze, d.h.
(AB )C = A(BC );
A(B + C ) = AB + AC
und
(A + B )C = AC + BC:
Denition. Für die m n Matrix A = (aij ) heiÿt die n m MaT
trix A = (aji ) die Transponierte von A, oder zu A transponiert . Als
Hauptdiagonale einer Matrix A = (aij ) bezeichnet man die schräge
Linie, die den Diagonaleinträgen aii , i = 1; 2; : : : , folgt. Man erT aus A, indem man A an der Hauptdiagonalen spiegelt. Es
hält A
T T
T
T
T
T
T
gelten (A ) = A, (A + B ) = A + B und (cA) = cA . QuadratiT
sche Matrizen A mit A = A heiÿen symmetrisch . Eine quadratische
Matrix A, deren Nicht-Diagonaleinträge alle 0 sind heiÿt Diagonalmatrix . Man schreibt A = diag (a1 ; : : : ; an ) und insbesondere ist die
Einheitsmatrix E = diag (1; : : : ; 1) eine Diagonalmatrix.
Beispiel.
0
1
Satz 3.1.3.
Mit
1 2 0
0 1 1
T
1 0
= @ 2 1 A:
0 1
AB existiert auch B T AT , und es gilt (AB )T
= B T AT .
A = (aij ) eine m n Matrix, B = (bjk ) eine n t Matrix
T
0
0
und AB = C = (cik ). Mit A = (aji ), wobei aji = aij usw., ist
Beweis. Seien
n
n
n
j =1
j =1
j =1
X
X
X
c0ki = cik =
aij bjk =
bjk aij =
b0kj a0ji :
LINEARE ALGEBRA
35
Satz 3.1.4.
M(n; K )
Ring mit
ein sog. Matrixring mit der Einheitsmatrix
1,
ist bzgl. Matrix-Addition und -Multiplikation ein
n > 1 ist M(n; K ) kein Körper.
Beweis. Nach Satz 3.1.1 ist
M(n; K )
E
als
1.
Für
eine additive abelsche Gruppe.
Nach Satz 3.1.2 ist die Multiplikation assoziativ, und es gelten die
Distributivgesetze.
Für
n>
1
hat
M(n; K )
Nullteiler, ist also kein
Körper.
Lineare Abbildungen.
Denition. Eine Abbildung : V ! W der K -Vektorräume V
und W heiÿt linear , wenn
(v + v 0 ) = v + v 0 und (av ) = a(v );
0
für alle v; v 2 V und a 2 K . Eine allgemeine lineare Abbildung heiÿt
auch Homomorphismus . Sie heiÿt Endomorphismus , wenn V = W ist,
3.2.
Monomorphismus , wenn sie injektiv ist, Epimorphismus , wenn sie surjektiv ist, und Isomorphismus , wenn sie bijektiv ist. Ein Isomorphis-
ist bijektiv also invertierbar, vgl. Kapitel 0.5. Wendet man 1
0
0
auf (v + v ) = v + v und auf (av ) = a(v ) an, und berücksichtigt
1
die Bijektivität so erhält man sofort, dass auch ein Isomorphismus ist. Im letzteren Fall heiÿen V und W isomorph , V = W . Ein
bijektiver Endomorphismus heiÿt Automorphismus . Die Abbildung mit (v ) = 0, für alle v 2 V , heiÿt Nullabbildung . Für lineare Abbildungen gilt stets, (0) = 0 und ( v ) =
(v ). Weiter ist die
mus
Hintereinanderausführung linearer Abbildungen, sofern erklärt, wieder
linear. Grundsätzlich ist die Hintereinanderausführung von Abbildungen assoziativ, also auch für lineare Abbildungen.
Lineare Abbildungen lassen sich mit wenigen Bildvorgaben festlegen.
Satz 3.2.1. Seien V 6= 0, W , beides K -Vektorräume. Sei B eine Basis
von V . Ordnet man jedem u 2 B ein (beliebiges) wu 2 W zu, dann
existiert genau eine lineare Abbildung : V
! W mit (u) = wu für
alle u 2 B .
P
= u2B au u
Beweis. Zuerst wird die Existenz einer solchen linearen Abbildung
gezeigt unter Verwendung der eindeutigen Darstellung
eines Vektors
v2V
:V
bzgl. der Basis
!W
mit
B.
Denn
X
(v ) = (
u2B
au u) =
X
u2B
v
au wu
36
LINEARE ALGEBRA
ist wohldeniert, und es gilt
X
(u) = wu .
v0 =
P
0
u2B au u
gilt
X
(v + v 0 ) = au u + a0u u = (au + a0u )wu
u2B
u2B
u2B
X
X
=
au wu + a0u wu = (v ) + (v 0 );
u2B
u2B
linear.
Zum Beweis der Eindeutigkeit seien ; : V
! W mit (u) = wu =
(u) für alle u 2 B , und man erhält für alle v 2 V
X
X
X
X
(v ) = ( au u) =
au (u) =
au wu =
au (u) = (v );
und analog
(av ) = a(v ).
X
Für
u2B
Also ist die Abbildung
u2B
u2B
unter Verwendung der Linearität von
Beispiel.
u2B
und .
Also ist
= .
(1) Die folgende Abbildung ist linear, später nennen wir sie
eine Linearform , weil das Bild eines echten Vektors eine Zahl ist:
: K3
! K; (a ; a ; a ) = a
1
2
3
1
+ a2 + a3 :
(2) Die folgenden beiden Abbildungen sind nicht linear:
: Q 2 ! Q 2 ; (a1 ; a2 ) = (a1 + 1; 0);
: Q 2 ! Q 2 ; (a1 ; a2 ) = (0; a22 ):
Denn (0; 0) 6= (0; 0) und 2(0; 1) = (0; 4) 6= 2 (0; 1).
Denition. Für eine lineare Abbildung : V ! W heiÿt
ker() = fv 2 V j (v ) = 0g V
der Kern von und Im() = (V ) = f(v ) j v 2 V g heiÿt Bild
von
.
Im nächsten Satz wird bewiesen, dass Kern und Bild linearer Abbildungen wieder Unterräume sind. Die Dimension
heiÿt Rang von
Satz 3.2.2.
.
rang() = dim Im()
Für lineare Abbildungen sind Bilder und Urbilder von Un-
terräumen wieder Unterräume. Insbesondere sind Kerne Unterräume.
Für eine lineare Abbildung
(1)
(2)
:V
!W
gelten:
ist genau dann surjektiv, wenn (V ) = Im() = W .
ist genau dann injektiv, wenn ker = 0, bzw. wenn lineare
Unabhängigkeit erhält.
Beweis. Bilder und Urbilder unter einer linearen Abbildung
enthal-
ten immer den Nullvektor, sind also niemals leer. Deshalb genügt hier
der Nachweis der linearen Abgeschlossenheit. Für das Bild
(V )
ge-
0
0
schieht das durch die Denition der Linearität, (v ) + (v ) = (v + v )
LINEARE ALGEBRA
37
(av ). Für die Behandlung des Urbildes (W 0 ) eines
0
0
0
0
Unterraumes W W seien v; v mit (v ); (v ) 2 W zwei Elemente
0
0
des Urbildes von W unter , also ist auch die Summe v + v wegen
(v + v 0 ) = (v ) + (v 0 ) 2 W 0 , weil W 0 als Unterraum von W linear abund
a(v )
=
geschlossen ist. Analog schlieÿt man für das Produkt mit einem Skalar.
Somit ist auch das Urbild von
W 0 ein Unterraum.
Insbesondere ist der
Kern einer linearen Abbildung, also das Urbild der
0,
ein Unterraum.
Die Feststellung unter (1) ist oensichtlich, für (2) wird zuerst die
mit ker = 0 gezeigt. Sei zuerst
ker = 0, dann impliziert (u) = (v ) sofort (u v ) = 0, also ist
u v 2 ker = 0, d.h. u = v , und ist injektiv. Ist umgekehrt injektiv, dann ist 0 das einzige Urbild der 0, und ker = 0.
Äquivalenz der Injektivität von
mit dem Erhalt der linearen
zu zeigen, sei zuerst injektiv und fv1 ; : : : ; vn g
Um die Äquivalenz der Injektivität von
Unabhängigkeit unter
sei linear unabhängig. Aus
0=
Pn
i=1 ai vi
2
n
X
i=1
n
X
ai (vi ) = (
Bemerkung.
und
a1
ai vi )
an = 0 folgt aus der
linearen Unabhängigkeit der vi , d.h. die Bilder (vi ) sind linear unabhängig. Wenn umgekehrt die lineare Unabhängigkeit erhält, dann ist
(v ) 6= 0 für v 6= 0, d.h. ker = 0.
folgt
ker = 0,
i=1
=
Das Bild einer linear abhängigen Menge ist wieder linear
abhängig, weil eine nicht triviale Darstellung
triviale Darstellung
Satz 3.2.3.
=
P
i ai (vi ) = 0
P
i ai vi = 0
auf die nicht
abgebildet wird.
Das Bild eines Erzeugnisses unter einer linearen Abbil-
!W
dung ist das Erzeugnis der Bilder. Genauer, sei
:V
lineare Abbildung, und sei
Dann ist
S V eine Teilmenge.
hS i = (S ) :
eine
P
S Teilmenge des K -Vektorraumes
V . Da hS i = f ni=1 ai vi j
Pn
vi 2 S; ai 2 K;
P n 2 Ng, ist hS i = f i=1 ai (vi ) j vi 2 S; ai 2
K; n 2 Ng = f ni=1 ai wi j wi 2 (S ); ai 2 K; n 2 Ng = h(S )i.
Beweis. Sei
Satz 3.2.4.
(Dimensionssatz
mensionalen Vektorraum
ist
dim Im() dim W
V
für Abbildungen) Für einen endlich di-
und eine lineare Abbildung
und
dim V = dim ker + dim Im():
:V
!W
38
LINEARE ALGEBRA
Beweis. Es ist
Unterraum von
dim Im()
W
ist.
dim W ,
da
Im()
nach Satz 3.2.2 ein
Weiter ist für eine Komplementierung
ker U die Restriktion jU
dim Im = dim (V ) = dim U
injektiv, da
ker \U
= 0.
V
=
Also ist
nach den Sätzen 3.2.2 und 3.2.3, und
mit der Dimensionsformel für Unterräume folgt die behauptete Gleichung.
Der Satz 0.5.1, dass für endliche gleichmächtige Mengen injektiv und
surjektiv äquivalent sind, lässt sich auf endlich dimensionale Vektorräume übertragen.
Satz 3.2.5.
Für eine lineare Abbildung zwischen
K -Vektorräumen end-
licher, gleicher Dimension sind injektiv, surjektiv und bijektiv äquivalent, und dazu gleichwertig ist, dass das Bild einer Basis wieder eine
Basis ist.
K -Vektorräume sind genau dann isomorph, wenn sie gleiche Di : V ! W gilt, rang =
dim (V ) = dim V = dim W .
Zwei
mension besitzen. Für einen Isomorphismus
Insbesondere sind der Skalarenkörper und die Dimension ein vollständiges Invariantensystem eines Vektorraumes.
Beweis. Auf Grund der Sätze 3.2.2 und 0.5.1 wird durch eine injektive
lineare Abbildung
:V
!W
licher Dimension eine Basis von
Damit ist
zwischen Vektorräumen gleicher end-
V
auf eine Basis von
W
abgebildet.
auch surjektiv und mit denselben Sätzen folgt auch die
Umkehrung, und somit auch die Äquivalenz zur Bijektivität.
Für Vektorräume gleicher Dimension gibt es eine Bijektion zwischen
den Basen.
Eine lineare Abbildung, die man gemäÿ Satz 3.2.1 mit
dieser Bijektion deniert, ist oensichtlich ein Isomorphismus. Umgekehrt vermittelt ein Isomorphismus
,
also eine injektive und surjek-
tive lineare Abbildung eine Bijektion zwischen Basen von
d.h.
V
und
W
V
und
W,
haben gleiche Dimension, und es gilt die behauptete
Gleichung.
Satz 3.2.6.
Seien
U, V , W , Z
alles
K -Vektorräume. Sei V endlich
; ; mit
dimensional. Es gelten für die linearen Abbildungen
! V ! W ! Z;
(1) rang minfdim V; dim W g,
(2) rang( ) rang , mit Gleichheit, falls surjektiv ist,
(3) rang() rang , mit Gleichheit, falls injektiv ist.
U
LINEARE ALGEBRA
39
Beweis. (1) folgt aus dem Dimensionssatz für lineare Abbildungen.
(V )
Wegen
(U )
wenn
surjektiv ist, also gilt (2).
gilt
dim (V )
mit Gleichheit,
dim (V ) mit Gleichheit, wenn injektiv
dim (V )
Ähnlich folgt
dim (U )
ist, also gilt (3).
Darstellung von linearen Abbildungen durch Matrizen.
Denition. Sei : V ! W eine lineare Abbildung, seien Basen
A = (v1 ; : : : ; vn ) und B =
P(mw1 ; : : : ; wm ) der K -Vektorräume V bzw. W
gegeben. Also (vj ) =
i=1 aij wi , j = 1; : : : ; n, wobei aij 2 K . Die
Matrix M (A; B ) = (aij ) heiÿt darstellende Matrix von bzgl. der Basen A und B . Diese darstellende Matrix ist vom Format m n und eindeutig bestimmt durch (; A; B ). Für einen Endomorphismus nimmt
man i.A. die darstellende Matrix bzgl. einer Basis, d.h. M (A; A).
3.3.
Matrixbeschreibung
Mit der darstellenden Matrix lässt sich
v=
Pn
j =1 aj vj
n
X
(v ) = (
mit
aj vj ) =
n
X
aj (
m
X
aij wi ) =
m X
n
X
j =1
j =1
i=1
i=1 j =1
Pn
bi = j =1 aij aj , oder in Matrixschreibweise
0
1
0
1
@
(3.1)
b1
.
..
bm
die Spalten von
(vj ).
bilder
Seien umgekehrt Basen
M(mn; K ).
A=
M (A; B ) @
a1
.
..
an
M (A; B ) .
Im() = Im
M (A; B ) genau die
Man identiziert oft
Für
aij aj wi =
m
X
i=1
bi wi ;
A:
In dieser Form sind
Koordinatenvektoren der Basis-
A und B von V
bzw.
W
xiert und sei
(aij ) 2
:V ! W
M (A; B ) = (aij ), denn die Abbildung (aij ) :
Dann existiert genau eine lineare Abbildung
mit darstellender Matrix
Kn
explizit beschreiben.
gilt nämlich:
! K m,
deniert durch (3.1), ist linear laut Distributivgesetz
für die Matrix-Addition und -Multiplikation. Weiter sind die Spalten
(aij ) genau
M (A; B ).
von
die Koordinatenvektoren der Basisbilder, d.h.
(aij ) =
Satz 3.3.1. Seien A = (v1 ; : : : ; vn ), B = (w1 ; : : : ; wm ) und C =
(z1 ; : : : ; zp ) Basen der K -Vektorräume V , W und Z . Seien lineare
40
LINEARE ALGEBRA
; gegeben durch V ! W ! Z , mit
Matrizen M (A; B ) und M (B; C ). Dann ist
M (A; C ) = M (B; C )M (A; B )
die darstellende Matrix von bzgl. A und C .
Abbildungen
Beweis. Mit
(ckj )
M (A; B )
= (aij ),
M (B; C )
= (bki )
und
darstellenden
M (A; C )
=
ist
(vj )
=
(wi )
=
(vj )
=
Anwendung von
(vj ) =
m
X
i=1
m
X
i=1
p
X
k=1
p
X
k=1
aij wi ;
für
1j
bki zk ;
für
1 i m;
ckj zk ;
für
1j
n:
auf die erste Gleichung ergibt für
aij (wi ) =
m
X
i=1
aij
p
X
k=1
bki zk
=
also auf Grund der eindeutigen Basisdarstellung
Denition.
n;
Eine quadratische Matrix
A
1j
p X
m
X
n
bki aij zk ;
k=1 i=1
P
ckj = mi=1 bki aij .
über einem Körper oder
Ring heiÿt invertierbar oder regulär oder nicht singulär , wenn es eine
Matrix
B
über demselben Körper oder Ring gibt, mit
AB
=
E
=
BA. Nur quadratische Matrizen können invertierbar sein. Die Menge
GL(n; K ) = fA 2 M(n; K ) j A invertierbarg heiÿt allgemeine lineare
Gruppe über dem Körper K vom Grad n. Der nächste Satz rechtfertigt,
1
dass man die Inverse von A mit A
bezeichnet.
Satz 3.3.2. GL(n; K ) ist bzgl. Matrixmultiplikation eine Gruppe mit E
T
T 1 = (A 1 )T .
als Eins. Mit A ist auch A invertierbar und (A )
GL(n; K ),
ABB 1 A 1 =
Beweis. Matrixmultiplikation ist eine Verknüpfung für
A; B
2 GL(n; K ) gilt (AB )
da
= B A , denn
E,
E rechtsneutral, und die Inversen exiT
stieren per denitionem. Mit A 2 GL(n; K ) ist auch A 2 GL(n; K ),
1
denn AA
= E = E T = (A 1 )T AT , also (AT ) 1 = (A 1 )T .
für
1
1
1
laut Assoziativgesetz. Sowieso ist
Beispiel.
1
3
2
4
1
1
=
10
4 2
3 1
.
LINEARE ALGEBRA
Denition.
Basen von V .
A
Seien
= (v1 ; : : :
der Basis
A0
und
= (v10 ; : : :
; vn0 )
zwei
Der Übergang von einer Basis zu einer anderen heiÿt
Basistransformation . Sei
A0
; vn )
41
vj0
=
Pn
i=1 pij vi , 1
A.
bzgl. der Basis
j n, die Darstellung
Die quadratische Matrix
P
= (pij )
ist eindeutig bestimmt und heiÿt Basistransformationsmatrix von
A0 .
nach
Basistransformationsmatrix
P
invertiert.
Pn
i=1 pij vi
für alle
n, d.h.
P
A
wird die
ist auch die
deniert durch
(vj )
=
= M (A; A) = Mid (A0 ; A):
P
(3.2)
1j
A0
und
Die Matrix
darstellende Matrix des Automorphismus
vj0 =
A
Bei Vertauschung der Reihenfolge von
PnP kann man den Koordinatenvektor (a1 ; : : : ; an ) des Vektors v =
der Basis (v1 ; : : : ; vn )
i=1 ai vi bzgl.P
n
0
0
0 0
in den Koordinatenvektor (a1 ; : : : ; an ) von v =
i=1 ai vi bzgl. der an0
0
deren Basis (v1 ; : : : ; v ;n ) umrechnen,
0 0 1
0
1
Mit der Basistransformationsmatrix
@
Denn
v=
n
X
i=1
Folglich ist
ai vi =
n
X
a1
.
..
a0n
A=P
a0j vj0 =
j =1
Pn
ai = j =1 pij a0i .
Satz 3.3.3.
n
X
j =1
a0j
1
@
a1
.
..
an
n
X
i=1
A:
pij vi
=
n X
n
X
i=1 j =1
Für einen endlich dimensionalen Vektorraum
neare Abbildung
:V
!W
pij a0j vi :
V
ist die li-
genau dann ein Isomorphismus, wenn
eine (und damit alle) darstellenden Matrizen invertierbar sind. Insbe-
A; B von V bzw. W :
M (A; B ) 1 = M 1 (B; A):
sondere gilt für Basen
Beweis. Sei zuerst
=
M (A; B )
1
ein Isomorphismus, d.h.
dim V = dim W ,
und
A; B . Der inverse
N = M 1 (B; A).
1
1
Die Identität id jV = = wird bzgl. der Basis A durch die
Einheitsmatrix dargestellt. Also gilt NM = E = MN nach Satz 3.3.1,
d.h. alle darstellenden Matrizen von sind invertierbar, und es gilt die
sei
M
Isomorphismus
die darstellende Matrix bzgl.
habe die darstellende Matrix
behauptete Gleichung.
Habe umgekehrt
lende Matrix
M
=
bzgl. zweier Basen
M (A; B ).
A; B
die invertierbare darstel-
:W !V
M (B; A), dann ist
Sei die lineare Abbildung
deniert durch die darstellende Matrix
M
1
=
42
LINEARE ALGEBRA
= id jW und = id jV nach Satz 3.3.1,
= 1 . Also ist ein Isomorphismus.
und nach Satz 0.5.2 ist
Betrachtet man Basistransformationen als Automorphismen, dann ist
das folgende Korollar eine sofortige Konsequenz von Satz 3.3.3.
Korollar 3.3.4.
Basistransformationsmatrizen sind invertierbar und
jede invertierbare Matrix beschreibt eine Basistransformation. Die inverse Basistransformation wird durch die inverse Matrix beschrieben.
Satz 3.3.5. Seien V und W Vektorräume mit Basen A; A0 von V bzw.
B; B 0 von W . Sei : V ! W eine lineare Abbildung. Seien P und Q
0
0
die Basistransformationsmatrizen von A nach A und von B nach B .
Dann gilt
M (A0 ; B 0 ) = Q 1 M (A; B )P:
Beweis. Die Basistransformationen
P; Q lassen sich nach (3.2) als dar-
stellende Matrizen der jeweiligen Identitäten
ren, d.h.
(A0 ; A)
idV
und
(B 0 ; B ).
idW
interpretie-
P = MidV
und Q = MidW
Notiert man die
idV = idW unter Verwendung von Satz 3.3.1 für die dar-
Gleichung
stellenden Matrizen, dann erhält man die behauptete Gleichung
M (A; B )P
3.4.
= M idV (A0 ; B ) = MidW (A0 ; B ) = QM (A0 ; B 0 ):
Rang einer Matrix.
Es wird gezeigt, dass für Matrizen über Körpern Spaltenrang und Zeilenrang gleich sind. Das gilt i.A. nicht für Matrizen über Ringen.
Lemma 3.4.1.
Die Spaltenränge der darstellenden Matrizen einer li-
nearen Abbildung sind alle gleich dem Rang der linearen Abbildung.
M eine darstellende Matrix der linearen Abbildung .
Dann ist rang = dim Im() = dim (V ) = s-rang(M ). Denn für
die Einheitsvektoren ei gilt Mei = vi mit den Spaltenvektoren vi der
Matrix M , also hv1 ; : : : ; vn i = h(e1 ); : : : ; (en )i, nach (3.1), und der
Spaltenrang von M ist gleich dem Rang von .
Satz 3.4.2. Eine lineare Abbildung vom Rang r zwischen endlich
Beweis. Sei
dimensionalen Vektorräumen hat (bzgl. geeigneter Basen) eine darstellende Matrix der Form
Mr =
Er
0
Insbesondere existieren zu jeder Matrix
bare Matrizen
P
und
Q mit QCP
0
0
C
= Mr .
:
vom Spaltenrang
r invertier-
LINEARE ALGEBRA
43
: V ! W eine lineare Abbildung vom Rang r. Sei
V = U ker eine Komplementierung, und sei A = (v1 ; : : : ; vr ; : : : )
eine Basis von V , die der Zerlegung folgt. Wegen U \ ker = 0 ist
die Restriktion jU injektiv. Also hat W nach Satz 3.2.2 eine Basis
B = (v1 ); : : : ; (vr ); wr+1; : : : , und Mr = M (A; B ). Der Zusatz
Beweis. Sei
folgt nach Satz 3.3.5.
Satz 3.4.3.
Für Matrizen über Körpern sind Zeilenrang und Spalten-
rang gleich.
A gibt es nach Satz 3.4.2 invertierbare MaP; Q mit M = diag (Er ; 0) = QAP , und die Spaltenränge von A
und M sind gleich nach Lemma 3.4.1. Transposition vertauscht Zeilen
Beweis. Für eine Matrix
trizen
und Spalten, also insbesondere Zeilen- und Spaltenrang. Oensichtlich
sind Zeilen- und Spaltenrang von
M
gleich. Wegen
sind dann Zeilen- und Spaltenrang von
Denition.
A gleich.
rang
En = n. Für eine
rang M (A; B ) für beliebige Basen
0,
=
P T AT QT
Der Spalten- bzw. Zeilenrang einer Matrix mit Einträgen
aus einem Körper heiÿt Rang der Matrix.
Rang
MT
und
Die Nullmatrix hat den
lineare Abbildung
ist rang =
A und B . Der Rang einer oberen
n-reihigen Dreiecksmatrix, deren Diagonaleinträge allesamt ungleich 0
sind, ist n.
Korollar 3.4.4. Für eine m n Matrix A über einem Körper gelten:
T
(1) rang A = rang A .
(2) rang A min(m; n).
(3) rang(AB ) min(rang A; rang B ).
(4) rang A = rang(QAP ) für invertierbare Matrizen P; Q.
Beweis. (1) und (2) folgen sofort aus der Gleichheit von Zeilen- und
Spaltenrang.
Wegen Satz 3.2.6, über die Ränge zusammen gesetzter
Abbildungen, gilt (3). Aus Satz 3.4.2 folgt (4).
Satz 3.4.5.
Für eine
n-reihige quadratische Matrix A über einem Kör-
per sind äquivalent:
(1)
A ist invertierbar.
(2) Es existiert genau eine Matrix
(3)
rang A = n.
A
1
Beweis. (1) und (2) sind äquivalent, weil
(2) =) (3):
Da
A A = En
1
meln aus Satz 3.4.4 sofort
mit
A 1 A = E = AA
GL(n; K )
rang En = n, folgt
rang A = n, also (3).
und
1
.
eine Gruppe ist.
mit den Rangfor-
44
LINEARE ALGEBRA
(3)=) (1):
Für eine Matrix
A
und
A
2 M(n; K ) vom Rang n gibt es nach
P; Q, so dass QAP
A ist invertierbar, d.h. (1) gilt.
=
Lemma 3.4.2 invertierbare Matrizen
1
= P Q,
E,
also
Äquivalenz und Ähnlichkeit von Matrizen.
Denition. Zwei Matrizen A; B 2 M(m n; K ) heiÿen äquivalent,
wenn es passende invertierbare Matrizen P und Q gibt, mit B = QAP .
Satz 3.5.1. (1) Äquivalenz von Matrizen ist eine Äquivalenzrelation.
E
r 0
Jede Äquivalenzklasse hat einen Repräsentanten der Form
.
3.5.
0
0
(2) Zwei Matrizen von gleichem Format sind genau dann äquivalent,
wenn sie gleichen Rang besitzen.
(3) Es gibt genau
1 + min(m; n)
(4) Die darstellenden Matrizen
bildung
:V
!W
Äquivalenzklassen von
M (A; B )
m n Matrizen.
für eine xierte lineare Ab-
bilden (bei Variation der Basen
A
und
B)
eine
komplette Äquivalenzklasse.
Beweis. (1): Reexivität, Symmetrie und Transitivität lassen sich leicht
zeigen, und die Repräsentanten gewinnt man mit Lemma 3.4.2.
(2): Nach Korollar 3.4.4 (4) haben äquivalente Matrizen gleichen Rang,
und umgekehrt sind Matrizen gleichen Ranges nach Lemma 3.4.2 äquivalent.
(3):
Nach Korollar 3.4.4 (2) ist der Rang einer
min(m; n)
mn
Matrix
und die Nullmatrix bildet eine eigene Äquivalenzklasse.
(4): Nach (2) und Satz 3.3.5 liegen alle darstellenden Matrizen von
in einer Äquivalenzklasse. Nach Korollar 3.3.4 ist umgekehrt auch jede
Matrix der Äquivalenzklasse eine darstellende Matrix von
Denition.
Zwei gleichgroÿe quadratische Matrizen
ähnlich, wenn es eine invertierbare Matrix
P
.
A und B heiÿen
B = P 1 AP .
gibt, mit
Die Ähnlichkeit von Matrizen ist eine Äquivalenzrelation, wie man
leicht bestätigt. Ähnliche Matrizen sind natürlich äquivalent, d.h. sie
haben gleichen Rang, und jede Äquivalenzklasse quadratischer Matrizen zerfällt in komplette Ähnlichkeitsklassen.
Weiter bilden die darstellenden Matrizen eines xierten Endomorphismus
, also fM (A; A) j A Basisg, eine komplette Ähnlichkeitsklasse,
als Spezialfall von Satz 3.5.1 (4).
LINEARE ALGEBRA
45
Abbildungsraum, Dualraum und Faktorraum.
Denition. Für K -Vektorräume V und W heiÿt die Menge aller
linearen Abbildungen : V
! W der Abbildungsraum von V nach W ,
HomK (V; W ) = f j : V ! W; linearg:
Satz 3.6.1. Der Abbildungsraum HomK (V; W ) ist ein K -Vektorraum
vermöge der linearen Operationen für ; 2 HomK (V; W ), a 2 K :
( + )(v ) = (v ) + (v ) und (a)(v ) = a (v ) für alle v 2 V:
3.6.
Beweis. Die linearen Operationen sind wohldeniert, denn
+
ist
wieder eine lineare Abbildung, wegen
( + )(v + v 0 ) = (v + v 0 ) + (v + v 0 )
= (v ) + (v 0 ) + (v ) + (v 0 )
= ( + )(v ) + ( + )(v 0 );
v; v 0 2 V ; und analog ( + )(av ) = a( + )(v ) für alle v 2 V .
0
Weiter ist auch a eine lineare Abbildung, denn sowieso ist a(v + v ) =
0
a(v ) + a(v ), für alle v 2 V ; aber für die skalare Multiplikation muss
man die Kommutativität des Körpers K verwenden, denn
(a)(bv ) = a(bv ) = ab(v ) = b(a)(v ); für alle v 2 V:
für alle
Der formale, aber langatmige, Nachweis aller Vektorraumaxiome wird
weggelassen, z.B. für die gemischten Distributivitäten:
a( + ) (v )
(a + b) (v )
Denition.
=
=
(a) + (a ) (v )
(a) + (b) (v )
v 2 V;
v 2 V:
für alle
für alle
Die Automorphismen eines Vektorraumes bilden eine
GLK (V ), die Automorphismengruppe oder lineare
Gruppe,
K -Vektorraumes V .
Satz 3.6.2. Der Abbildungsraum
Gruppe des
EndK V = HomK (V; V )
wird mit
Hintereinanderausführung von Endomorphismen als Multiplikation zum
Ring mit
1,
dem sog. Endomorphismenring von
V.
Beweis. Die Hintereinanderausführung von Endomorphismen ist wieder ein Endomorphismus, vgl. die Denition linearer Abbildungen, und
sowieso assoziativ.
nachzuweisen.
Deshalb genügt es die beiden Distributivgesetze
( + ) (v ) = ( + )
=
(v ) = (v )
( ) + ( ) (v );
+
(v )
46
für alle
LINEARE ALGEBRA
v 2 V , d.h. ( + ) = + .
Analog zeigt man das zweite
Distributivgesetz.
Satz 3.6.3. Für zwei K -Vektorräume V; W der Dimensionen n bzw. m
ist HomK (V; W ) = M(m n; K ) mit Dimension mn.
Fixiert man Basen A = (v1 ; : : : ; vn ) und B = (w1 ; : : : ; wm ) von V
bzw. W , dann ist 7! M (A; B ) ein solcher Isomorphismus.
M(m n; K ) die Dimension mn. Die
7! M (A; B ) ist laut Denition einer darstellenden Matrix
Beweis. Nach Satz 3.1.1 hat
Abbildung
wohldeniert, linear, injektiv und surjektiv, also ein Isomorphismus.
Denition. Seien R; S Ringe mit 1. Eine bijektive
R ! S heiÿt Ringisomorphismus , wenn für a; b 2 R,
'(a + b) = '(a) + '(b)
R und S
heiÿen dann isomorph,
und
R
= S.
Abbildung
'
:
'(ab) = '(a)'(b):
Genauso gibt es Gruppeniso-
morphismen .
Korollar 3.6.4.
Für einen
K -Vektorraum V
EndK (V ) = M(n; K )
und
der Dimension
GLK (V ) = GL(n; K );
n sind
als Ring bzw. als Gruppe.
Fixiert man eine Basis
A = (v1 ; : : : ; vn) von V , dann ist 7! M (A)
jeweils ein solcher Isomorphismus.
Beweis. Die Abbildung
7! M (A) ist laut Denition einer darstel-
lenden Matrix wohldeniert. Diese Abbildung ist linear, injektiv und
surjektiv, also ein Vektorraum-Isomorphismus im Falle des Endomorphismenringes, und multiplikativ nach Satz 3.3.1, also ein Ringisomorphismus. Nach Satz 3.3.1 und Satz 3.3.3 ist diese Abbildung ein Gruppenisomorphismus im Falle der linearen Gruppe.
Bemerkung.
Satz 3.6.3 und Korollar 3.6.4 zusammen mit Formel (3.1)
versetzen uns in die Lage zwischen basisfrei notierten linearen Abbildungen und deren darstellenden Matrizen hin und her zu wechseln.
Denition. Ein Ring, der zugleich ein K -Vektorraum ist, heiÿt eine
K -Algebra, z.B. ist EndK (V ) eine K -Algebra. Der Abbildungsraum
V = HomK (V; K ) heiÿt der Dualraum des K -Vektorraumes V . Eine
LINEARE ALGEBRA
47
2 V heiÿt Linearform . Der Kern
dem n-dimensionalen Vektorraum V hat
lineare Abbildung
einer Linear-
form
die Dimensi-
on
n
toren
6= 0 auf
1.
Die darstellenden Matrizen für Linearformen sind Zeilenvek-
(a1 ; : : :
; an )
und, wenn
v
= (b1 ; : : :
; bn )
mit seinem Koordina-
tenvektor identiziert wird, dann nimmt die Gleichung (3.1) die Form
eines Skalarproduktes an,
M (A; B )v = (a1 ; : : : ; an )(b1 ; : : : ; bn )T
= a1 b1 + + an bn :
Beispiel. Die lineare Abbildung (a1 ; :::; an ) 7! a1 + + an von K n !
K ist eine Linearform. Auch die Abbildung (a1 ; : : : ; an ) 7! ai für ein
festes i ist eine Linearform, genauer eine Projektion . Ordnet man einem
Vektor, z.B. aus
R
2
, seine Länge zu, so ist das keine Linearform, da
Längen nicht negativ werden können. Man sagt dazu Norm .
Satz 3.6.5. Sei B = fv1 ; : : : ; vng eine Basis des K -Vektorraumes V .
Seien 1 ; : : : ; n 2 V deniert mit dem Kroneckersymbol durch
i (vj ) = Æij ; i; j = 1; : : : ; n:
Dann ist B = f1 ; : : : ; n g eine Basis von V , die sogenannte Dual
basis zu B . Insbesondere gelten dim V = dim V = n und V = V .
=
PnHomK (V; K ) = M(1 n) =
Aus
i=1 ai i = 0 folgt für jedes j
Beweis. Nach Satz 3.6.3 ist
Grund gleicher Dimension.
V
n
X
aj = aj j (vj ) = (
d.h. die
i=1
V
auf
ai i )(vj ) = 0;
i sind linear unabhängig, und bilden eine Basis.
Bemerkung.
gröÿer als
Für unendlich dimensionale Vektorräume ist
dim V .
Insbesondere sind
V
und
V
nur für endlich dimen-
sionale Vektorräume isomorph. Dann gilt aber auch
und man identiziert
Denition.
orthogonales
V
und
V dim V V
= V = V in natürlicher Weise.
Für einen Unterraum
U
V
heiÿt
U ? = f 2 V j (u) = 0 für alle u 2 U g
Komplement von U in V . Das orthogonale
U ? ist linear abgeschlossen, also ein Unterraum.
Satz 3.6.6. Für einen Unterraum U eines Vektorraumes V
?
Dimension ist dim U = dim V
dim U und
U = U ?? = fv 2 V j (v ) = 0 für alle 2 U ? g:
Komple-
ment
endlicher
48
LINEARE ALGEBRA
V = U W eine Komplementierung, seien A; B Basen
von U bzw. W . Dann ist (A [ B ) = fa ; b j a 2 A; b 2 B g die
?
Dualbasis. Oensichtlich ist B = fb j b 2 B g U , und für ein
P
P
?
allgemeines Element =
a2A ca a + b2B cb b 2 V gilt 2 U
genau dann, wenn ca = 0, für alle a 2 A. Also ist B eine Basis
?
?
von U , und dim U = dim W = dim V
dim U .
??. Umgekehrt ist ein allgemeines Element v =
Sowieso ist U U
P
P
u + w = a2A ca a + b2B cb b 2 V genau dann in U ??, wenn 0 =
b (u + w) = b (w) = cb für alle b 2 B , da B eine Basis von U ? ist,
?? U mit Gleichheit.
d.h. U
Beweis. Sei
Korollar 3.6.7. Für einen endlich dimensionalen Vektorraum V ist
? eine Dualität, d.h. eine ordnungsumkehrende
die Abbildung U 7! U
Bijektion, zwischen der Menge der Unterräume von V und der Menge
?
?
der Unterräume von V , d.h. aus U1 U2 folgt U1 U2 .
U ?. Für die Abbildungen '; , gegeben durch U !
7 U ? bzw. U ? 7! U , gelten wegen
U
=
U ??,
U
U1
Beweis. Aus
2
folgt oensichtlich
'
vgl. Satz 3.6.6,
'
= id
und
U1?
2
' = id.
Also ist
' bijektiv
nach Satz 0.5.2.
Beispiel.
K
Sei
= GF(q )
der endliche Körper mit
Dann hat der arithmetische Vektorraum
Kn
q = pn
Elementen.
genauso viele Unterräume
r, wie der Dimension n r.
Denition. Für einen Unterraum U V ist eine Äquivalenzrelation
0
auf V deniert durch, v U v , falls v
v 0 2 U . Eine Äquivalenzklasse [v ] = v + U = fv + u j u 2 U g heiÿt auch Nebenklasse oder
aner Unterraum . Ein Element aus einer Nebenklasse, z.B. v heiÿt
Repräsentant . Die Quotientenmenge von V bzgl. dieser Relation, also
die Menge der Äquivalenzklassen V=U = V= U = f[v ] j v 2 V g heiÿt
Faktorraum von V nach U , vgl. Satz 3.6.8.
der Dimension
Satz 3.6.8.
Sei
der Faktorraum
V ein K -Vektorraum mit Unterraum U . Dann ist
V=U auch ein K -Vektorraum vermöge der induzierten
linearen Operationen
[v1 ] + [v2 ] = [v1 + v2 ]
Hat
V
und
a[v ] = [av ]:
dim(V=U ) = dim V dim U .
deniert durch '(v ) = [v ] ist linear
endliche Dimension, dann ist
Abbildung
':V
surjektiv, mit
! V=U ,
ker ' = U ,
der sog. kanonische Epimorphismus.
Die
und
LINEARE ALGEBRA
49
Beweis. Die induzierten linearen Operationen sind wohldeniert, da
v1 ; v2 bzw. v sind.
v1 ; v10 2 [v1 ] und v2 ; v20 2 [v2 ], also v1 v10 = u1 2 U und
v2 v20 = u2 2 U , ist
v1 + v2 = (v10 + u1 ) + (v20 + u2 ) = (v10 + v20 ) + (u1 + u2 ) 2 (v10 + v20 ) + U;
0
0
folglich ist [v1 + v2 ] = [v1 + v2 ], unabhängig von den Repräsentanten.
Gleiches zeigt man für [av ]. Damit wird V=U zu einer additiven abelschen Gruppe mit [0] = 0 + U = U als Null und
[v ] = v + U = [ v ]
als negativem Element. Um V=U als Vektorraum nachzuweisen, müssen
sie unabhängig von den jeweiligen Repräsentanten
Denn für
die Assoziativität, die gemischten Distributivgesetze und die Normierung bestätigt werden, exemplarisch
a [v] + [v0 ]
= a[v + v 0 ] =
Die Abbildung
a(v + v0 )
= [av + av 0 ] = [av ] + [av 0 ] = a[v ] + a[v 0 ]:
' ist oensichtlich surjektiv, und sogar linear, auf Grund
der Denition der induzierten linearen Operationen. Also gilt nach dem
Dimensionssatz 3.2.4 für Abbildungen
Bemerkung.
Der kanonische Epimorphismus von
eine Komplementierung von
lich
V
=
U
dim V = dim U +dim(V=U ).
W
U
V
mit Kern
U
und
stehen in direkter Beziehung. Sei näm-
eine Komplementierung, dann gilt mit der eindeu-
v = u + w 2 V mit u 2 U und w 2 W sofort
[v ] = '(v ) = '(w ) = [w ]. Man erhält zusätzlich die folgenden linearen Abbildungen : V
! W , deniert durch (v) = w, und
: V=U ! W , deniert durch ([v ]) = w. Damit ist = ' eine
sog. Zerlegung der Abbildung . Die Abbildung ist die Projektion
2
von V auf W , d.h. es gilt = , und ist ein Isomorphismus, denn
insbesondere gilt dim(V=U ) = dim W .
tigen Darstellung
Der nächste Satz, für allgemeine algebraische Strukturen Homomor-
phiesatz genannt, folgt für endlich dimensionale Vektorräume sofort
aus Satz 3.6.8 und dem Dimensionssatz 3.2.4 für lineare Abbildungen.
Satz 3.6.9.
:V
V= ker() = W:
Für einen Epimorphismus
!W
ist
Der nächste Satz, für allgemeine algebraische Strukturen noetherscher
Isomorphiesatz genannt, folgt für endlich dimensionale Vektorräume
sofort aus dem Satz 3.6.8 und dem Dimensionssatz 2.3.2 für Unterräume.
Satz 3.6.10.
U; W des Vektorraumes V
(U + W )=W = U=(U \ W ):
Für Unterräume
ist
50
LINEARE ALGEBRA
4. Lineare Gleichungssysteme und Gauÿalgorithmus
Lineare Gleichungssysteme.
Denition. Sei A = (aij ) eine m n Matrix über dem Körper K ,
T
m ein Spaltenvektor. Dann heiÿt
und sei b = (b1 ; : : : ; bm ) 2 K
a11 x1 + + a1n xn = b1
4.1.
..
.
..
.
am1 x1 + + amn xn = bm
T 2 K n das
ein lineares Gleichungssystem . Wenn x = (x1 ; : : : ; xn )
Gleichungssystem löst, dann heiÿt x ein Lösungsvektor . Man schreibt
ein lineares Gleichungssystem kurz Ax = b.
Das lineare Gleichungssystem heiÿt homogen , wenn b = 0, sonst inhon
mogen . Die Gesamtlösung ker A = fx 2 K j Ax = 0g des homogenen
Gleichungssystems, Ax = 0, ist linear abgeschlossen, also ein Untern
raum von K und heiÿt Kern von A.
Satz 4.1.1. Das lineare Gleichungssystem Ax = b ist genau dann lösbar, wenn rang A = rang(A; b). Das homogene System hat immer die
triviale Lösung, und falls A 2 M(m n; K ) vom Rang m ist, dann ist
Ax = b für jedes b lösbar.
A = (v1 ; : : : ; vn ) in
rang(A) = rang(
Pn A; b). Ist
umgekehrt diese Rangbedingung erfüllt, dann ist b =
i=1 xi vi eine
T
Linearkombination der Spalten von A, und damit ist x = (x1 ; : : : ; xn )
Beweis. Wenn
Ax
=P
b lösbar
Spaltenschreibweise,
ist, dann ist, mit
n
i=1 xi vi =
b,
d.h.
eine Lösung. Die Zusätze sind dann oensichtlich.
Beispiel.
Das folgende lineare Gleichungssystem erfüllt die Lösbar-
keitsbedingung von Satz 4.1.1 nicht, und ist oensichtlich unlösbar.
x1 + x2 = 0;
x1 + x2 = 1:
Satz 4.1.2. Sei A 2 M(m n; K ). Die Gesamtlösung, des homogenen Gleichungssystems Ax = 0 ist ein Vektorraum der Dimension
n rang A. Die Gesamtlösung, des inhomogenen Gleichungssystems
Ax = b ist, im Falle der Lösbarkeit, x0 + ker A = fx0 + y j Ay = 0g
wobei x0 (irgend-)eine spezielle Lösung ist, also Ax0 = b.
Beweis. Sei
! K m eine lineare Abbildung mit darstellender
A bzgl. der beiden Standardbasen. Dann kann man ker A mit
Unterraum ker ' identizieren und erhält nach Satz 3.2.2, dass
Matrix
dem
' : Kn
LINEARE ALGEBRA
ker A
51
ein Vektorraum ist. Nach dem Dimensionssatz 3.2.4 für Abbil-
dungen gilt dann
n = dim V
= dim ker ' + dim '(V ) = dim ker A + rang A:
x1 eine weitere Lösung, d.h. Ax1 = b, dann gilt A(x1 x0 ) = 0,
d.h. x1 = x0 + y mit y 2 ker A. Somit liegt jede Lösung von Ax = b
in x0 + ker A. Umgekehrt ist auch jedes Element x0 + y mit y 2 ker A
Sei
eine Lösung.
Korollar 4.1.3. Für A 2 M(n; K ) sind äquivalent:
(1) Ax = 0 hat nur die Lösung 0.
(2) Ax = b ist für jedes b eindeutig lösbar.
(3) rang A = n.
(4) A ist invertierbar.
1
Die eindeutig bestimmte Lösung ist dann x = A b.
Beweis. (3) und (4) sind nach Satz 3.4.5 äquivalent.
Aus (4) folgen
x = A 1 b die einzige Lösung für invertierbares A
ist. Sowohl aus (1) als auch aus (2) folgt, dass entweder 0 oder b eine
eindeutige Linearkombination der Spalten von A ist, d.h. die Spalten
von A sind linear unabhängig und rang A = n. Also folgt (3).
sofort (1) und (2), da
Elementare Umformungen.
Denition. Elementare Zeilenumformungen
4.2.
(Spaltenumformungen )
einer Matrix sind
(1) Multiplikation einer Zeile (Spalte) mit einem Skalar
(2) Vertauschung zweier Zeilen (Spalten),
6= 0,
(3) Addition des Vielfachen einer Zeile (Spalte) zu einer anderen.
Es gibt drei Typen von elementaren Matrizen
(1)
Mi (a) = E + (a
0
B
B
B
B
B
=B
B
B
B
@
1)Eii =
1
1
..
C
C
C
C
C
C:
C
C
C
A
.
1
a
1
..
.
1
Die Matrix
a 6= 0.
Mi (a) ist invertierbar und Mi (a)
1
=
M i (a
1
),
falls
52
LINEARE ALGEBRA
(2)
Vij = E
Eii + Eij
0
Ejj + Eji =
1
1
B
B
B
B
B
B
B
B
B
=B
B
B
B
B
B
B
B
B
@
..
C
C
C
C
C
C
C
C
C
C:
C
C
C
C
C
C
C
C
A
.
1
1
.
.
.
..
.
.
.
1
0
1
.
1
0
1
..
.
1
Vij erfüllt Vij
ZA(i; j; a) = E + aEij =
Die Matrix
(3)
0
B
B
B
=B
B
@
1
= Vij ,
ist also selbstinvers.
1
1
..
a
C
C
C
C:
C
A
.
1
ZA(i; j; a) ist invertierbar und ZA(i; j; a)
1
= ZA(i; j;
a).
Das folgende Korollar ergibt sich sofort aus den Denitionen.
Korollar 4.2.1.
Elementare Matrizen sind invertierbar und ihre In-
versen sind wieder elementare Matrizen.
Elementare Zeilenumformungen (Spaltenumformungen) und Linksmultiplikationen (Rechtsmultiplikationen) mit den entsprechenden elementaren Matrizen bewirken dasselbe. Insbesondere treten keine Rangänderungen ein.
0
Denition.
Sei die Matrix
A
B
= @
z1
.
.
.
zn
1
C
A
zeilenweise geschrieben.
A hat Treppenform , wenn sich die Zahl der führenden Nullen
der Zeilen z1 ; z2 ; : : : streng monoton erhöht.
Man sagt
0
Beispiel.
1
0 1 6 7 4
@ 0 0 0 2 3 A
0 0 0 0 0
0
ist in Treppenform,
1
1 2 3
@ 4 5 6 A
0 0 7
gen nicht.
Das folgende Korollar ist eine Konsequenz von Korollar 4.1.3.
dage-
LINEARE ALGEBRA
Korollar 4.2.2.
53
Der Rang einer Matrix in Treppenform ist gleich der
Anzahl der Zeilen ungleich
0.
Insbesondere ist eine Matrix in Treppen-
form genau dann invertierbar, wenn sie eine obere Dreiecksmatrix ist
mit Diagonalelementen, die sämtlich ungleich
0
sind.
Gauÿalgorithmus.
Sei 0 6= A 2 M(m n; K ) über einem Körper K .
4.3.
(1) In der ersten Spalte, die ungleich
0
ist, also z.B. in der
Spalte, wird durch Zeilenvertauschung
a1j 6= 0 erreicht.
j -ten
(2) Durch Aufaddieren von geeigneten Vielfachen der ersten Zeile auf
die folgenden annulliert man alle Einträge in der
Zeilenindex
2.
j -ten Spalte ab
(3) Die erste Zeile lässt man unverändert, und verfährt mit der Restmatrix, d.h. alle Zeilen mit Index
2, genauso.
Dieses Verfahren, iteriert, heiÿt Gauÿalgorithmus . Damit erhält man
eine Matrix in Treppenform.
Satz 4.3.1.
Der Gauÿalgorithmus überführt eine Matrix in Treppen-
A existiert eine invertierbare Matrix B , so dass
BA in Treppenform ist. Es gilt rang A = rang BA.
form. Für jede Matrix
Beweis. Durch den Gauÿalgorithmus wird die Matrix
A
in Treppen-
form überführt. Nach Korollar 4.2.1 geschieht diese Umformung ohne
Rangänderung, schlieÿlich durch Linksmultiplikation mit einer invertierbaren Matrix
B , nämlich dem Produkt aller elementaren Matrizen,
die von links heran multipliziert werden.
Bemerkung.
Der Gauÿalgorithmus ist ein praktikables Verfahren zur
Bestimmung des Ranges einer Matrix. Er bricht ab, wenn die Restmatrix
0
ist. Elementare Zeilenumformungen vom Typ (1), also Multipli-
kationen von Zeilen mit Skalaren
nicht verwendet.
6= 0, wurden beim Gauÿalgorithmus
Das gewinnt später bei der Berechnung der Deter-
minante an Bedeutung. Der Rang einer Matrix ist eine algorithmische
Gröÿe , und keine explizite Funktion, d.h. es gibt keine für alle Matrizen gleiche Funktion, z.B. der Matrixeinträge, die als Wert den Rang
einer Matrix hat.
Satz 4.3.2.
Die allgemeine lineare Gruppe wird von den elementaren
Matrizen erzeugt, d.h. jede invertierbare Matrix ist ein Produkt von
elementaren Matrizen.
54
LINEARE ALGEBRA
A führt der Gauÿalgorithmus zu
einer invertierbaren oberen Dreiecksmatrix BA, wobei B das Produkt
Beweis. Für eine invertierbare Matrix
von elementaren Matrizen ist. Insbesondere sind alle Diagonaleinträge
ungleich
0
und gestatten, beginnend mit der letzten Zeile, wiederum
mit elementaren Zeilenoperationen, d.h. mit Linksmultiplikationen mit
Elementarmatrizen, eine Überführung von
Diagonalmatrix
B; C; D,
CBA
=
D.
Somit ist
A
BA in eine (invertierbare)
B 1 C 1 D. Hierbei sind
=
und damit auch ihre Inversen, allesamt Produkte von Ele-
mentarmatrizen. Also ist jede invertierbare Matrix das Produkt von
Elementarmatrizen.
Der folgende Satz sichert, dass sich die Lösung eines linearen Gleichungssystems bei Umformung der Matrix, mittels Gauÿalgorithmus,
in Treppenform nicht verändert.
Satz 4.3.3.
A invertierbar und sei B das Produkt der
elementaren Matrizen, die A in Treppenform überführen, d.h.
0
c11
1
..
A
BA = @
.
0
cnn
ist eine (invertierbare) obere Dreiecksmatrix mit c11 cnn 6= 0. Dann
ist die Lösung von Ax = b dieselbe wie von BAx = Bb und rekursiv beT
stimmbar. Genauer, sei C = (cij ) = BA und d = (d1 ; : : : ; dn ) = Bb.
Dann lassen sich die Komponenten xi der Lösung rekursiv bestimmen:
d
c d
c
d
xn = n ; xn 1 = n;n n 1 n 1;n n ; usw. :
cn;n
cn 1;n 1cn;n
Sei die Matrix
Beweis. Die linearen Gleichungssysteme
die gleichen Lösungen, weil
der
B
Ax = b und BAx = Bb haben
invertierbar ist.
xi ergibt die angegebenen Formeln.
Rekursives Einsetzen
Man nennt das Verfahren, die Lösung eines linearen Gleichungssystems,
mit Matrix in Treppenform, rekursiv zu erhalten, Gauÿelimination .
Explizite Invertierung von Matrizen.
1
Sei A invertierbar und sei A
= (v1 ; : : : ; vn ) spaltenweise geschrieben.
Dann gelten Avi = ei , für i = 1; : : : ; n. D.h. man erhält durch die
Lösung der n linearen Gleichungssysteme Ax = ei , für i = 1; : : : ; n,
die Inverse von A. Oft verwendet man den Gauÿalgorithmus, um die
Inverse zu bestimmen. Man bringt die erweiterte Matrix (A; E ) mit
elementaren Zeilenumformungen in die Form (E; B ), vgl. Satz 4.3.2.
1
Dabei entsteht automatisch B = A , weil dem Gauÿalgorithmus die
LINEARE ALGEBRA
55
Linksmultiplikation mit einer invertierbaren Matrix entspricht, die hier
A 1 ist, denn A 1 (A; E ) = (E; A 1 ).
Satz 4.3.4. Die invertierbaren, oberen Dreiecksmatrizen
gleich
bilden eine
Gruppe, analog die unteren.
Beweis. Es genügt zu zeigen, dass die Menge der invertierbaren, z.B.
oberen, Dreiecksmatrizen bzgl. Multiplikation und Inversion abgeschlos-
A = (aij ) ist genau dann eine obere Dreiecksma= 0 für alle i > j . Für die Einträge eines Produk=
P AB zweier oberer Dreiecksmatrizen A; B ist cij =
sen ist. Eine Matrix
aij
(cij )
trix, wenn
Pn C =
k=1 aik bkj =
weil cij für i >
tes
gemäÿ
0
j
ikj aik bkj ,
also ist
AB
eine obere Dreiecksmatrix,
durch eine leere Summe gegeben ist, die denitions-
ist.
Um die Abgeschlossenheit bzgl. Inversion zu zeigen, genügt es in der
AB = E mit einer invertierbaren oberen Dreiecksmatrix B ,
A = B 1 als obere Dreiecksmatrix nachzuweisen. Aus der
Gleichung AB = E folgt durch Bestimmung der ersten Spalte des Produkts, dass die erste Spalte von A ein Vielfaches ae1 des ersten EinGleichung
die Matrix
heitsvektors ist. Damit folgt weiter durch die Bestimmung der zweiten
Spalte des Produkts, dass die zweite Spalte von
A
eine Linearkombi-
nation der ersten beiden Einheitsvektoren ist, usw., es ergibt sich eine
obere Dreiecksmatrix für
A.
Bemerkung. (1) Für eine invertierbare obere Dreiecksmatrix A folgt,
1
wegen a11 ann 6= 0, aus der Matrixgleichung AA
= E:
0
1 1 0
a11
a111
1
..
..
A =@
A:
A 1=@
.
.
0
ann
0
ann1
(2) Die Inverse einer unitriangulären Matrix
trix mit Diagonaleinträgen, die alle gleich
angeben. Sei
A=E
N
Pn 0 sind, also
P dij = 0
d
d
=
k=1 ik kj
i+1kj
Dreiecksmatrix Matrix
1
sind, lässt sich explizit
mit einer oberen Dreiecksmatrix
deren Diagonaleinträge
N 2 = (fij ), fij =
A, d.h. eine DreiecksmaN
= (dij ),
i + 1 > j . Dann gilt für
d
d . Also hat die obere
1 ik kj
für
N 2 nicht nur eine verschwindende Hauptdiago-
nale sondern auch eine verschwindende obere Nebendiagonale . Mit glei-
N j mindestens
n
N = 0. Quadra-
chem Argument, beweist man induktiv, dass die Potenz
j
1
verschwindende Nebendiagonalen besitzt, also
tische Matrizen
6= 0 heiÿen nilpotent , wenn eine Potenz die Nullmatrix
1 xn = (1 x)(1 + x + + xn ),
ist. Wendet man die Identität
vgl. geometrische Reihe , auf die beiden kommutierenden Matrizen
1
E; N
56
LINEARE ALGEBRA
N )(E + N + + N n 1 ) =
A(E + N + + N n 1 ), also die Inverse A 1 = E + N + + N n 1 .
(3) Für eine invertierbare obere Blockdreiecksmatrix A gilt
1 0 1
X
Y
Y
X
1
A = 0 Z
=
0
Z 1 ;
0
mit Y =
X 1 Y Z 1 , wie man durch Multiplikation bestätigt.
Satz 4.3.5. Jede invertierbare Matrix A über einem Körper gestattet
eine LU-Zerlegung. D.h. es existiert eine Permutationsmatrix P , eine
untere Dreiecksmatrix L, mit lauter Einsen auf der Hauptdiagonalen,
und eine obere Dreiecksmatrix U derart, dass AP = LU .
an, dann ergibt sich
E=E
N n = (E
Beweis. Beim Gauÿalgorithmus wendet man elementare Zeilenumformungen vom Typ (3) an, d.h. ein Vielfaches einer oberen Zeile wird
auf eine untere Zeile addiert. Diese Umformungen werden durch Linksmultiplikation mit einer invertierbaren unteren Dreiecksmatrix bewirkt,
vgl. die Denition der Elementarmatrizen. Die gleichfalls verwendeten
Zeilenvertauschungen, denen ja keine untere Dreiecksmatrix entspricht,
dienen dazu einen Pivot , das ist ein Eintrag ungleich
0,
auf die Diago-
nale zu permutieren. Das ist bei einer invertierbaren Matrix auch mit
Spaltenpermutationen möglich. Also gibt es, vgl. Satz 4.3.4, eine invertierbare untere Dreiecksmatrix
L
1
und eine Permutationsmatrix
so dass, entsprechend dem Gauÿalgorithmus,
in Treppenform ist. Also ist
lar 4.2.2, da
U
mit
U
L AP
1
=U
P,
eine Matrix
eine obere Dreiecksmatrix nach Korol-
A invertierbar ist.
Zur Numerik linearer Gleichungssysteme.
(1) Groÿe Matrizen passen womöglich nicht in den Computer, es
sei denn, sie sind dünn besetzt. Matrizen heiÿen dünn besetzt ,
wenn es vorteilhaft ist die Speicherung von Einträgen
0
zu un-
terdrücken, vgl. [1].
(2) Rundungsfehler wachsen beim Gauÿalgorithmus an und erzwingen u.U. eine Rechnung mit Gleitkommazahlen mit zunehmend
längerer Mantisse .
(3) Statt das Gleichungssystem
Ax b.
Ax
=
b
zu lösen, minimiert man
Dadurch vermeidet man Schwierigkeiten mit der Lösbar-
keitsbedingung.
(4) Lösungsverfahren, z.B. der Gauÿalgorithmus, lassen sich z.T. erheblich durch geeignete Umformungen der Matrix beschleunigen, z.B. durch geschickte Umordnung von Zeilen und Spalten,
vgl. [1].
LINEARE ALGEBRA
57
5. Determinanten
Quadratischen Matrizen über einem Körper oder Ring werden Skalare
zugeordnet, ihre sog. Determinanten. Sie beschreiben Volumina.
Beispiel. Die Zeilenvektoren der Matrix M = ac db spannen ein
Parallelogramm auf mit der orientierten Fläche det(M ) = ad
bc, der
Determinante der Matrix M . Die Matrix M ist übrigens genau dann
invertierbar, wenn det(M ) 6= 0.
Permutationen.
Denition. Eine bijektive Selbstabbildung der Menge M = f1; : : : ; ng
heiÿt Permutation von M . Die Permutationen von M bilden bzgl.
5.1.
der Hintereinanderausführung als Verknüpfung die symmetrische Grup-
Sn der Ordnung n!, vgl.[3, symmetric group]. Für 2 Sn bezeichnet
man = (1); : : : ; (n) . Eine Permutation , die nur i mit j verpe
tauscht und alle anderen Ziern xiert, heiÿt Transposition , bezeichnet
= (i; j ).
Satz 5.1.1. Die
mit
symmetrische Gruppe wird von den Transpositionen
erzeugt, d.h. jede Permutation ist das Produkt endlich vieler Transpositionen.
Beweis. Es wird eine Induktion über
2
ist klar, wegen
(1; 2) = id.
2
n
n
geführt. Der Beginn für
=
Sei die Behauptung richtig für alle
< n. Seien i = (i; n) Transpositionen für 1 Sei Sn 1 = f 2 Sn j (n) = ng. Damit erhält man eine
natürlichen Zahlen
in
1.
Partition
Sn = Sn
(5.1)
1
[
n[1
i=1
Sn 1 i :
Denn wegen der Kürzungsregel in Gruppen haben alle Mengen
fi j 2 Sn g die Mächtigkeit (n
1
se Mengen paarweise disjunkt, da für
i
1)! =
6= j
i
Sn 1 i =
jSn j, weiter sind die0
mit ; 2 Sn
folgt
1
6= 0j , weil die linke Permutation i nach n permutiert und die
rechte
j
nach
n.
1
Nach Induktionsannahme ist jedes Element in
Sn
1
ein Produkt aus Transpositionen, also nach (5.1) auch jedes Element
von
Sn .
Bemerkung.
Produktdarstellungen von Permutationen mittels Trans-
positionen sind nicht eindeutig, z.B.
id = (2; 1)(2; 1) = (3; 1)(3; 1).
58
LINEARE ALGEBRA
Denition.
Sei
n
2.
Die symmetrische Gruppe
Sn
operiert ,
vgl. [3, Groups Acting on Sets] durch Vertauschung der Indizes auf der
Menge
Z[x ; : : : ; xn] aller Polynome p(x ; : : : ; xn) in den Variablen xi,
1
1
vermöge
p(x1 ; : : : ; xn ) = p(x(1) ; : : : ; x(n) ) für 2 Sn :
Lemma 5.1.2. Sei n 2 und sei
Y
f (x1 ; : : : ; xn ) = (xj xi ) 2 Z[x1 ; : : : ; xn ]:
i<j
2 Sn
2 f+1; 1g, derart, dass
Dann gibt es für jede Permutation
Vorzeichen,
sign ein eindeutig bestimmtes
f (x1 ; : : : ; xn ) = (sign )f (x1 ; : : : ; xn ):
Transpositionen haben das Vorzeichen
1.
Beweis. Da Permutationen bijektiv sind, ist das Vorzeichen,
sign ,
wohldeniert und eindeutig. Weiter genügt es zu zeigen, dass das Vorzeichen der Transposition
hY
(1; 2)
i<j
i
(xj
xi )
(1; 2)
h
= (1; 2) (x2
gleich
x1 )
1
ist. Es gilt
Y
(xj
i<j
i;j )6=(1;2)
(
denn im Restprodukt bewirkt die Transposition
xi )
i
=
Y
i<j
(xj
xi );
(1; 2) nur eine Umord-
nung.
Denition. Das Vorzeichen einer Permutation heiÿt auch Signum ,
sign . Eine Permutation mit Vorzeichen +1 heiÿt gerade , sonst ungerade . Transpositionen sind ungerade.
Satz 5.1.3.
Für
; 2 Sn ist sign( ) = (sign )(sign ).
Insbesonde-
re gilt die Vorzeichenregel, d.h. das Produkt zweier ungerader Permutationen ist gerade. Es gilt
Produkt von
k
sign = ( 1)k ,
wenn die Permutation
ein
Transpositionen ist. Die Anzahlen der Transpositionen
in den Produktdarstellungen einer Permutation haben gleiche Parität.
Speziell sind gerade Permutationen Produkte einer geraden Anzahl von
Transpositionen.
Beweis. Nach Lemma 5.1.2 ist
( )f (x1 ; : : :
Ist
dass
; xn )
= f (x1 ; : : : ; xn ) = (sign )f (x1 ; : : :
= (sign )(sign )f (x1 ; : : : ; xn ):
; xn )
= 1 k ein Produkt von Transpositionen, dann folgt sofort,
sign = ( 1)k , also ist die Anzahl der Transpositionen in einer
LINEARE ALGEBRA
59
Produktdarstellung einer Permutation immer von gleicher Parität , d.h.
entweder gerade oder ungerade.
Das nächste Korollar gilt nach Satz 5.1.3 und weil
jSnj = n! ist.
Korollar 5.1.4. Es gibt gleich viele gerade wie ungerade Permutatio1
nen in Sn , nämlich n!. Die geraden Permutationen bilden eine Unter2
gruppe der Sn , die sog. alternierende Gruppe An . Insbesondere gelten:
sign id = +1 und sign = sign 1 .
Beweis. Mit einer ungeraden Permutation
multiplikation
An
7! 0 Abbildungen An
0 2 Sn werden per Links! Sn n An und Sn n An !
deniert, vgl. Satz 5.1.3. Beide Hintereinanderausführungen erge-
ben die jeweilige Identität. Also sind diese Abbildungen nach Satz 0.5.2
bijektiv, d.h.
jAnj = n!.
tergruppe von
1
2
Wiederum nach Satz 5.1.3 ist
An
eine Un-
Sn, weil id 2 An und weil Inverse und Produkt gerader
Permutationen wieder gerade sind.
Denition.
Eine quadratische Matrix, die in jeder Zeile und jeder
Spalte genau einen Eintrag
1
und sonst lauter Einträge
0
hat, heiÿt
Permutationsmatrix . Eine solche Matrix entsteht aus der Einheitsmatrix durch Permutation der Zeilen (Spalten) und ist invertierbar, da
sich hierbei der Rang nicht verändert.
Die
n-reihigen
Permutations-
matrizen bilden eine Gruppe bzgl. Multiplikation, isomorph zur symmetrischen Gruppe
Sn .
Die Einheitsmatrix ist das neutrale Element,
und für eine Permutationsmatrix
P
ist die Transponierte
PT
=
P
1
die inverse Matrix. Das Signum einer solchen Permutationsmatrix ist
gleich dem Signum der Permutation mit der man die Zeilen (Spalten)
der Einheitsmatrix umordnet, um die gegebene Permutationsmatrix zu
erhalten.
Multilinearformen.
Denition. Sei V ein K -Vektorraum und sei n 2. Eine Abbildung
' : Vn = V V ! K
heiÿt Multilinearform , oder genauer n-Linearform auf V oder n-linear ,
5.2.
wenn sie in allen Komponenten linear ist, d.h.
'(v1 ; :::; vi + vi0 ; :::; vn ) = '(v1 ; :::; vi ; :::; vn ) + '(v1 ; :::; vi0 ; :::; vn);
'(v1 ; :::; avi ; :::; vn ) = a'(v1 ; :::; vi ; :::; vn );
0
für alle a 2 K , vi ; vi 2 V und alle i = 1; : : : ; n. Für n = 2 spricht
man von Bilinearform . Eine n-Linearform ' heiÿt alternierend , wenn
60
LINEARE ALGEBRA
'(v1 ; : : : ; vn ) = 0, falls das Tupel (v1 ; : : : ; vn ) linear abhängig ist. Insbesondere gilt '(v1 ; : : : ; vn ) = 0 für eine alternierende n-Linearform ',
sofern vi = vj für i 6= j . Eine n-Linearform ' 6= 0 auf einem ndimensionalen Vektorraum V , heiÿt nicht ausgeartet , wenn v1 ; : : : ; vn 2
V existieren, so dass '(v1 ; : : : ; vn ) 6= 0, ansonsten ausgeartet.
Das Beispiel, det(M ), am Anfang dieses Kapitels ist eine nicht ausgeartete, alternierende Bilinearform der Spalten bzw. der Zeilen von M .
Lemma 5.2.1. Eine n-Linearform ist genau dann alternierend, wenn
'(v1 ; : : : ; vn ) = 0, falls vi = vj , i 6= j .
n-Linearform hat oensichtlich den Wert 0
falls Argumente wiederholt auftreten. Sei umgekehrt ' eine n-Linearform, die der angegebenen Bedingung genügt. Sei (v1 ; : : : ; vn ) ein linear
Pn
abhängiges Tupel von Vektoren, d.h.
i=1 ai vi = 0 mit o.B.d.A. a1 6= 0.
Pn
1
Also ist v1 =
a
a
v
und
i=2 1 i i
'(v1 ; : : : ; vn ) = a1 1 a2 '(v2 ; v2 ; : : : ) a1 1 a3 '(v3 ; v2 ; v3 ; : : : ) a1 1 an '(vn ; v2 ; : : : ; vn) = 0;
d.h. ' ist alternierend.
Lemma 5.2.2. Sei ' eine alternierende n-Linearform auf V , und sei
2 Sn eine Permutation. Dann gilt für v1 ; : : : ; vn 2 V
'(v(1) ; : : : ; v(n) ) = (sign )'(v1 ; : : : ; vn):
Beweis. Eine alternierende
Beweis. Für
n = 1 ist nichts zu zeigen.
Sei also jetzt
n 2.
Sätzen 5.1.1 und 5.1.3 genügt es für eine Transposition, z.B.
Nach den
(1; 2), den
Vorzeichenwechsel zu bestätigen. Es gilt wie behauptet:
'(v1 + v2 ; v1 + v2 ; v3 ; : : : )
'(v1 ; v1 ; v3 ; : : : ) + '(v1 ; v2 ; v3 ; : : : )
+'(v2 ; v1 ; v3 ; : : : ) + '(v2 ; v2 ; v3 ; : : : )
= '(v1 ; v2 ; v3 ; : : : ) + '(v2 ; v1 ; v3 ; : : : ):
Lemma 5.2.3. Sei (v1 ; : : : ; vn ) eine Basis des n-dimensionalen Vektorraumes V . Für eine alternierende n-Linearform ' auf V gilt:
X
(5.2)
'(u1 ; : : : ; un ) = '(v1 ; : : : ; vn )
(sign )a1;(1) an;(n) ;
0 =
=
wobei
Ist
P
ui = nk=1 aik vk ,
2Sn
für
i = 1; : : : ; n.
' zusätzlich nicht ausgeartet, dann ist '(v1 ; : : : ; vn ) = 0 äquivalent
v 1 ; : : : ; vn .
zur linearen Abhängigkeit der
LINEARE ALGEBRA
Beweis. Unter Verwendung der
'(u1 ; : : : ; un) =
n X
n
X
k1 =1 k2 =1
61
n-Linearität ergibt sich
n
X
kn =1
a1;k1 an;kn '(vk1 ; : : : ; vkn ):
' alternierend, dann gilt '(vk1 ; : : : ; vkn ) = 0, falls (k1 ; : : : ; kn ) keine
Permutation von (1; : : : ; n) ist, und mit Berücksichtigung des VorzeiIst
chens gemäÿ Lemma 5.2.2 folgt die Formel (5.2). Wenn auch nur für
eine Basis
(v1 ; : : :
; vn )
mel (5.2) identisch
gilt
0.
'(v1 ; : : : ; vn )
= 0,
dann ist
'
laut For-
Der folgende Satz sichert die Existenz nicht ausgearteter, alternierender
n-Linearformen.
Satz 5.2.4. Sei (v1 ; : : : ; vn) eine Basis des n-dimensionalen K -Vektorn ! K , deniert
raumes V . Für 0 6= a 2 K ist die Abbildung ' : V
durch
'(u1; : : : ; un) = a
P
X
2Sn
(sign )a1;(1) an;(n) ;
ui = nk=1 aik vk , für i = 1; : : : ; n, eine nicht ausgeartete,
nierende n-Linearform auf V .
wobei
alter-
Beweis. Wegen der eindeutigen Basisdarstellung ist die Abbildung
'
wohldeniert, und oensichtlich eine Multilinearform, und nicht aus-
'(v1 ; : : : ; vn ) = a 6= 0. Also ist, auÿer im trivialen Fall
n = 1, nur noch zu beweisen, dass ' alternierend ist. Es genügt nach
Lemma 5.2.1 für ui = uj , also aik = ajk für k = 1; : : : ; n, zu zeigen,
dass '(u1 ; : : : ; un ) = 0 ist. Mit der Transposition 0 = (i; j ) gilt dann
geartet, wegen
nach Korollar 5.1.4
X
2Sn
(sign )a1;(1) an;(n)
X
=
+
=
=
da
2An
X
2An
X
2An
(sign )a1;(1) ai;(i) aj;(j ) an;(n)
(sign(0 )a1;0 (1) ai;0 (i) aj;0 (j ) an;0 (n)
sign + sign(0 )
a1;(1) ai;(i) aj;(j ) an;(n)
0;
ai;(i) = aj;0 (j ) und aj;(j ) = ai;0 (i)
und
sign =
Es gibt nur wenige nicht ausgeartete, alternierende
einem Vektorraum
V,
sign(0 ).
n-Linearformen auf
wie der nächste Satz bestätigt. Normiert man
62
LINEARE ALGEBRA
eine nicht ausgeartete, alternierende
n-Linearform
auf einer xierten
Basis, dann gibt es nur eine einzige nicht ausgeartete, alternierende
n-Linearform.
Satz 5.2.5. Nicht ausgeartete, alternierende n-Linearformen auf einem n-dimensionalen Vektorraum V sind proportional, d.h. für zwei
nicht ausgeartete, alternierende n-Linearformen ';
auf V existiert
ein a 6= 0 mit '(u1 ; : : : ; un ) = a (u1 ; : : : ; un ) für alle u1 ; : : : ; un 2 V .
Insbesondere existiert genau eine nicht ausgeartete, alternierende nLinearform ' derart, dass '(v1 ; : : : ; vn ) = 1 für die xierte Basis
(v1 ; : : : ; vn ) ist.
; vn ) ist der Bruch
'(v1 ; : : : ; vn )
a=
(5.3)
6= 0
(v1 ; : : : ; vn )
Pn
wohldeniert nach Satz 5.2.3. Seien ui =
k=1 aik vk , für i = 1; : : : ; n,
P
und sei c =
2Sn (sign )a1;(1) an;(n) , dann folgt mit Formel (5.2)
'(u1 ; : : : ; un ) = c'(v1 ; : : : ; vn) = ac (v1 ; : : : ; vn) = a (u1 ; : : : ; un):
Beweis. Für eine Basis
(v1 ; : : :
Determinanten von Endomorphismen und Matrizen.
Denition. Sei B = (v1 ; : : : ; vn ) eine Basis des n-dimensionalen
K -Vektorraumes V , und sei ' eine nicht ausgeartete, alternierende nLinearform auf V . Dann heiÿt
' (v1 ); : : : ; (vn)
det() =
(5.4)
'(v1 ; : : : ; vn)
die Determinante des Endomorphismus von V . Grundsätzlich haben
5.3.
nur Endomorphismen endlich dimensionaler Vektorräume eine Determinante.
Der nächste Satz rechtfertigt die obige Denition.
Satz 5.3.1.
Die Determinante eines Endomorphismus ist unabhängig
von der Basis und unabhängig von der nicht ausgearteten, alternierenden Multilinearform.
kein Automorphismus, dann ist das Tupel (v1 ); :::; (vn )
linear abhängig, also ist det = 0 nach Lemma 5.2.3 für alle Basen und alle alternierenden n-Linearformen '. Für eine nicht ausgeartete n-Linearform ' und einen Automorphismus ist die Abbildung ' : V V
! K , deniert durch '(u1; : : : ; un) =
' (u1 ); : : : ; (un) , eine n-Linearform, da linear ist.
Beweis. Ist
LINEARE ALGEBRA
63
ist das Tupel
(u1 ; : : : ; un ) genau dann
linear unabhängig, wenn (u1 ); : : : ; (un ) linear unabhängig ist. Also ist ' wie auch ' nicht ausgeartet. Nach Lemma 5.2.1 ist ' mit '
alternierend. Somit sind ' und ' proportional nach Satz 5.2.5, d.h.
es gibt ein a 2 K , so dass für jede Basis (v1 ; : : : ; vn )
' (v1 ; : : : ; vn ) ' (v1 ); : : : ; (vn )
a=
=
= det():
'(v1 ; : : : ; vn )
'(v1 ; : : : ; vn )
Für einen Automorphismus
Die Determinante ist also basisunabhängig. Eine weitere nicht ausgeartete
n-Linearform
ist proportional zu
Folglich ist
',
also
'
=
b
mit
b (v1 ); : : : ; (vn)
' (v1 ); : : : ; (vn )
=
det() =
'(v1 ; : : : ; vn )
b (v1 ; : : : ; vn )
(v1 ); : : : ; (vn )
:
=
(v1 ; : : : ; vn )
Damit ist die Determinante auch unabhängig von '.
b
6= 0.
Der Kern des folgenden Korollars heiÿt auch Determinantenmultiplika-
tionssatz.
Korollar 5.3.2. (Determinantenmultiplikation) Für Endomorphismen
; eines endlich dimensionalen Vektorraumes gelten:
(1)
(2)
ist genau dann ein Automorphismus, wenn det 6= 0. det( ) = det() det( ); det(id) = 1; det( 1 ) = det()
1
Beweis. (1): Nach Lemma 5.2.3 haben Automorphismen denitionsgemäÿ Determinante
(2): Seien
und
6= 0.
Automorphismen, und damit auch
ist die Produktformel sowieso erfüllt.
nach Satz 5.3.1 mit einer Basis
(v 1 ; : : :
,
ansonsten
Dann gilt laut Denition und
; vn )
' (v1 ); : : : ; (vn)
det( ) =
'(v1 ; : : : ; vn )
' (v1 ); : : : ; (vn) ' (v1 ); : : : ; (vn)
=
'(v1 ; : : : ; vn )
' (v1 ); : : : ; (vn )
= det() det( ):
1
1
folgt mit der ProSowieso ist det(id) = 1, und det( ) = det()
duktformel.
64
LINEARE ALGEBRA
Denition. Als Determinante der quadratischen Matrix A = (aij ) 2
M(n; K ) bezeichnen wir den Skalar
X
(5.5)
det A =
(sign )a1;(1) an;(n) :
2Sn
Für eine Permutationsmatrix
Bemerkung.
P
ist
det P = sign P = 1.
Die Formel (5.5) lässt sich mittels Permutationsmatri-
n-reihige Permutationsmatrix P = (pij )
gibt es eine Permutation 2 Sn , so dass pi; (i) = 1 für alle i = 1; : : : ; n,
und pij = 0 sonst. Das Produkt a1; (1) an; (n) in der Formel (5.5)
entsteht, indem man alle Einträge von A an den 1-Stellen von P nimmt
zen veranschaulichen. Für eine
und multipliziert. Versieht man dieses Produkt noch mit dem Vorzeichen von
, wobei sign = sign P , und summiert über alle Permutati-
onsmatrizen, so erhält man die Determinante.
Determinanten sind sehr wichtig für die Theorie, aber aus praktischnumerischer Sicht nicht ökonomisch, z.B. deshalb weil die Summe (5.5)
für eine
n n Matrix n! Summanden hat.
Daher werden in numerischen
Algorithmen niemals Determinanten verwendet.
Das folgende Resultat erlaubt den Transfer von Sätzen über Determinanten von Endomorphismen auf Matrizen.
Satz 5.3.3.
Die Determinanten aller darstellenden Matrizen eines En-
domorphismus eines endlich dimensionalen Vektorraumes sind gleich
der Determinante des Endomorphismus.
A = (aij ) die darstellende Matrix
P des Endomorphismus (v1 ; : : : ; vn ), also (vi ) = nj=1 aji vj , für i = 1; : : : ; n.
Beweis. Sei
bzgl. der Basis
Die Determinante eines Endomorphismus ist nach Satz 5.3.1 basisunabhängig, und wegen Formel (5.2) gilt
det =
=
' (v1 ); : : : ; (vn)
'(v1 ; : : : ; vn)
det A:
=
X
2Sn
(sign )a1;(1) an;(n)
Also sind die Determinanten aller darstellenden Matrizen des Endomorphismus
5.4.
gleich det .
Rechenregeln für Determinanten von Matrizen.
Rechenregeln für Determinanten von Matrizen kann man entweder mit
Verwendung der expliziten Denition (5.5) beweisen, oder man betrachtet die Matrizen als darstellende Matrizen von Endomorphismen,
nutzt die Gleichheit mit den Determinanten dieser Endomorphismen,
LINEARE ALGEBRA
65
vgl. Satz 5.3.3, und verwendet dann die Ergebnisse über alternierende
Multilinearformen.
In allen Ergebnissen über Determinanten von Matrizen können Zeilen
und Spalten vertauscht werden, wie im ersten Punkt des folgenden Satzes festgestellt wird. Deshalb genügt es die Aussagen über elementare
Umformungen, also (2) bis (5), für Spalten oder Zeilen zu beweisen.
Satz 5.4.1. Für eine n-reihige quadratische Matrix A über dem Körper K gelten:
T
(1) det A = det A .
(2) Permutiert man die Zeilen (Spalten) von A mit zu A, dann ist
det A = (sign ) det A. Insbesondere ändert die Determinante
beim Vertauschen zweier Zeilen (Spalten) das Vorzeichen.
(3) Addiert man zu einer Zeile (Spalte) der Matrix eine (beliebige)
Linearkombination einer anderen, dann ändert sich die Determinante nicht.
(4) Multipliziert man eine Zeile (Spalte) von
wird die Determinante mit
(5) Hat
A
c multipliziert.
A
mit
c
linear abhängige Zeilen (Spalten), dann ist
2 K,
dann
det A = 0.
det A = 0, wenn A zwei gleiche Zeilen (Spalten),
0-Zeile (-Spalte) hat.
= 1, det cA = cn det A.
Insbesondere ist
bzw. eine
(6)
det E
B
(7) (Determinantenmultiplikationssatz) Ist
eine zweite
n-reihige
quadratische Matrix, dann ist
det(AB ) = det(A) det(B ):
(8)
det A
1
= det A
1
, falls
A invertierbar ist.
(9) Matrizen sind genau dann invertierbar, wenn ihre Determinan-
6= 0 ist.
te
(10) Ähnliche Matrizen haben gleichen Rang und gleiche Determinan-
te. Die Umkehrung ist für
n 2 falsch.
K ist kommutativ, also gilt a1;(1) an;(n) =
1 (1);1
a 1 (n);n . Weiter durchläuft auch 1 mit die ganze GrupSn , und sign = sign 1 . Also
X
det A =
(sign )a1;(1)
an;(n)
2Sn
X
=
(sign 1 )a 1 (1);1
a 1 (n);n
1 2Sn
X
=
(sign )a(1);1
a(n);n = det AT :
2Sn
Beweis. (1): Der Körper
a
pe
66
LINEARE ALGEBRA
(2) folgt aus Lemma 5.2.2.
(3): Nach Lemma 5.2.1 ist für eine alternierende
' (v1 + av2 ; v2 ; : : : ; vn
= '(v1 ; : : :
n-Linearform
; vn )+ a'(v2 ; v2 ; : : : ; vn ) = '(v1 ; : : : ; vn ):
'(v1 ; : : : ; cvi ; : : : ; vn ) = c'(v1 ; : : : ; vn )
n-Linearform.
(4) folgt aus
rende
für eine alternie-
(5) folgt aus Lemma 5.2.3.
(6):
det E = 1 gilt laut Denition, und det(cA) = cn det A folgt aus (4).
(7) folgt aus dem Determinantenmultiplikationssatz und Satz 3.3.1.
(8) folgt aus (7).
(9) folgt aus (8).
(10): Ähnliche Matrizen haben gleichen Rang, weil sie äquivalent sind,
vgl. Satz 3.5.1, und gleiche Determinante nach dem Determinantenmultiplikationssatz.
Die Formel (5.5) gestattet explizit die Berechnung der Determinante,
wenngleich das für gröÿere Matrizen sehr mühsam ist. Für
trizen gilt:
Für
33
a1;1
det a2;1
a3;1
a
det 1;1
a2;1
a1;2 = a a
a2;2 1;1 2;2
22
Ma-
a2;1 a1;2 :
Matrizen gilt:
a1;2 a1;3 a a a + a a a + a a a
a2;2 a2;3 = 1;1 2;2 a3;3 a a1;2 2;3 a3;1 a a1;3 2;1 a3;2 a a :
3;1 2;2 1;3
3;2 2;3 1;1
3;3 2;1 1;2
a3;2 a3;3 Meistens wird das folgende Schema zur Berechnung der Determinante
einer
33
Matrix als die Regel von Sarrus bezeichnet. Man fügt die
beiden ersten Spalten der Matrix hinten nochmals an, und multipliziert
die drei Matrixeinträge längs der schrägen Pfeile nach unten und bildet
die Summe dieser Produkte. Anschlieÿend verfährt man genauso mit
den Pfeilen nach oben, allerdings versieht man bei dieser Richtung,
nach oben, die Produkte noch mit einem Minuszeichen, so wie in der
obigen Formel.
a1;1
a2;1
a3;1
&
%
a1;2
a2;2
a3;2
&
%
&
%
a1;3
a2;3
a3;3
&
%
&
%
a1;1
a2;1
a3;1
%
&
a1;2
a2;2
a3;2
+
LINEARE ALGEBRA
Die Regel von Sarrus gilt nur für
33
67
Matrizen, weil
3! = 6
ist. Für
gröÿere Matrizen wäre die Anzahl der Summanden zu klein.
Zur Berechnung von Determinanten verwendet man i.A. den Entwicklungssatz 5.4.3 von Laplace, oder den Gauÿalgorithmus, wie anschlieÿend.
Aus Formel (5.5) erhält man die Determinante von Dreiecksmatrizen,
da in der Summe über alle Permutationen nur der Summand für
ungleich
0
= id
sein kann.
Korollar 5.4.2.
nn
Eine
minante
Dreiecksmatrix
A = (aij )
hat die Deter-
det A = a1;1 an;n :
Bemerkung.
Nach Satz 5.4.1, (2) bis (4), verändern elementare Ma-
trixumformungen die Determinante auf einfachste Weise.
Zeilenver-
tauschungen, vgl. Satz 5.4.1, (2), ändern nur das Vorzeichen der Determinante, elementare Umformungen des Typs wie in Satz 5.4.1, (3),
ändern die Determinante nicht. Nur diese beiden elementaren Umformungen werden beim Gauÿalgorithmus verwendet. Eine quadratische
Matrix wird also durch den Gauÿalgorithmus in eine obere Dreiecksmatrix umgeformt, und ihre Determinante wechselt dabei höchstens
das Vorzeichen. Die Determinanten von Dreiecksmatrizen sind sofort
ablesbar, und man hat damit ein eektives Berechnungsverfahren für
Determinanten gefunden.
Es gibt allerdings auch direkte Verfahren,
um Determinanten von gröÿeren Matrizen zu berechnen.
Denition.
Streicht man von einer Matrix einige Zeilen und einige
A = (aij ) eine nn Matrix
i; j n die i-te Zeile und
Spalten so erhält man eine Untermatrix . Sei
über dem Körper
die
j -te
K.
1
Spalte, dann erhält man die quadratische Untermatrix
Das Körperelement
Matrix
Streicht man für
adj A = (Aij
Aij
)T
= ( 1)i+j det Mij
heiÿt Adjunkte von
heiÿt Adjunkte von
A.
Satz 5.4.3. (Entwicklungssatz von Laplace)
A = (aij ) über dem Körper K gelten:
(1)
(2)
P
det A = nj=1 aij Aij
P
det A = ni=1 aij Aij
Für eine
aij .
nn
Die
Matrix
i
A.
Entwicklung nach der j -ten Spalte von A.
Entwicklung nach der -ten Zeile von
Beweis. Nach Satz 5.4.1 genügt es die erste Aussage zu zeigen.
Matrix
Mij .
Die
A = (aij ) beschreibe einen Endomorphismus bzgl. der Basis
68
LINEARE ALGEBRA
P
; vn), durch die Festlegung (vi ) = nj=1 aij vj , für i = 1; : : : ; n.
Dann gilt für xiertes i
' (v1 ); : : : ; (vn )
det A = det =
'(v1 ; : : : ; vn )
n
X
' (v1 ); : : : ; (vi 1 ); vj ; (vi+1 ); : : : ; (vn)
;
=
aij
'(v1 ; : : : ; vn )
j =1
(v1 ; : : :
{z
|
= det
}
j
wobei als Faktor die Determinante des Endomorphismus
j
auftritt,
nur durch die neue Festlegung j (vi ) = vj unterscheidet.
Bj beschrieben, die
sich von A nur in der i-ten Zeile unterscheidet, und diese i-te Zeile ist
der j -te Einheitsvektor. Permutiert man den Eintrag 1 der Matrix Bj
von der Stelle (i; j ) an die Stelle (1; 1), dann ändert die Determinante
der sich von
Dieser Endomorphismus wird also durch die Matrix
der Matrix bei den notwendigen Zeilen- und Spaltenvertauschungen
jeweils das Vorzeichen und man erhält die neue Matrix
det Bj = ( 1)i+j det Nij = Aij ;
dabei hat die Matrix
Nij
die Form
0
B
Nij = B
@
mit der quadratischen
i
(n
.
.
.
Mij
0
1
C
C
A
Matrix Mij , die aus A durch
j -ten Spalte entsteht. Wegen det Nij =
1)-reihigen
Streichen der -ten Zeile und der
det Mij ,
1 0
Nij , d.h.
nach Satz 5.4.1 (3), folgt wie behauptet:
det A = det =
Bemerkung.
n
X
j =1
aij det j =
n
X
j =1
aij Aij :
Hilfreich für die praktische Anwendung des Entwick-
lungssatzes von Laplace ist das Vorzeichenschachbrett , d.h. die Matrix
0
B
+
( 1)i+j = B
@+
.
.
.
Beispiel.
+
+
+
1
C
C
A:
..
.
Mit dem Satz von Laplace bestimmt man die Determinante
der folgenden
44
Matrix, indem man die Matrix nach der zweiten
LINEARE ALGEBRA
Spalte, die nachfolgende
69
3 3 Matrix nach der zweiten Zeile entwickelt
und das Vorzeichenschachbrett verwendet.
det 5
3
0
1
2
0
0
0
2
1
0
3
Satz 5.4.4.
1
4
2
4
Sei
3
= ( 2) 0
1
A=
1 4 3 1 = 4(9
0 2 = ( 2)( 2) 1 3 3 4
X
eine obere (analog untere) Blockdrei-
Y
0
1) = 32:
ecksmatrix mit quadratischen Diagonalblöcken. Dann gilt:
det A = det(X ) det(Y ):
Beweis. Wenn der Diagonalblock
ben
X
X
nicht invertierbar ist, dann ha-
und damit auch die ganze Matrix
und wegen
det X = det A = 0
A linear abhängige Spalten,
gilt die behauptete Gleichung. Analog
argumentiert man mit den Zeilen von
Y.
vertierbar. Nach dem Satz von Laplace 5.4.3 gilt z.B.
det(X
1
).
X und YinX 1 0 =
0
E
Seien also jetzt
det
Mit dem Determinantenmultiplikationssatz folgt dann aus
der Matrixgleichung
X
0
1
0
E
E
Y
0
0
1
X
0
=
Y
E
0
E
die behauptete Gleichung, weil die obere Dreiecksmatrix auf der rechten
Seite die Determinante
5.5.
1
hat.
Anwendungen.
Es gibt explizite Darstellungen der Inversen einer Matrix und der Lösung eines linearen Gleichungssystems.
Numerisch haben diese Dar-
stellungen keine Bedeutung, weil Determinanten auftreten.
Satz 5.5.1. Für eine n n Matrix A gelten:
(1) A (adj A) = (adj A) A = det(A)En .
1
(2) A
= det1 A (adj A), falls A invertierbar.
Beweis. Für
A = (aij ) und ihre Adjunkte adj A = (Aij )T
A (adj A) =
n
X
j =1
aij Akj
Nach dem Satz von Laplace 5.4.3 gilt
i
=
k,
und weil für
i
6= k
ik
gilt
:
Pn
j =1 aij Akj =
Æik det A,
für
die linke Seite nichts anderes ist als die
70
LINEARE ALGEBRA
A
Determinante einer Matrix, die aus
Zeile durch die
i-te ersetzt,
Falls
Satz 5.5.2.
0 ist.
ad bc 6= 0, gilt:
a b
c d
k-te
und das ist eine Matrix mit zwei gleichen
Zeilen, deren Determinante natürlich
Beispiel.
entsteht, wenn man die
1
=
1
ad bc
(2) folgt sofort aus (1).
d
b :
c a
Ax = b
T
mit einer invertierbaren nn Matrix A = (aij ) und mit b = (b1 ; : : : ; bn )
(Cramersche Regel) Das lineare Gleichungssystem
hat die eindeutig bestimmte Lösung
n
1 X
bk Akj
xj =
det A k=1
Beweis.
für
j = 1; : : : ; n:
A ist invertierbar, d.h. det a 6= 0, und die Lösung von Ax = b
ist eindeutig, vgl. 4.1.3. Man bestätigt die angegebene Lösung durch
Einsetzen.
n
X
n
X
n
1 X
aij xj =
aij
bk Akj
det A
j =1
j =1
=
wegen
n
X
k=1
n
X
1
bk
aij Akj
det A k=1
j =1
= bi ;
Pn
j =1 aij Akj = det(A)Æik , vgl.
Satz 5.5.1.
Bemerkung. Schreibt man die Matrix A = (v1 ; : : : ; vn) spaltenweise,
dann gilt det(A) xj = det(v1 ; : : : ; vj 1 ; b; vj +1 ; : : : ; vn ), d.h. man erhält
T
den j -ten Eintrag xj der Lösung x = (x1 ; : : : ; xn ) als Determinante
der Matrix, die aus A entsteht, wenn man die Spalte vj durch die
Spalte b ersetzt.
Korollar 5.5.3. Eine quadratische, ganzzahlige Matrix hat genau dann
eine ganzzahlige Inverse, wenn ihre Determinante
1 ist.
Beweis. Nach Satz 5.5.1 hat eine ganzzahlige Matrix mit Determinante
1 auch eine ganzzahlige Inverse,
da die Einträge der Adjunkten
Determinanten sind.
Umgekehrt folgt aus der Ganzzahligkeit der Inversen von
det(A) det(A ),
1
also
det(A); det(A ) 2 Z,
1
sofort
A,
mit
det A = 1.
1=
LINEARE ALGEBRA
71
Es gibt nur wenige gröÿere Matrizen, deren Determinante man brauchbar und explizit angeben kann.
Determinante.
Beispiel.
Seien
a1 ; : : : ; an 2 K .
1
1
det ..
.
1
Bekannt ist hier die Vandermonde
Dann heiÿt
1
Y
=
(aj
. .
. 1i<j n
ann 1 a1 a21 : : : an1
a2 a22 : : : an2
.
.
.
.
.
.
an a2n : : :
1
ai )
Vandermonde Determinante . Insbesondere ist diese Determinante genau dann
6= 0, wenn die ai paarweise verschieden sind.
Man beweist
diese Formel induktiv und mittels oensichtlicher elementarer Zeilenoperationen.
72
LINEARE ALGEBRA
6. Eigenwerte und Eigenvektoren
Auf der Suche nach Normalformen für Matrizen beschäftigen wir uns
zuerst mit den diagonalisierbaren Matrizen, d.h. Matrizen, die ähnlich sind zu Diagonalmatrizen. Nicht alle Matrizen sind diagonalisierbar. In diesem Zusammenhang spielen die Begrie Eigenvektor und
Eigenwert eine zentrale Rolle. Resonanzphänomene der Physik sind
übrigens typische Eigenwertprobleme.
Charakteristisches Polynom und Eigenwerte.
Denition. Sei R ein kommutativer Ring mit 1. Ein Ausdruck der
6.1.
Form
p(x) = an xn + an 1 xn 1 + + a1 x + a0
mit Koezienten ai 2 R, heiÿt Polynom über R in der Variablen x.
Sind alle Koezienten gleich 0 dann heiÿt p(x) das Nullpolynom . Ein
Polynom, ungleich dem Nullpolynom, heiÿt vom Grade n, wenn an 6= 0
in (6.1). Der Koezient an heiÿt Leitkoezient , der Koezient a0
(6.1)
heiÿt konstanter Koezient.
Polynome mit Leitkoezient
1
heiÿen
R[x] aller Polynome über R ist bzgl. der üblichen
Polynom-Addition und -Multiplikation ein Ring mit 1 2 R R[x], der
sog. Polynomring über R in einer Variablen, vgl. [3, Polynomial Rings].
Das Nullpolynom ist das Nullelement. Ein Element a 2 R heiÿt Nullstelle oder Wurzel des Polynoms p(x) 2 R[x], wenn p(a) = 0. Wenn
p(x) = (x b1 ) (x bn ), dann sagt man, das Polynom p(x) zerfällt
normiert . Die Menge
in Linearfaktoren .
In dieser Darstellung kann man alle Nullstellen,
bi , sofort ablesen.
Bemerkung. Zerfällt ein normiertes Polynom
p(x) = xn + an 1 xn 1 + + a1 x + a0 = (x b1 ) (x bn ) 2 R[x]
über einem kommutativen Ring R mit 1 in Linearfaktoren, dann erhält
nämlich die
man die Koezienten dieses Polynoms durch Ausmultiplikation, d.h.
an
1
=
b1 + + bn
=
X
1
an
an
2
3
=
=
in
bi ;
b1 b2 b3 + + bn 2 bn 1 bn
=
X
i<j<kn
1
..
.
a0
X
b1 b2 + b1 b3 + + b1 bn + b2 b3 + + bn 1 bn =
= ( 1)n b1 bn :
1
i<j n
bi bj bk ;
bi bj ;
LINEARE ALGEBRA
73
Diese Darstellung der Koezienten eines Polynoms als Polynome in
den Nullstellen, bzw. Wurzeln, nennt man die Vietaschen Wurzelsätze .
bi heiÿen elementarsymmetrische PoPolynomials]. Ein Polynom p(x1 ; x2 ; : : : )
Diese Polynome in den Variablen
lynome , vgl. [3, Symmetric
in mehreren Variablen, heiÿt symmetrisch , wenn es durch beliebige
Permutationen der Variablen nicht verändert wird.
Die elementar-
symmetrischen Polynome sind einfachste Prototypen solcher symmetrischen Polynome. Für ein normiertes Polynom
(x
p(x) = x2 + ax + b =
b1 )(x b2 ) des Grades 2 nehmen die Vietaschen Wurzelsätze ihre
einfachste Form an, nämlich
a=
(b1 + b2 )
und
b = b1 b2 ;
a bei x ist die negative Summe der beiden
Nullstellen, und der konstante Koezient b ist das Produkt der beiden
d.h. der lineare Koezient
Nullstellen.
Übrigens ist das Polynom in Lemma 5.1.2 antisymmetrisch , d.h. bei
Anwendung von Permutationen der Variablen ändert sich das Vorzeichen entsprechend dem Vorzeichen der Permutation.
Polynome müssen keine Nullstellen haben, z.B. hat das Polynom
x
2
+1
keine reellen Nullstellen, wohl aber komplexe,
i.
p(x) =
Wenn man
von Nullstellen einer Gleichung spricht, muss man den Zahlbereich angeben in dem man Nullstellen sucht.
I.A. kann man die Nullstellen
von Polynomen nur numerisch, und auch nur näherungsweise berechnen. Mit dem folgenden Satz, der später in der Algebra bewiesen wird,
kann man in speziellen Situationen die Nullstellen erraten.
Satz 6.1.1.
([3, Polynomial Extensions of Factorial Domains]) Ratio-
nale Nullstellen eines normierten ganzzahligen Polynoms sind ganzzahlige Teiler des konstanten Koezienten.
Beispiel.
Das Polynom
Nullstellen
2; 1,
x2 x
2 = (x +1)(x 2) hat die ganzzahligen
2.
beides ganzzahlige Teiler von
Denition. Sei ein Endomorphismus des K -Vektorraumes V . Ein
Skalar a 2 K heiÿt Eigenwert von , wenn es einen Vektor 0 6= v 2 V
gibt, mit v = av , die sog. Eigenvektorgleichung . Jeder solche Vektor
v 6= 0 heiÿt Eigenvektor von zum Eigenwert a.
Für eine Matrix A 2 M(n; K ) heiÿt ein Skalar a 2 K Eigenwert von A,
n
wenn es einen Spaltenvektor 0 6= v 2 K gibt, mit Av = av . Jeder
solche Vektor v 6= 0 heiÿt Eigenvektor von A zum Eigenwert a.
Wählt man A = M (B; B ) als darstellende Matrix des Endomorphismus bzgl. der Basis B , dann identiziert man oft Eigenwert und
74
LINEARE ALGEBRA
und A.
Eigenvektor von
Der Eigenwert ist basisunabhängig, der Ko-
ezientenvektor eines Eigenvektors eines Endomorphismus ist basisabhängig.
Die Eigenvektoren zum Eigenwert
v
= 0:v = 0,
0
eines Endomorphismus
sind genau die Elemente
Nullvektor ist niemals ein Eigenvektor.
6= 0 des Kerns von
,
.
also
Der
bzw. die Matrix A invertierbar, dann ha0, und wenn a ein Eigenwert zum Eigen1
1
1
vektor v ist, dann haben bzw. A
den Eigenwert a
zum gleichen
1
Eigenvektor v , wie sich sofort durch Anwendung von z.B. auf die
Sind der Endomorphismus
ben sie niemals den Eigenwert
Eigenvektorgleichung ergibt.
Bemerkung.
Mit der folgenden einfachen Beobachtung wird ein Trans-
fer der Ergebnisse für Endomorphismen möglich.
Also ist ein Vektor
Eigenwert
wenn
()
v = av
(6.2)
v
6=
0
(a id
)v = 0:
genau dann ein Eigenvektor von
zum
a, wenn er im Kern des Endomorphismus a id liegt, d.h.
) = 0, nach Korollar 5.3.2.
det(a id
Damit wird die folgende Sprechweise sinnvoll.
Denition.
a ein Eigenwert des Endomorphismus A, dann ist der Kern des Endomorphismus a id bzw. der Matrix aE
A nicht trivial, und heiÿt Eigenraum zum Eigenwert a. Insbesondere sind Eigenvektoren v 6= 0 für einen bekannten Eigenwert a Lösungen des homogenen linearen Gleichungssystems
(aE
A)x = 0. Der Eigenraum zu a ist die Gesamtlösung dieses
Ist der Skalar
bzw. der Matrix
homogenen linearen Gleichungssystems. Die Dimension des Eigenrau-
A) heiÿt geometrische Vielfachheit des Eigenwertes a.
Bemerkung. Sei ein Endomorphismus mit darstellender Matrix A
und Eigenwert a, dann ist aE
A eine darstellende Matrix von a id und det(a id ) = det(aE
A) = 0, nach Satz 5.3.3, nach (6.2) und
da ker(a id ) 6= 0. Also ist a Nullstelle der Gleichung:
x a1;1 a
1;n ..
..
..
:
(6.3)
0 = det(xE A) = det .
.
.
a
x
a
n;1
n;n
Die Einträge dieser Matrix sind aus dem Polynomring K [x]. Also ist
diese Determinante ein Polynom über K . Man erhält dieses Polynom
mes
ker(aE
z.B. durch Entwicklung dieser Determinante wie üblich.
LINEARE ALGEBRA
Denition.
75
ein Endomorphismus eines endlich dimensionalen
Vektorraumes. Sei A eine darstellende Matrix von . Die Polynome
(x) = det(x id ) bzw. A (x) = det(xE A)
heiÿen charakteristisches Polynom des Endomorphismus bzw. der
Matrix A.
Satz 6.1.2. Sei ein Endomorphismus eines endlich dimensionalen
Vektorraumes mit darstellender Matrix A. Dann sind das charakteristische Polynom von und A gleich. Insbesondere haben ähnliche
Sei
Matrizen gleiche charakteristische Polynome.
Weiter sind die Eigenwerte von
charakteristischen Polynoms.
bzw.
A,
genau die Nullstellen des
Insbesondere haben ähnliche Matrizen
gleiche Eigenwerte.
x ist xE A eine darstellende Matrix des En. Nach Satz 5.3.3 gilt: (x) = det(x id ) =
Beweis. Für jeden Skalar
x id
A) = A (x).
domorphismus
det(xE
Die verschiedenen darstellenden Matrizen eines
Endomorphismus bilden eine volle Ähnlichkeitsklasse, also gilt insbesondere, dass ähnliche Matrizen gleiches charakteristisches Polynom
haben.
a is genau dann ein Eigenwert von A, wenn ker(aE A) 6= 0;
also genau dann, wenn A (a) = det(aE
A) = 0, vgl. (6.3).
Der Skalar
Bemerkung.
(1) Dass ähnliche Matrizen
A und B
=
S 1 AS
gleiche
charakteristische Polynome haben, erhält man auch mit dem Determinantenmultiplikationssatz
A (x)
= det(xE
= det(xE
A) = det S 1 (xE
B ) = B (x):
A)S
xE
= det
S 1 AS
(2) Zwar haben ähnliche Matrizen gleiche Eigenwerte aber die zugehörigen Eigenvektoren sind i.A. verschieden.
A zum Eigenwert a, also Av = av .
a(Sv ) mit einer invertierbaren Matrix S .
1
von SAS
zum Eigenwert a.
Matrix
Sei
v
Dann gilt
Somit ist
Eigenvektor der
(SAS
Sv
1
)(Sv ) =
Eigenvektor
Man kann einige Koezienten des charakteristischen Polynoms direkt
an der Matrix ablesen.
Satz 6.1.3.
Das charakteristische Polynom
A (x) = xn + an 1 xn
1
+ + a1 x + a0
76
LINEARE ALGEBRA
A
der Matrix
= (aij )
2
M(n; K )
ist normiert und hat den Grad
Für den konstanten Koezienten gilt
Pn
i=1 aii
tr A =
Ist
= ( 1)n det A,
a0
ist die negative Spur von
A.
und
an
1
n.
=
A eine Dreiecks- oder Diagonalmatrix, dann ist
A (x) = (x a1;1 ) (x an;n );
d.h. die Eigenwerte sind genau die Diagonaleinträge. Ein Endomor-
n-dimensionalen Vektorraumes bzw. eine n-reihige quan paarweise verschiedene Eigenwerte.
phismus eines
dratische Matrix haben höchstens
Beweis. Sei
A (x)
=
A = (bij ) mit bij 2 K [x], also nach (5.5)
X
det(xE A) = b1;1 bn;n +
(sign )b1;(1) bn;(n)
xE
6 2Sn
1=
|
=
n
Y
i=1
{z
rx
}
= ( )
(x
ai;i ) + r(x):
r(x) ein Polynom des Grades n 2, da (i) 6= i für mindestens zwei Indizes gilt. Somit ist an 1 =
(a1;1 + + an;n ) = tr A,
vgl. die Vietaschen Wurzelsätze. Setzt man x = 0 in A (x) ein, dann
n
erhält man a0 = A (0) = det( A) = ( 1) det A.
Dabei ist
Für Dreiecksmatrizen verwendet man Korollar 5.4.2. Polynome über
Körpern haben höchstens so viele Nullstellen, d.h. Linearfaktoren, wie
ihr Grad, also ist die Anzahl der paarweise verschiedenen Eigenwerte
einer
n n Matrix n.
Beispiel.
E=
Wir betrachten die folgenden Matrizen
1 0
0 1
; J=
die Einheitsmatrix
E,
1 1
0 1
; I=
die Jordanmatrix
und die nilpotente Matrix
N
0 1
1 0
J,
; N
=
0 1
0 0
;
die imaginäre Matrix
über verschiedenen Körpern
K.
I
Die je-
weiligen charakteristischen Polynome sind leicht berechenbar, da die
beiden Koezienten dieser normierten quadratischen Polynome gerade
die negative Spur und die Determinante der gegebenen Matrizen sind,
E (x) = J (x) = (x 1)2 , I (x) = x2 + 1, N (x) = x2 .
Die Matrizen E und J haben zwar dasselbe charakteristische Polynom,
sind aber nicht ähnlich, weil für jede Matrix P 2 GL(2; K ) gilt J 6=
P 1EP = E . In Satz 6.1.2 gilt also nicht die Umkehrung.
Die Matrizen E und J haben den einzigen Eigenwert 1, die Matrix N
d.h.
hat den einzigen Eigenwert
0.
LINEARE ALGEBRA
Die Matrix
I
hat als reelle Matrix keinen Eigenwert, sie beschreibt die
Drehung der reellen Ebene
R
2
um
Matrix sind die Eigenwerte von
90Æ
I
im Uhrzeigersinn. Als komplexe
gleich
N
ist gleich dem Kern, also ebenfalls
der komplexen Matrix
I
sind
i.
Der Eigenraum von
E
J ist Ke1 . Der Eigenraum
Ke1 . Die beiden Eigenräume
ist der ganze Raum, der Eigenraum von
von
77
K (e1 ie2 ).
Wenn man die Matrizen
in ihr charakteristisches Polynom einsetzt und den Koezienten
1
des
Polynoms als Einheitsmatrix interpretiert, dann erhält man immer die
Nullmatrix, also
(J
E )2 = I 2 + E = N 2 = 0:
Später werden wir den Satz von Cayley-Hamilton beweisen, dass jede
p
Matrix von ihrem charakteristischen Polynom annulliert wird. Es gilt
I 4 = E , wie auch für i =
12
C , deshalb der Name. Eine Matrix M heiÿt nilpotent , wenn es eine
m = 0. Nilpotente Matrizen haben
natürliche Zahl m 2 gibt mit M
immer und nur den Eigenwert 0. Denn wenn v 6= 0 ein Eigenvektor
m
m
von M ist zum Eigenwert a, dann ist 0 = M v = a v , also a = 0.
Weiter ist det M = 0, und der Eigenraum zum Eigenwert 0, d.h. der
Kern von M , ist nicht 0. Also ist das charakteristische Polynom von M
n
gleich dem Monom x .
übrigens für die imaginäre Matrix
Annullierende Polynome für quadratische Matrizen und Endomorphismen endlich dimensionaler Vektorräume existieren immer, und das ist
der Grund, weshalb die (nicht linearen!)
Polynome in der Linearen
Algebra eine Rolle spielen.
Satz 6.1.4.
Für jeden Endomorphismus eines endlich dimensionalen
Vektorraumes und jede quadratische Matrix gibt es ein annullierendes
(normiertes) Polynom (kleinsten Grades).
n-reihige quadratische Matrix
2
zu führen. Der Vektorraum M(n; K ) hat die Dimension n , also sind
2
0
2
n
die Matrizen E = A ; A; A ; : : : ; A
linear abhängig, d.h. es existieren
Pn2
i
Skalare a0 ; a1 ; : : : , nicht alle gleich 0, derart, dass
i=0 ai A = 0 die
Pn2
i
Nullmatrix ist. Also ist p(x) =
i=0 ai x ein annullierendes Polynom.
Beweis. Es genügt den Beweis für eine
Natürlich gibt es dann auch (mindestens) ein normiertes annullierendes
Polynom kleinsten Grades.
Bemerkung. (1) Die Schranke n2 für den Grad annullierender Polynome von n n Matrizen ist zu groÿ. Später wird gezeigt, dass es
annullierende Polynome vom Grad n gibt.
78
LINEARE ALGEBRA
(2) Die Bestimmung von Eigenwerten, also der Nullstellen von Polynomen, ist kein lineares Problem. Die Bestimmung der Eigenvektoren
bei bekanntem Eigenwert ist die Lösung des homogenen linearen Gleichungssystems
(aE
A)x = 0.
Wenn eine Matrix keinen Eigenwert hat,
dann natürlich auch keinen Eigenvektor. Körper, in denen jedes Polynom mit Koezienten aus diesem Körper auch Nullstellen hat, heiÿen
algebraisch abgeschlossen , z.B. ist
C , der Körper der komplexen Zahlen,
algebraisch abgeschlossen. Jeder Körper ist in einem algebraisch abgeschlossenen Körper enthalten, so wie z.B.
R in C . Matrizen über einem
algebraisch abgeschlossenen Körper haben immer Eigenwerte, weil ihr
charakteristisches Polynom immer Nullstellen hat.
Denition.
A den Eigenwert a hat, wenn also
das charakteristische Polynom A (x) einen Linearfaktor x
a hat mit
A (x) = (x a)d r(x), wobei r(a) 6= 0, dann spricht man von der
algebraischen Vielfachheit d des Eigenwertes a. Die Eigenwerte der
Matrizen E; J; N haben sämtlich die Vielfachheit 2.
Satz 6.1.5. Die algebraische Vielfachheit eines Eigenwertes einer MaWenn die Matrix
trix ist eine obere Schranke für die Dimension des Eigenraumes, die
geometrische Vielfachheit.
Beweis. Sei
ein Endomorphismus mit Eigenwert
des Eigenraumes von
a
sei
r,
und sei
(v1 ; : : :
a.
Die Dimension
; vr ; vr+1 ; : : : )
eine Basis
beginnend mit einer Basis des Eigenraumes. Bzgl. dieser
Basis hat
eine
eine Blockdreiecksform A = aE0 r B , und
nach Satz 5.4.4 das charakteristische Polynom A (x) = (x
a)r B (x).
Also ist die geometrische Vielfachheit von a kleiner oder gleich der
darstellende Matrix von
algebraischen.
Diagonalisierbarkeit von Matrizen.
In diesem Abschnitt ist V ein endlich dimensionaler K -Vektorraum.
Es werden solche Endomorphismen von V charakterisiert, für die V
eine komplette Basis aus Eigenvektoren von hat. Eine weitere Cha6.2.
rakterisierung der Diagonalisierbarkeit ndet man in Satz 8.5.1 über
die Jordan Normalform.
Satz 6.2.1.
Eigenvektoren eines Endomorphismus zu verschiedenen Ei-
genwerten sind linear unabhängig.
Insbesondere bilden die Eigenräume eines Endomorphismus
rekte Summe, d.h.
P
L
i Ui =
i Ui
ihre di-
V , wobei die Ui die Eigenräume
zu den paarweise verschiedenen Eigenwerten sind.
LINEARE ALGEBRA
Der Vektorraum
wenn
V
=
L
V
i Ui .
79
hat genau dann eine Basis aus Eigenvektoren von
,
Wenn insbesondere das charakteristische Polynom eines Endomorphis-
in paarweise verschiedene Linearfaktoren zerfällt, bzw. wenn genau n = dim V paarweise verschiedene Eigenwerte besitzt, dann
hat V eine Basis, die aus Eigenvektoren von besteht.
mus
Beweis. Seien
Eigenvektoren
a1 ; : : : ; ak paarweise verschiedene Eigenwerte von mit
v1 ; : : : ; vk . Dann gilt:
(
(al id
)vj = al vj
vj =
j
Wendet man den Endomorphismus
chung
Pk
i=1 ci vi = 0
0
(al
=
aj )vj
l = j;
falls l 6= j:
falls
Q
l6=j (al id
)
auf die Glei-
an, dann erhält man
0 = j
k
X
i=1
ci vi
=
cj
Y
l6=j
(al
aj ) vj :
cj = 0 und die vi sind linear unabhängig.
P
Sei Ui der Eigenraum zum Eigenwert ai . Sei vj 2 Uj \ (
i6=j Ui ) für
P
ein j . Dann ist vj =
i6=j vi mit vi 2 Ui , d.h. vi ist entweder der
Nullvektor oder ein Eigenvektor zum Eigenwert ai . Da Eigenvektoren
zu verschiedenen Eigenwerten linear unabhängig sind, sind alle vi = 0
und die Summe der Ui ist direkt. Die Zusätze sind oensichtlich.
Also ist
Denition.
Eine quadratische Matrix heiÿt diagonalisierbar , wenn
von V
heiÿt diagonalisierbar , wenn V eine Basis aus Eigenvektoren von hat.
Eine Diagonalmatrix hat wegen diag (a1 ; : : : ; an )ei = ai ei zu den Eigenwerten ai die Eigenvektoren ei , also existiert eine Basis aus Eigensie zu einer Diagonalmatrix ähnlich ist. Ein Endomorphismus
vektoren.
Satz 6.2.2.
Ein Endomorphismus eines endlich dimensionalen Vek-
torraumes ist genau dann diagonalisierbar, wenn seine darstellenden
Matrizen diagonalisierbar sind.
Insbesondere ist eine quadratische
n-reihige Matrix genau dann diago-
nalisierbar, wenn ihr charakteristisches Polynom in Linearfaktoren zerfällt und wenn für alle Eigenwerte die geometrische Vielfachheit gleich
der algebraischen ist. Hierbei gilt
P
i ci =
n für die Vielfachheiten ci .
80
LINEARE ALGEBRA
ein diagonalisierbarer Endomorphismus des n-dimensionalen Vektorraumes V . Sei B = (v1 : : : ; vn ) eine Basis aus Eigenvektoren zu den Eigenwerten ai , also vi = ai vi , d.h. ist diagonalisierbar. Somit hat bzgl. B als darstellende Matrix die Diagonalmatrix
diag (a1 ; : : : ; an ). Alle darstellenden Matrizen von sind ähnlich, soBeweis. Sei
mit sind sie alle diagonalisierbar.
Sei umgekehrt
A diagonalisierbar. Sei ein Endomorphismus mit darA. Dann existiert auch eine Diagonalmatrix als dar-
stellender Matrix
stellende Matrix. Laut Denition existiert dann eine Basis aus Eigenvektoren von
Sei
A
A und .
diagonalisierbar mit charakteristischem Polynom
A (x).
existiert eine Basis von Eigenvektoren, d.h. für die Eigenräume
L
i Ui =
V
Dann
Ui gilt
nach Satz 6.2.1, und die Summe der geometrischen Viel-
fachheiten ist gleich
n = dim V .
Nach Satz 6.1.5 ist die jeweilige alge-
braische Vielfachheit gröÿer oder gleich der geometrischen Vielfachheit,
und es folgt Gleichheit.
Zerfällt umgekehrt das charakteristische Polynom der Matrix
A in Line-
arfaktoren und sind für jeden Eigenwert die algebraische und die geometrische Vielfachheit gleich, dann folgt mit
wegen gleicher Dimension die Gleichheit.
L
i Ui
V
Damit ist
nach Satz 6.2.1,
A
diagonalisier-
bar.
Beispiel.
Die Jordanmatrix
J
und die nilpotente Matrix
N
aus dem
obigen Beispiel sind über keinem Körper diagonalisierbar. Die imaginäre Matrix
I ist als reelle Matrix nicht diagonalisierbar, wohl aber als
komplexe.
Um festzustellen, ob eine
n-reihige quadratische Matrix diagonalisier-
bar ist, bestimmt man zuerst das charakteristische Polynom, zerfällt
es in Linearfaktoren, d.h. man bestimmt alle Eigenwerte, und anschlieÿend berechnet man die Dimensionen der Eigenräume.
Die Matrix
ist genau dann diagonalisierbar, wenn die Summe dieser Dimensionen
gleich
n ist.
Später wird mit Verwendung der Jordan Normalform ein
einfacheres Kriterium für die Diagonalisierbarkeit einer Matrix mit Hilfe des sog. Minimalpolynoms formuliert, vgl. Satz 8.2.2 und Satz 8.5.1.
Für diagonalisierbare Matrizen gilt die Umkehrung in Satz 6.1.2.
Satz 6.2.3.
Diagonalisierbare Matrizen sind genau dann ähnlich, wenn
sie dasselbe charakteristische Polynom haben.
Beweis. Ähnliche Matrizen haben nach Satz 6.1.2 gleiche charakteristische Polynome.
Also genügt es für zwei Diagonalmatrizen
A
=
LINEARE ALGEBRA
diag (a1 ; : : :
81
; an ) und B = diag (b1 ; : : : ; bn ) mit gleichem charakteristi-
schen Polynom die Ähnlichkeit zu zeigen. Gleiche Polynome, nämlich
A
=
Q
i (x
ai )
=
Q
i (x
bi )
=
gleiche Ableitungen, also sind die
B haben gleiche Nullstellen und
bi nur Umordnungen der ai . Per-
mutationen dieser Diagonaleinträge sind immer Ähnlichkeitstransformationen, z.B. vertauscht die Permutationsmatrix
P
= (pi;j ) =
P
1
p1;2 = p2;1 = p3;3 = = pn;n = 1 per Ähnlichkeitstransformation
A 7! P AP genau die Einträge a1 und a2 .
mit
82
LINEARE ALGEBRA
7. Euklidische und unitäre Vektorräume
Reelle und komplexe Vektorräume werden mit einer zusätzlichen Struktur versehen, mit einem Skalarprodukt.
Damit kann man dann den
Vektoren Längen und Winkel zuordnen, insbesondere kann man damit
Orthogonalität denieren.
Bilinearformen.
Denition. Für einen K -Vektorraum V heiÿt die Abbildung
:V V !K
eine Bilinearform auf V , wenn in beiden Komponenten linear ist,
vgl. Kapitel 5.2. Es gilt (v; 0) = (0; w ) = 0 für alle v; w 2 V .
Sei V ein K -Vektorraum mit Basis (v1 ; : : : ; vn ), sei C = (ci;j ) 2 M(n; K ),
Pn
Pn
und seien v =
i=1 ai vi und w =
j =1 bj vj Darstellungen der beiden
Vektoren, d.h. die Koordinatentupel dieser Vektoren sind (a1 ; : : : ; an )
T
bzw. (b1 ; : : : ; bn ). Dann bezeichnet der Ausdruck v Cw stillschweigend
das Matrixprodukt des Koordinatenvektors von v als Zeilenvektor mit
der Matrix C und dem Koordinatenvektor von w als Spaltenvektor,
P
T
also v Cw =
ac b.
1i;j n i i;j j
7.1.
Es gibt Matrixdarstellungen von Bilinearformen auf endlich dimensionalen Vektorräumen.
Satz 7.1.1. Sei V ein K -Vektorraum mit Basis (v1 ; : : : ; vn ), sei C =
(ci;j ) 2 M(n; K ). Dann ist eine Bilinearform C gegeben durch
X
C : V V ! K;
C (v; w) =
ai ci;j bj = v T Cw;
wobei
v
P
= ni=1 ai vi
und
w
P
= nj=1 bj vj .
Für eine xierte Basis ist die Zuordnung
schen
M(n; K )
kehrung
C
7! C eine Bijektion zwi-
und der Menge aller Bilinearformen auf
7! C = (vi ; vj )
Beweis. Mit
i;j n
1
C ist C
V,
mit Um-
.
wohldeniert und bilinear nach dem Distributiv-
gesetz für die Matrixmultiplikation, vgl. Satz 3.1.2. Die Koordinaten-
vi bezüglich der Basis (v1 ; : : : ; vn) sind die EinheitsvekT
toren ei , also C (vi ; vj ) = ei Cej = cij . Also folgt aus C = D sofort
C = D, und die Abbildung C 7! C ist injektiv.
Wir zeigen die Surjektivität. Für eine Bilinearform ist
vektoren der
(v; w) = (
n
X
i=1
ai vi ;
n
X
j =1
bj vj ) =
n
X
i;j =1
ai (vi ; vj )bj = v T Cw;
LINEARE ALGEBRA
C = ( (vi ; vj )),
(vi ; vj ) .
mit
d.h.
=
C .
Die Umkehrung ist
83
7! C
=
Denition. Die Matrix C = (vi ; vj ) heiÿt darstellende Matrix von V bzgl. der Basis (v1 ; v2 ; : : : ). Zwei Matrizen A; B 2 M(n; K ) heiÿen kongruent , wenn es eine invertierbare Matrix S 2 GL(n; K ) gibt
T
derart, dass A = S BS . Kongruenz von Matrizen ist eine ÄquivaT 1 = (S 1 )T und (SU )T = U T S T . Die Äquilenzrelation wegen (S )
valenzklassen heiÿen Kongruenzklassen .
Wenn eine Matrix in einer
Kongruenzklasse symmetrisch ist, dann sind es alle.
Satz 7.1.2.
Die darstellenden Matrizen einer Bilinearform auf einem
endlich dimensionalen Vektorraum bilden eine komplette Kongruenzklasse. Insbesondere ist der Rang einer darstellenden Matrix einer Bilinearform basisunabhängig.
S = (sij ) 2 GL(n; K ) die Basistransformationsmatrix
von
Pn
0
0
0
der Basis (v1 ; : : : ; vn ) zur Basis (v1 ; : : : ; vn ), also vj =
k=1 sk;j vk . Die
Bilinearform sei bzgl. beider Basen dargestellt durch C = (cij ) bzw.
C 0 = (c0ij ). Dann ist C 0 = S T CS , denn
Beweis. Sei
c0ij = (vi0 ; vj0 ) = (
Jedem
S
n
X
k=1
sk;ivk ;
n
X
l=1
sl;j vl ) =
n
X
k;l=1
sk;i (vk ; vl )sl;j = (S T CS )ij :
2 GL(n; K ) entspricht eine Basistransformation.
Also ent-
steht eine komplette Kongruenzklasse als Menge aller darstellenden
Matrizen einer Bilinearform.
Kongruente Matrizen sind insbesonde-
re äquivalent, haben also gleichen Rang.
Denition.
(v; w) = 0,
auf V heiÿt regulär , wenn aus
für alle v 2 V , folgt w = 0, und analog für die zweite
Komponente. Die Bilinearform heiÿt symmetrisch , wenn (v; w ) =
(w; v ), und antisymmetrisch , wenn (v; w) = (w; v ). Eine Bilinearform auf einem reellen Vektorraum heiÿt positiv denit , wenn
(v; v ) > 0 für alle 0 6= v 2 V . Nur für angeordnete Körper kann man
von positiv sprechen. Die Körper Q ; R sind wie üblich angeordnet.
Die Bilinearform
Endliche Körper und z.B.
C
lassen sich nicht anordnen.
n mit darstellender Matrix C 2 M(n; K ) ist genau dann regulär, wenn C invertierbar
T
ist, bzw. rang C = n oder det C 6= 0. Denn (v; w ) = v Cw = 0, für
w 6= 0 und für alle v 2 V , ist äquivalent zu Cw = 0, d.h. der Kern
von C ist nicht trivial, und C ist nicht invertierbar. Der gemeinsame
Eine Bilinearform auf einem Vektorraum der Dimension
Rang aller darstellenden Matrizen einer Bilinearform heiÿt Rang der
Bilinearform.
84
LINEARE ALGEBRA
Lemma 7.1.3.
Eine Bilinearform auf einem endlich dimensionalen
Vektorraum ist genau dann (anti)symmetrisch, wenn ihre darstellen-
A
den Matrizen (anti)symmetrisch, d.h.
=
AT ,
sind.
Eine positiv
denite Bilinearform auf einem reellen Vektorraum ist regulär.
Beweis. Sei
symmetrisch (bzw. analog antisymmetrisch) mit dar-
C = (cij ) bzgl. der Basis (v1 ; : : : ; vn ), also ci;j =
(vi; vj ) = (vj ; vi ) = cj;i . Für eine symmetrische Matrix C gilt umgestellender Matrix
kehrt
(v; w) = v T Cw = (v T Cw)T = wT C T v = wT Cv = (w; v ):
Sei ausgeartet, also (v; w ) = 0 für v 6= 0 und für alle w 2 V ,
(v; v ) = 0, und ist nicht positiv denit.
d.h.
Skalarprodukt und hermitesche Form.
Denition. Eine positiv denite, symmetrische Bilinearform eines
7.2.
reellen Vektorraumes heiÿt Skalarprodukt oder inneres Produkt .
Ein
reeller Vektorraum mit Skalarprodukt heiÿt euklidischer Raum . Man
vw = (v; w) und die
p
wohldenierte reelle Zahl jv j =
vv heiÿt Betrag , Norm oder Länge
schreibt für ein xiertes Skalarprodukt alternativ
v.
Denition.
von
Für einen komplexen Vektorraum
:V
V !C
eine hermitesche Form , wenn für alle
der Konjugation in
(1)
(2)
(3)
C
gelten:
V
heiÿt die Abbildung
v; v 0 ; w; w0 2 V
und
a2C
bzgl.
(v + v 0 ; w) = (v; w) + (v 0; w).
(av; w) = a (v; w).
(v; w) = (w; v ).
Hermitesche Formen sind nicht bilinear und sowieso nicht symmetrisch.
linear, in der rechten nur additiv. Mit
a + b = a + b und ab = ab für komplexe Zahlen a; b
0
folgen für v; w; w 2 V und a 2 C sofort:
In der linken Komponente ist
den Rechenregeln
(1)
(2)
(3)
(4)
(v; aw) = a (v; w).
(v; v ) 2 R .
(v; w + w0 ) = (v; w) + (v; w0).
(v; 0) = (0; w) = 0.
Eine hermitesche Form heiÿt positiv denit , wenn
0 6= v
(v; v ) > 0 für alle
2 V . Eine positiv denite hermitesche Form heiÿt Skalarprodukt
LINEARE ALGEBRA
85
oder inneres Produkt oder komplexes Skalarprodukt , und ein komplexer Raum mit Skalarprodukt heiÿt unitärer Raum .
Wie bei euklidi-
p
schen Räumen schreibt man für ein xiertes Skalarprodukt alternativ
vw = (v; w) und die wohldenierte reelle Zahl jv j = vv heiÿt Betrag ,
Norm oder Länge von v . Oensichtlich ist die Länge eines Vektors vom
verwendeten Skalarprodukt abhängig, also keine absolute Eigenschaft
eines Vektors.
Denition.
Sei A = (ai;j ) eine komplexe Matrix. Die Matrix
A = aj;i heiÿt adjungiert oder transponiert-konjugiert zu A, d.h. A
entsteht aus A durch Transponieren und Konjugieren der Einträge.
Für passende Matrizen gelten oensichtlich die Regeln (A ) = A,
(A + B ) = A + B und (cA) = cA und (BA) = A B und (A 1 ) =
(A ) 1 . Weiter gilt det(A ) = det(A), wegen det(AT ) = det(A), vgl.
Satz 5.4.1 (1).
A heiÿt hermitesch , wenn A = A , z.B. A =
1 i
i 1 . Eine Matrix A heiÿt schief-hermitesch , wenn A = A , und
schief-symmetrisch , wenn A =
AT . Man sagt auch antihermitesch
Eine
komplexe
Matrix
und antisymmetrisch .
Insbesondere sind die Diagonaleinträge einer
hermiteschen Matrix reell, und die einer schief hermiteschen Matrix
alle rein imaginär. Eine reelle Matrix, betrachtet als komplexe Matrix,
ist genau dann hermitesch, wenn sie symmetrisch ist.
Für komplexe Matrizen
deniert durch
2 M(n; C ) ist eine komplexe Kongruenz
mit (invertierbarer) Matrix S 2 GL(n; C ).
A; B
B = S AS
Das ist eine Äquivalenzrelation. Wenn eine Matrix in einer komplexen
Kongruenzklasse hermitesch ist, dann sind es alle.
Auch hermitesche Formen haben darstellende Matrizen. Die beiden folgenden Sätze beweist man fast wörtlich so wie die Sätze 7.1.1 und 7.1.2.
Satz 7.2.1.
sei C = C
V ein komplexer Vektorraum mit Basis (v1 ; : : : ; vn ),
= (ci;j ) eine hermitesche n n Matrix. Dann ist eine
hermitesche Form C gegeben durch
C : V
Sei
V !C;
X
C (v; w) =
i;j n
ai ci;j bj = v T C w;
1
wobei
v
P
= ni=1 ai vi
und
w
P
= nj=1 bj vj .
C 7! C eine Bijektion zwinn Matrizen und der Mengealler
hermiteschen Formen auf V , mit Umkehrung 7! C = (vi ; vj ) .
Für eine xierte Basis ist die Zuordnung
schen der Menge aller hermiteschen
86
LINEARE ALGEBRA
Satz 7.2.2.
Die darstellenden Matrizen einer hermiteschen Form auf
C -Vektorraum bilden eine komplette kom-
einem endlich dimensionalen
plexe Kongruenzklasse. Insbesondere ist der Rang einer darstellenden
Matrix einer hermiteschen Form basisunabhängig.
Denition.
Sei
V
torraum mit Basis
vw =
für
v
P
= ni=1 ai vi
dukt auf
V
n-dimensionaler Vek-
ein reeller, bzw. komplexer,
(v1 ; : : :
und
; vn ).
n
X
i=1
w
ai bi ;
Durch
bzw.
P
= ni=1 bi vi
vw =
n
X
i=1
aibi
wird das sog. Standardskalarpro-
deniert. Die darstellende Matrix bzgl. der gegebenen Basis
ist jeweils die Einheitsmatrix. Häug verwendet man für den reellen,
bzw. komplexen arithmetischen Vektorraum
Rn
bzw.
Cn
stillschwei-
gend die Basis der Einheitsvektoren um das Standardskalarprodukt zu
denieren.
Beispiel.
Sei
Bilinearform
V
= f(x; y )
, deniert durch
4
x;
y
=
0 x x
y ; y0
j x; y 2 Rg die reelle Zahlenebene.
2
ist ein Skalarprodukt, denn
0
2
3
x
y0
= 4xx0
2xy 0
Die
2yx0 + 3yy 0;
ist oensichtlich symmetrisch, und positiv
denit, wegen der quadratischen Ergänzung
falls
x ; x
y y
= 4x2
4xy + 3y 2 = (2x
y )2 + 2y 2 > 0;
(x; y ) 6= 0.
Denition. Für einen reellen Vektorraum V wird das Kroneckerprodukt Z = V V zu einem komplexen Vektorraum vermöge
(v1 ; v2 )+(w1 ; w2 ) = (v1 + w1 ; v2 + w2 )
und
(a + ib)(v; w) = (av
bw; aw + bv):
Z = fv + iw j v; w 2 V g,
i2 = 1,
(v + iw ) + (v 0 + iw 0 ) = (v + v 0 ) + i(w + w 0 )
(a + ib)(v + iw ) = (av bw ) + i(aw + bv ):
Die Abbildung ' : V
! Z , deniert durch '(v) = (v; 0) = v + 0i,
ist eine Einbettung , d.h. injektiv, und man identiziert V mit seinem
Bild 'V in Z . Der Vektorraum Z heiÿt komplexe Erweiterung von V .
Die Einbettung 'V in Z ist ein reeller Vektorraum, also kein (komplexer) Unterraum von Z .
Der Nullvektor ist
(0; 0).
Man schreibt auch
ähnlich wie bei den komplexen Zahlen mit Rechenregel
LINEARE ALGEBRA
Übrigens wird das Kroneckerprodukt
X
=
V
komplexen Vektorraum vermöge
(v1 ; v2 )+(w1 ; w2 ) = (v1 +w1 ; v2 +w2 )
und
87
V
alternativ zu einem
(a+ib)(v; w) = (a+ib)v; (a+ib)w
auch zu einem komplexen Vektorraum. Allerdings ist das nicht die komplexe Erweiterung. U.A. ist die komplexe Dimension der komplexen Er-
Z gleich der reellen Dimension von V , also dimC Z = dimR V ,
X doppelt so groÿ ist, also
dimC X = 2 dimR V .
weiterung
während die komplexe Dimension von
Die komplexe Erweiterung eines reellen Vektorraumes dient dazu Sätze
über reelle und komplexe Vektorräume gemeinsam zu beweisen.
Die
nächsten Ergebnisse legen diese Möglichkeit nahe.
Satz 7.2.3. In der komplexen Erweiterung Z des reellen Vektorraumes V ist jede R -Basis von V , d.h. eine Basis des R -Vektorraumes V ,
auch eine C -Basis von Z , d.h. eine Basis des C -Vektorraumes Z . Insbesondere
dimC
Z = dimR V:
Beweis. Es genügt die Aussage für endlich dimensionale Vektorräume
zu zeigen, da sich sowohl die lineare Unabhängigkeit als auch das Erzeugnis auf endliche Teilmengen einer Basis zurückführen lässt.
R
C
Es
-Basis ist. Aus 0 =
1 ; : : : ; vn ) eine
Pn
Pn -Basis (vP
n
(
a
+
ib
)
v
=
a
v
+
i
b
v
folgt
bei
separater Betrachj j
j =1 j
j =1 j j
j =1 j j
tung der Real- und Imaginärteile, dass alle aj ; bj gleich 0 sind, also auch
alle aj + ibj = 0, d.h. die vj sind über
linear unabhängig.
Pn
P
Sei v + iw
ZP, d.h. v; w V mit v = j =1 aj vj und w = nj=1 bj vj
n
und v + iw =
j =1 (aj + ibj )vj , d.h. (v1 ; : : : ; vn ) erzeugt Z über .
wird gezeigt, dass die
2
Beispiel.
C
2
C
Die komplexe Erweiterung des arithmetischen Vektorrau-
n
R n ist der arithmetische
Vektorraum C , vermöge der Einbettung
n
n
bzw. Identizierung ' : R
! C , deniert durch
mes
'(a1 ; : : : ; an ) = (a1 ; : : : ; an );
denn v +iw = (a1 ; : : : ; an )+i(b1 ; : : : ; bn ). Die Einheitsvektoren e1 ; :::; en
sind sowohl eine Basis von
dimC
C n = n, aber dimR C
Bemerkung.
Rn n als auch von C n. Man beachte dimR R n =
= 2n.
Das obige Beispiel macht klar, dass man zur komplexen
Erweiterung durch eine Erweiterung des Skalarenkörpers kommt. Diese Vorgehensweise ist motiviert durch die übliche Interpretation eines
reellen charakteristischen Polynoms einer reellen Matrix als komplexes
Polynom, z.B. um immer von Nullstellen, gegebenenfalls von komplexen Nullstellen, sprechen zu können.
88
LINEARE ALGEBRA
Denition. Seien Mengen A A0 und B B 0 und eine Abbildung
: A ! B gegeben. Eine Abbildung b : A0 ! B 0 heiÿt eine Fortsetzung von , wenn für die Einschränkung oder Restriktion bjA auf A
gilt bjA = . Wir betrachten hier nur lineare Abbildungen ; b. In der
Analysis ist man z.B. an stetigen oder dierenzierbaren Abbildungen
interessiert.
Nach Satz 7.2.3 ist jede
R -Basis der komplexen Erweiterung Z auch eine
C -Basis. Also hat eine Fortsetzung einer reellen linearen Abbildung für
endlich dimensionale Vektorräume dieselbe darstellende Matrix. Damit
folgt sofort das nächste Resultat.
Satz 7.2.4. Seien V; V 0 reelle Vektorräume mit den komplexen Erwei0
terungen Z; Z . Eine R -lineare Abbildung : V
! V 0 hat genau
0
eine C -lineare Fortsetzung b : Z ! Z deniert durch b(v + iw ) =
(v ) + i(w). Insbesondere ist für endlich dimensionale reelle Vektorräume die darstellende reelle Matrix von bzgl. xierter reeller Basen
0
von V; V auch die darstellende Matrix von b bzgl. derselben Basen.
Satz 7.2.5. Jedes auf einem reellen Vektorraum gegebene Skalarprodukt vw kann auf genau eine Weise zu einem komplexen Skalarprodukt
der komplexen Erweiterung fortgesetzt werden, nämlich
(v + iw )(v 0 + iw 0 ) = (vv 0 + ww 0 ) + i(wv 0
vw0):
b einer Bilinearform von V auf Z ist
b(v + iw; v 0 + iw0 ) = (v; v 0) + i (w; v 0) i (v; w0) + (w; w0):
Beweis. Für eine Fortsetzung
(7.1)
Damit ist sowohl die Existenz, als auch die Eindeutigkeit von
b gezeigt.
b die denierenden Eigenschaften einer hermiteschen
b ist positiv denit, weil symmetrisch und positiv denit
Form, und Man bestätigt für
ist, wegen
b(v + iw; v + iw)
Denition.
=
=
(v; v ) i (v; w) + i (w; v ) + (w; w)
(v; v ) + (w; w) 0:
Die eindeutigen Fortsetzungen von linearen Abbildungen
reeller Vektorräume bzw. von Skalarprodukten euklidischer Vektorräume auf die komplexen Erweiterungen heiÿen komplexe Fortsetzungen .
Die komplexe Erweiterung eines euklidischen Vektorraumes wird mit
der komplexen Fortsetzung des Skalarproduktes zu einem unitären Vektorraum.
Mit den beiden Sätzen 7.2.4 und 7.2.5 können Sachverhalte für reelle
bzw. euklidische Räume in Sachverhalte für komplexe oder unitäre Räume übersetzt und dort behandelt werden. Die Resultate schränkt man
LINEARE ALGEBRA
89
dann ohne nochmaligen Aufwand auf die eingebetteten reellen bzw.
euklidischen Vektorräume ein. Diese Methode ist deswegen so vorteilhaft, weil z.B. das charakteristische Polynom einer reellen Matrix i.A.
nicht in (reelle) Linearfaktoren zerfällt, wohl aber als Polynom über
den komplexen Zahlen.
Natürlich lassen sich Endomorphismen mit
einem charakteristischen Polynom, das in Linearfaktoren zerfällt viel
angenehmer behandeln, denn es gibt Eigenwerte und Eigenvektoren.
Betrag und Orthogonalität.
In diesem Abschnitt ist V entweder ein euklidischer oder ein unitärer
Vektorraum mit Skalarprodukt vw .
Satz 7.3.1. (Schwarzsche Ungleichung) Sei V ein euklidischer oder
unitärer Vektorraum. Für v; w 2 V gilt
jvwj2 (vv)(ww); bzw. jvwj jvj jwj;
mit Gleichheit, genau für v und w linear abhängig.
7.3.
Beweis. Für
w
=0
gilt die Gleichheit. Sei also
w
6= 0, d.h. ww > 0,
a 2 C beliebig. Dann ist
0 (v aw )(v aw ) = (vv ) a(vw) a
(vw ) + aa
(ww ):
Durch Einsetzen von a = (vw )=(ww ), d.h. a
= (vw)=(ww ), und Multiplikation mit ww > 0 ergibt sich
0 (vv )(ww ) (vw )(vw) = (vv )(ww ) jvw j2
mit Gleichheit genau dann, wenn v und w linear abhängig sind.
und sei
Anwendung der Schwarzschen Ungleichung auf das Standardskalarprodukt führt sofort zum folgenden Korollar.
Korollar 7.3.2.
Für
x1 ; : : : ; xn ; y1 ; : : : ; yn 2 R
n
X
i=1
xi yi
2
n
X
i=1
x2i
n
X
i=1
gilt:
yi2 :
Die Eigenschaften des Betrags von Vektoren werden in der folgenden
Proposition zusammen gestellt.
Proposition 7.3.3. Sei V ein euklidischer oder unitärer Vektorraum.
Für v; w 2 V und Skalar a gelten:
(1) jv j 0 mit Gleichheit genau für v = 0.
(2) jav j = jajjv j, insbesondere jv j = j
v j = jiv j.
90
LINEARE ALGEBRA
jv + wj jvj + jwj (Dreiecksungleichung) mit Gleichheit genau
für
v = 0oder w = av mit 0 a 2 R .
(4) jv j
jwj j v wj.
(3)
Beweis. (1) gilt, weil Skalarprodukte positiv denit sind.
p
javj =
(2) folgt wegen
(av )(av ) =
p p
aa vv = jajjv j.
v; w ist
jv + wj2 = (v + w)(v + w) = jvj2 + jwj2 + vw + vw
= jv j2 + jw j2 + 2 Re(vw ) jv j2 + jw j2 + 2jv jjw j
= (jv j + jw j)2 ;
wegen Re(vw ) jvw j jv jjw j, vgl. die Schwarzsche Ungleichung und
(3) Für Vektoren
Abschnitt 0.3.
Für die Gleichheit müssen also wegen der Schwarzschen Ungleichung
linear abhängig sein, d.h. entweder
hinaus
jvjjwj = jajjvj
2
Somit ist
v
=0
oder
w
=
av ,
v; w
und darüber
= Re(vw) = Re v (av ) = Re a
(vv ) = Re(
a)jvj2 = Re(a)jvj2 :
jajjvj
2
= Re(a)jv j2 ,
d.h.
a2R
und
a 0.
v w statt v in die Dreiecksungleichung ergibt: jv j jv wj + jwj, d.h. jvj jwj jv wj. Setzt man analog w v statt w
ein, dann ergibt sich jw j
jvj jv wj.
(4) Einsetzen von
Denition.
Sei
V
Vektor vom Betrag
Für zwei Vektoren
ein euklidischer oder unitärer Vektorraum. Ein
1
heiÿt normiert . Für
v; w 2 V
6= 0 ist jvj v normiert.
v
wird der Winkel
durch den Cosinus deniert wie folgt:
cos ' = cos(v; w ) =
1
',
den sie einschlieÿen,
vw
jvjjwj :
Wegen der Schwarzschen Ungleichung ist der Winkel
1
Fall, wohldeniert, da
vw
jvjjwj
1.
', z.B. im reellen
Mit den obigen Denitionen von Länge und Winkel von Vektoren lässt
sich der Cosinussatz und der Satz des Pythagoras beweisen.
Satz 7.3.4.
(Cosinussatz,
Pythagoras) Für die Vektoren
euklidischen Vektorraum gilt
jv wj
2
und für
vw = 0 gilt
= jv j2 + jw j2
jv wj
2
2jv jjw j cos(v; w );
= jv j2 + jw j2 :
v; w in einem
LINEARE ALGEBRA
91
Beweis. Nach obiger Denition des Winkels erhält man
jv wj
= (v
2
w)2 = jvj2 + jwj2
2vw = jv j2 + jwj2
2jv jjwj cos ':
Denition. Sei V ein euklidischer oder unitärer Vektorraum. Die
Vektoren v; w 2 V heiÿen orthogonal oder senkrecht , v ? w , wenn
vw = 0. Eine nicht leere Menge M V heiÿt Orthogonalsystem ,
wenn 0 2
= M , und wenn je zwei Vektoren aus M orthogonal sind. Ein
Orthogonalsystem aus lauter normierten Vektoren heiÿt Orthonormal-
system .
Sinngemäÿ spricht man von Orthogonalbasis und Orthonor-
malbasis . Für ein Orthonormalsystem
(v1 ; v2 ; : : : )
gilt
vi vj
dem Kroneckersymbol.
Satz 7.3.5.
= Æi;j
mit
Orthogonalsysteme sind linear unabhängig.
2
PnM ein Orthogonalsystem und v1 ; : : : ; vn M . Multiplikai=1 ai vi = 0 mit vj von rechts ergibt aj = 0, also schlieÿlich
lineare Unabhängigkeit der vi .
Beweis. Sei
tion von
die
Proposition 7.3.6.
Sei
klidischen oder unitären
und
w=
Pn
j =1 bj vj
(v1 ; : : :
; vn) eine Orthonormalbasis P
eines eun
Vektorraumes. Dann gilt für v =
i=1 ai vi
vw =
und
n
X
i=1
ai bi ;
aj = vvj , für j = 1; : : : ; n, d.h. v =
Pn
i=1 (vvi )vi .
Beweis. Man berechnet die Skalarprodukte direkt
vw = (
n
X
i=1
n
X
ai vi )(
und
vvj = (
Bemerkung.
n
X
i=1
j =1
bj vj ) =
ai vi )vj =
n
X
i;j =1
n
X
i=1
ai bj (vi vj ) =
ai (vi vj ) =
n
X
i=1
n
X
i;j =1
ai bi ;
Länge, Winkel und Orthogonalität von Vektoren sind
plexer Vektorraum mit einer beliebigen Basis
vw =
v=
i=1
ai Æij = aj :
nur relativ zu einem Skalarprodukt erklärt. Sei
sofern
ai bj Æij =
n
X
Pn
i=1 ai vi
und
w
n
X
ai bi ;
i=1
P
= nj=1 bj vj , ist
V
ein reeller oder kom-
(v1 ; : : :
; vn ).
Durch
ein Skalarprodukt auf
V
deniert. Bzgl. dieses Skalarproduktes ist die vorgegebene Basis eine
92
LINEARE ALGEBRA
Orthonormalbasis.
Also lässt sich jede Basis durch geeignete Deni-
tion eines Skalarproduktes zu einer Orthonormalbasis machen.
Die
Umkehrung dieser Fragestellung heiÿt Orthogonalisierung und wird im
nächsten Abschnitt behandelt.
Orthogonalisierung.
7.4.
Der folgende Satz beantwortet die Frage, wie man in einem euklidischen
oder unitären Vektorraum, mit gegebenem Skalarprodukt
vw, eine Or-
thonormalbasis berechnet. Die Vektorräume in denen das möglich ist,
müssen von höchstens abzählbarer Dimension sein. Der Algorithmus
im Beweis des Folgenden Satzes wird Gram-Schmidtsches Orthonor-
mierungsverfahren genannt.
Satz 7.4.1. (Gram-Schmidt) Zu jedem höchstens abzählbaren System
(v1 ; v2 ; : : : ) linear unabhängiger Vektoren eines euklidischen oder unitären Vektorraumes existiert genau ein Orthonormalsystem (e1 ; e2 ; : : : )
mit folgenden Eigenschaften:
(1)
hv ; : : : ; vk i = he ; : : : ; ek i für alle k 2 N .
1
1
(2) Die zugehörige Basistransformationsmatrix ist jeweils eine Drei-
ecksmatrix mit reeller positiver Determinante.
Mit
e1 = jv1 j 1 v1
gilt rekursiv
ek+1 =
Pk
i=1 (vk+1 ei )ei
Pk
i=1 (vk+1 ei )ei
vk+1
jvk+1
j
; k2N:
Insbesondere lässt sich bei höchstens abzählbarer Dimension jedes endliche Orthonormalsystem zu einer Orthonormalbasis fortsetzen, d.h. es
gibt für euklidische oder unitäre Vektorräume höchstens abzählbar unendlicher Dimension immer eine Orthonormalbasis.
Beweis. Es wird eine Induktion über
he i,
1
da
v1
6=
0,
und
jv j
1
1
k
geführt. Für
positiver Determinante. Die Behauptung gelte für
sondere
k = 1 ist hv1 i =
ist die Basistransformationsmatrix mit
Uk = hv1 ; : : : ; vk i = he1 ; : : : ; ek i.
1; : : :
; k, also insbe-
k + 1, gilt vk+1 2= he1 ; : : : ; ek i, d.h.
; ek ; vk+1 ) ist linear unabhängig. Nach Annahme ist Uk+1 =
he1; : : : ; ek+1i = hv1; : : : ; vk+1i, und die Basistransformationsmatrix
Für den Induktionsschluss, also
(e1 ; : : :
LINEARE ALGEBRA
von
(v1 ; : : :
; vk )
nach
(e1 ; : : :
ver Determinante, d.h. mit
e1
e2
=
=
.
.
.
ek
=
=
ek+1
wobei
ak+1;k+1
=
; ek )
93
ist eine Dreiecksmatrix mit positi-
a1;1 ak;k > 0 ist
a1;1 v1
a1;2 v1 + a2;2 v2
a1;k v1 + + ak;k vk
a1;k+1 v1 + + ak;k+1vk + ak+1;k+1 vk+1 ;
jvk
Pk
i=1 (vk+1 ei )ei
+1
transformationsmatrix auch für
j > 0.
1
Also ist die Basis-
k + 1 eine Dreiecksmatrix mit positiver
Determinante. Abschlieÿend erhält man aus
ek+1 ej = vk+1 ej
dass
k
X
k
X
i=1
i=1
(vk+1 ei )(ei ej ) = vk+1 ej
(vk+1 ei )Æij = 0;
ek+1 senkrecht ist zu allen e1 ; : : : ; ek .
Die Eindeutigkeit der
e1 ; : : : ; ek+1 folgt aus Uk+1 = hek+1 i Uk und der
positiven Determinante der Basistransformationsmatrix, denn dadurch
ist die zweite Möglichkeit, nämlich
ek+1
statt
ek+1 ,
ausgeschlossen.
Der Rest ist oensichtlich.
Bemerkung.
Jeder Vorzeichenfolge in
Orthonormalbasis
(v1 ; v2 ; v3 ; : : : )
(v1 ; v2 ; v3 ; : : : )
für eine
entspricht eine Orientierung .
Man
vereinbart die sog. rechte Hand Regel oder Fingerregel . Wendet man
das Gram-Schmidtsche Orthonormierungsverfahren auf eine Orthonormalbasis an, dann bleibt diese nach Satz 7.4.1 unverändert, d.h. die
Orientierung wird nicht verändert, weil die zugehörigen Basistransformationsmatrizen alle positive Determinanten haben.
Beispiel.
In
R
4
sei das Standardskalarprodukt
vw = a1 b1 + + a4 b4
gegeben. Anwendung des Orthonormierungsverfahrens auf
v1 = (4; 2;
2; 1);
v2 = (2; 2;
4; 5);
v3 = (0; 8;
2; 5)
94
LINEARE ALGEBRA
ergibt:
e1 =jv1 j 1 v1 = 5
e02 =v2
1
(4; 2; 2; 1);
(v2 e1 )e1 = (2; 2; 4; 5)
25 1
(4; 2; 2; 1) = ( 2; 0; 2; 4);
5 5
e2 =je02 j 1 e02 =
p1
e03 =v3
(v3 e2 )e2
25 1
5)
(4; 2; 2; 1)
5 5
(v3 e1 )e1
=(0; 8; 2:
24
( 2; 0; 2; 4);
=( 2; 6; 2; 0);
e3 =je03 j 1 e03 =
p1
44
p24 p1
24
24
( 2; 0; 2; 4)
( 2; 6; 2; 0):
Denition. Sei V ein euklidischer oder unitärer Vektorraum. Die
Teilmengen M; N V heiÿen orthogonal , M ?N , wenn vw = 0 für alle
v 2 M und w 2 N . Es gilt ;?M und 0?M für alle Teilmengen M . Die
?
Menge M = fv 2 V j v ?M g heiÿt orthogonales Komplement von M ,
vgl. Dualraum. Wegen der Bilinearität des Skalarprodukts eines eu-
klidischen Vektorraumes, bzw. den ähnlichen Eigenschaften für einen
unitären Vektorraum, ist das orthogonale Komplement einer Menge
immer ein Unterraum. Für einen Unterraum
?
aus v 2 U \ U
folgt
vv = 0, also v = 0.
d.h. es
Beweis.
N ?,
falls
M
ist
U \ U?
= 0,
weil
Das ist der Grund für die Be-
zeichnung Komplement. Die Operation ?
gilt M
U
? ist ein dualer Operator ,
N , vgl. Korollar 3.6.7, mit gleichem
Im folgenden Lemma werden einige Regeln für orthogonale Komplemente zusammen gestellt.
Lemma 7.4.2.
Seien
M; N
Teilmengen eines euklidischen oder unitä-
ren Vektorraumes. Dann gelten:
(1)
(2)
M ? = hM i? = hM ?i.
M ?N () hM i?hN i.
Insbesondere sind Unterräume genau dann zueinander orthogonal, wenn
ihre Basen zueinander orthogonal sind.
Beweis. (1):
folgt
M?
Gleichheit.
(2): Für
v=
M ? ist Unterraum, also M ? = hM ?i. Aus M hM i
hM i?. Weiter ist M ??hM i, also ist M ? hM i?, mit
P
ai vi
vi 2MP
M ?N , sofort vw =
lich.
2 hM i und w = Pwj 2N bj wj 2 hN i folgt aus
i;j ai bj (vi wj ) = 0.
Die Umkehrung ist oensicht-
LINEARE ALGEBRA
95
Der folgende Satz gilt allgemein nur für Unterräume endlich dimensionaler euklidischer oder unitärer Vektorräume.
Satz 7.4.3.
Für einen Unterraum
U
eines endlich dimensionalen eu-
klidischen oder unitären Vektorraumes
(1)
(2)
V
gelten:
V = U U ?.
U ?? = fv 2 V j uv = 0 für alle u 2 U ? g = U .
Insbesondere ist
dim V = dim U + dim U ? .
Beweis. (1): Eine Orthonormalbasis
(v1 ; : : :
; vr ) von U
lässt sich nach
dem Basisergänzungssatz und dem Gram-Schmidtschen Orthonormie-
v ; : : : ; vr ; vr+1 ; : : : ; vn) von
rungsverfahren zu einer Orthonormalbasis ( 1
V
fortsetzen.
W = hvr+1 ; : : : ; vn i gilt somit V = U W
V = U W U U ? V mit Gleichheit.
Für
(2): Nach (1) ist
U ?? U ? U
U = U ??.
Denition.
V
=
V,
=
Sei
V
U ? U ??
und, da
mit Gleichheit.
U
und
W
U ?, also
U ??, folgt V
Also
= U? dim U ?? = dim U , d.h.
ein euklidischer oder unitärer Vektorraum endli-
U und v 2 V . Ein Vektor vU 2 U heiÿt
v auf U , wenn v = vU + w für ein w 2 U ?.
Für v 2 U ist natürlich vU = v . Die orthogonale Projektion ist eindeu0
0
tig, da aus vU + w = vU + w , wegen vU
vU0 = w0 w 2 U \ U ? = 0,
0
sofort vU = vU folgt. Es handelt sich hierbei um die Parallelogrammcher Dimension mit Unterraum
orthogonale Projektion von
zerlegung von Vektoren.
Die Existenz einer orthogonalen Projektion lässt sich für unendlich
dimensionale Unterräume nicht allgemein beweisen.
Satz 7.4.4.
Sei
U
ein endlich dimensionaler Unterraum des euklidi-
V.
schen oder unitären Vektorraumes
V
die (eindeutige) orthogonale Projektion
eine Orthonormalbasis von
U,
Satz 7.4.1,
(7.2)
vU
=
vU
dann ist, vgl.
n
X
i=1
v 2
(e1 ; : : : ; en )
Dann existiert zu jedem
(vei )ei :
auf
U.
Ist
Proposition 7.3.6 und
96
LINEARE ALGEBRA
Beweis. Es genügt zu zeigen, dass
(v
vU )vU
vvU
=
vU vU
n
X
vU )vU
=0
ist.
n
X
n
X
i=1
i=1
n
X
(vei )(vej )(ei ej )
i;j =1
j =1
=v
n
X
(v
(vei )ei
(vei )ei
(vej )ej
(vei )(vei )
i=1
n
n
X
X
=
jvei j2
(vei )(vej )Æij = 0:
i=1
i;j =1
=
Beispiel.
Die Endlichkeit der Dimensionen in den Voraussetzungen
der Sätze 7.4.3 und 7.4.4 ist notwendig. Sei nämlich
V
ein euklidischer
Vektorraum abzählbar unendlicher Dimension mit einer Orthonormal-
(e1 ; e2 ; e3 ; : : : ). Für den unendlich dimensionalen echten Unterraum U = he2
e1 ; e3 e2 ; e4 e3 ; : : : i gilt natürlich V = R e1 U .
?
Aber U = 0, und keine der beiden Aussagen in Satz 7.4.3, gilt für U .
basis
e1 2= U keinePorthogonale Projektion auf U .
U ? = 0 zu zeigen, setzt man v = ni=1 ai ei 2 U ? an.PWegen z.B.
v (e2 e1 ) = 0 erhält man a1 = a2 usw., also ist v = a ni=1 ei , und
v (en+1 en ) = 0 führt zu a = 0, d.h. v = 0.
Proposition 7.4.5. Sei U ein Unterraum eines euklidischen oder unitären Vektorraumes V und sei v 2 V . Der Vektor vU 2 U ist genau
dann die orthogonale Projektion von v in U , wenn jv
vU j jv uj
für alle u 2 U .
Darüber hinaus hat z.B.
Um
Beweis. Für jedes
jv uj
2
=
=
=
u2U
ist
vU )?(vU
(v
j(v vU ) + (vU u)j
jv vU j + jvU uj + (v vU )(vU u) + (vU u)(v vU )
jv vU j + jvU uj jv vU j ;
2
2
2
2
2
mit Gleichheit genau dann, wenn
also genau für
7.5.
u), also
u = vU
2
u = vU .
Das Minimum nimmt
an.
jv uj
Adjungierte Abbildungen und normale Endomorphismen.
Denition.
Seien
V; W
entweder zwei euklidische oder zwei unitäre
Vektorräume mit linearer Abbildung
:V
! W.
Eine lineare Ab-
! V heiÿt zu adjungiert , wenn (v)w = v(w)
für alle v 2 V und w 2 W . Dabei werden die jeweiligen Skalarprodukte
bildung
: W
V
W
in
bzw.
ist auch
genommen. Wegen der Symmetrien der Skalarprodukte
zu adjungiert, d.h. = .
LINEARE ALGEBRA
Ein Endomorphismus
97
eines euklidischen oder unitären Vektorrau-
= .
mes heiÿt selbstadjungiert , wenn ein adjungierter Endomorphismus
= ; bzw.
existiert und wenn
Lemma 7.5.1.
antiselbstadjungiert , wenn
Wenn eine adjungierte Abbildung existiert, dann ist
sie eindeutig.
Seien
V; W
entweder zwei euklidische oder zwei unitäre Vektorräume
mit linearer Abbildung
! W.
V
:
Dann existiert die adjungierte Abbildung
thonormalbasis von
V
Sei
.
Ist
V , dann gilt für alle w 2 W :
endlich dimensional.
(e1 ; : : :
; en ) eine Or-
n
X
w =
w( ei ) ei :
i=1
0
Beweis. Seien ; beide adjungiert zu , d.h.
v ( w 0 w) = v (w) v (0 w) = (v )w (v )w = 0;
für alle v 2 V und w 2 W . Dann ist w
0 w 2 V \ V ? = 0, für alle
0
w 2 W , also ist w = w, für alle w 2 W , d.h. = 0 .
Von der angegebenen Abbildung wird gezeigt, dass sie zu adjun
giert ist. Oensichtlich ist : W
! V linear, weil Skalarprodukte
in der linken Komponente linear sind. Nach Proposition 7.3.6 ist
(v )w =
=
n
X
i=1
n
X
i=1
(vei )ei
(vei )
w=
Lemma 7.5.2.
Seien
V; W
=v
(1)
(2)
(3)
(4)
(5)
Ist
i=1
w(ei) ei
.
Adjungierte von
entweder zwei euklidische oder zwei uni-
täre Vektorräume mit linearen Abbildungen
adjungierten
(vei ) (ei )w
i=1
n
X
w(ei)
= v ( w );
für alle v 2 V; w 2 W , und ist die
n
X
Abbildungen ; ; : V
! W . Wenn die
existieren, dann gelten:
( ) = .
( + ) = + .
(c) = c .
() = .
ker = (V )? und ker = ( W )? .
surjektiv, dann ist
jektiv. Sind
V; W
kehrungen, und
injektiv. Ist
surjektiv, dann ist
in-
endlich dimensional, dann gelten die jeweiligen Um-
rang = rang .
invertierbar, wenn
invertierbar ist.
Insbesondere ist
genau dann
98
LINEARE ALGEBRA
Beweis. (1) gilt laut Denition.
v 2 V; w 2 W ist
v ( + ) w = ( + )v w = (v )w + (v )w
= v ( w ) + v ( w ) = v ( + )w :
Also ( + ) w = ( + )w für alle w 2 W , d.h. ( + ) = + .
(2): Für alle
(3) und (4) bestätigt man genauso.
w 2 ker ist, wegen (v )w = v ( w) = 0, äquivalent zu v ?w,
?
für alle v 2 V . Also ker = (V ) . Deshalb, und wegen = ?
folgt ker = ker = ( W ) .
?
Sei surjektiv, d.h. V = W , dann ist ker = (V ) = 0, nach (5).
Also ist injektiv. Analog zeigt man die dazu symmetrische Aussage.
?? = (ker )? = W
Hat W endliche Dimension, dann ist V = (V )
nach Satz 7.4.3 und (5), falls injektiv ist. Somit ist surjektiv. Die
dazu symmetrische Aussage folgt, wenn V endliche Dimension hat.
Um zu zeigen, dass und gleichen Rang haben, verwendet man den
(5):
Dimensionssatz für Abbildungen, die Teilaussage (5) und Satz 7.4.3:
rang = dim W dim(ker ) = dim W
= dim V = rang :
Satz 7.5.3.
Seien
V; W
dim(V )?
zwei endlich dimensionale euklidische bzw.
A bzw. B . Sei : V ! W
Matrix M (A; B ). Dann ist
unitäre Vektorräume mit Orthonormalbasen
eine lineare Abbildung mit darstellender
die darstellende Matrix von
bzgl. derselben Basen die adjungierte
Matrix, d.h.
M (B; A) = M (A; B ) :
Insbesondere ist det = det . Für eine darstellende Matrix A, bzgl.
einer Orthonormalbasis, eines selbstadjungierten bzw. antiselbstadjungierten Endomorphismus gilt
trisch oder antisymmetrisch.
A = A .
Im reellen Fall ist
A symme-
M (A; B ) = (cij ) und M (B; A) = (dij ) bezüglich der
Orthonormalbasen A = (e1 ; : : : ; en ) bzw. B = (f1 ; : : : ; fm ) von V
bzw. W . Also ist für i = 1; : : : ; n bzw. j = 1; : : : ; m
Beweis. Sei
ei =
m
X
l=1
cli fl
und es folgt wie behauptet
n
und
X
fj =
dkj ek ;
k=1
dij = ( fj )ei = ei ( fj ) = (ei )fj = cji :
Die Zusätze sind oensichtlich.
LINEARE ALGEBRA
Denition.
99
eines euklidischen oder unitären
Vektorraumes heiÿt normal , wenn der adjungierte Endomorphismus existiert und mit vertauschbar ist, d.h. wenn = . Eine qua
dratische Matrix A heiÿt normal , wenn AA = A A. Insbesondere sind
Ein Endomorphismus
selbstadjungierte und antiselbstadjungierte Endomorphismen normal.
Lemma 7.5.4.
Ein Endomorphismus
eines euklidischen oder unitä-
ren Vektorraumes ist genau dann normal, wenn der adjungierte Endo-
v; w 2 V
(v )(w ) = ( v )( w ):
Insbesondere ist dann ker = ker .
morphismus
existiert, und wenn für alle
gilt:
normal, d.h. = . Dann ist für alle v; w 2 V
(v )(w) = v (w) = v (w) = (v ) (w):
Beweis. Sei
(v ) w = (v )(w
)=
(v ) (w) = (v ) w, für alle v; w 2 V . Also ( )(v ) w =
0, für alle v; w 2 V , d.h. (v ) = (v ), für alle v 2 V . Folglich
2
ist = und ist normal. Nach obiger Gleichung gilt: jv j =
2
j vj , und damit ker = ker .
Umgekehrt gelte die obige Gleichung, d.h.
Bemerkung.
Die komplexen Nullstellen eines reellen Polynoms treten
p(x) 2 R [x]
c 2 C gilt:
p(c) = an cn + + a0 = an cn + + a0 = p(c) = 0:
Satz 7.5.5. Sei ein normaler Endomorphismus eines euklidischen
oder unitären Vektorraumes. Dann haben und gleiche Eigenvektoren. Ist v ein Eigenvektor von zum Eigenwert a, dann ist v ein
Eigenvektor von zum Eigenwert a
. Eigenvektoren von zu verschie-
immer als Paare konjugiert komplexer Zahlen auf, weil für
mit Nullstelle
denen Eigenwerten sind orthogonal. Insbesondere sind die Eigenwerte
eines selbstadjungierten Endomorphismus alle reell und die Eigenwerte
eines antiselbstadjungierten Endomorphismus alle rein imaginär. Im
Falle endlicher Dimension zerfällt das charakteristische Polynom eines
selbstadjungierten Endomorphismus in reelle Linearfaktoren.
Beweis. Nach Lemma 7.5.4 ist
(v
av )(v
av )
= (v )2
= ( v )2
= ( v
a v (v ) a (v )v + aav 2
a ( v )v a v ( v ) + aav 2
av )(v av ):
100
LINEARE ALGEBRA
v von zum Eigenwert a auch ein Eigenvektor
von
aber zum Eigenwert a
.
Für Eigenvektoren v; w zu den verschiedenen Eigenwerten a; b ist
a(vw) = (v )w = v ( w) = v (bw) = b(vw);
also vw = 0, da a 6= b, und die Eigenvektoren zu verschiedenen EigenAlso ist ein Eigenvektor
,
werten sind orthogonal.
Die Konsequenzen für selbstadjungierte bzw. antiselbstadjungierte En-
= . Hat z.B. der selbstadjun
gierte Endomorphismus = den komplexen Eigenwert c zum Eigen
vektor v , dann hat den komplexen Eigenwert c
zum Eigenvektor v ,
domorphismen folgen sofort aus
also
c = c und c ist reell.
Denition. Sei ein Endomorphismus eines K -Vektorraumes. Ein
Unterraum U V heiÿt -invariant , wenn (U ) U . Eigenräume
von sind z.B. -invariant. Auch der 1-dimensionale Unterraum Kv
ist -invariant, wenn v ein Eigenvektor von ist. Summen und Durchschnitte -invarianter Unterräume sind wieder -invariant. Die Einschränkung jU des Endomorphismus auf den -invarianten Unterraum U ist ein Endomorphismus von U , und induziert in natürlicher Weise einen Endomorphismus des Faktorraumes V=U durch
(v + U ) = (v ) + U . Für u 2 U und u 2= U wäre nicht wohldeniert, denn 0 = (u + U ) = u + U 6= 0 2 V=U .
Beginnt eine Basis von V mit einer Basis des invarianten Unterraumes U , so hat diesbezüglich eine obere Blockdreiecksmatrix als darstellende Matrix. Gilt sogar V = U W mit -invarianten Unterräumen U; W , dann hat bzgl. einer Basis, die dieser Zerlegung folgt,
eine Blockdiagonalmatrix als darstellende Matrix. Es gelten auch die
jeweiligen Umkehrungen.
Lemma 7.5.6.
Sei
ein normaler Endomorphismus des endlich di-
V . Wenn U
-invarianter Unterraum ist, dann ist U ? -invariant. Sind U
? beide -invariant, dann sind beide auch -invariant, und
und U
(jU ) = jU . Insbesondere ist die Restriktion jU von auf U normensionalen euklidischen oder unitären Vektorraumes
ein
mal.
Beweis. Für
w
2 U ? ist u(w) = (u)w = 0, für alle u 2 U , d.h.
U ? ist -invariant. Wenn also U und U ? beide -invariant sind, dann
sind beide auch -invariant, weil für endlich dimensionale euklidische
?? = U . Für alle
oder unitäre Vektorräume nach Satz 7.4.3 gilt: U
0
0
0
0
u; u 2 U gilt: jU (u) u = (u)u = u( u ) = u jU (u0) . Also ist
(jU ) = jU und jU ist normal.
LINEARE ALGEBRA
Lemma 7.5.7.
Sei
101
ein normaler Endomorphismus des endlich di-
V mit Eigenvekv . Dann ist das orthogonale Komplement U = v ? = fu 2 V j u?v g
ein -invarianter Unterraum, und die Einschränkung jU des Endomorphismus auf U ist ein normaler Endomorphismus von U .
mensionalen euklidischen oder unitären Vektorraumes
tor
v = av . Nach Satz 7.5.5 gilt dann für u?v
(u)v = u( v ) = u(
av ) = a(uv ) = 0;
?
d.h. U = v ist -invariant. Mit Lemma 7.5.6 ist jU normal.
Beweis. Sei
Der folgende Satz charakterisiert normale Endomorphismen unitärer
Vektorräume und spezielle normale Endomorphismen euklidischer Vektorräume im Falle endlicher Dimension.
Satz 7.5.8.
Sei
ein Endomorphismus entweder eines endlich dimen-
sionalen unitären Vektorraumes, oder eines endlich dimensionalen euklidischen Vektorraumes, dessen komplexe Fortsetzung nur reelle Ei-
ist genau dann normal, wenn V
eine Orthonormalbasis aus Eigenvektoren von hat. Insbesondere ist genwerte hat. Der Endomorphismus
dann diagonalisierbar. Speziell gibt es genau für die normalen Endomorphismen unitärer Vektorräume Orthonormalbasen aus Eigenvektoren.
Beweis. Sei zunächst
Eigenvektor
v
normal.
Laut Voraussetzung hat
zu einem Eigenwert
Sei
v
immer einen
o.B.d.A. normiert.
Eine
gege-
n beginnt für n = 1 mit der oensichtlichen
Orthonormalbasis fv g. Die Behauptung wird für n gezeigt, unter der
Annahme, dass sie für n
1 gilt.
? hat nach Induktionsannahme
Das orthogonale Komplement U = v
und Lemma 7.5.7 eine Orthonormalbasis (v2 ; : : : ; vn ) aus Eigenvektoren von . Also ist (v; v2 : : : ; vn ) eine Orthonormalbasis von V aus
Induktion über
dim V =
a.
Eigenvektoren.
Sei umgekehrt eine Orthonormalbasis aus Eigenvektoren von
vi = ai vi , für i = 1; : : : ; n. Sei gegeben durch vi = ai vi ,
= falls V euklidisch ist. Dann ist für alle i; j
(vi )vj = (ai vi )vj = ai Æij = aj Æij = vi (
aj vj ) = vi (vj );
also ist = . Weiter sind und vertauschbar, da beide bezüglich derselben Basis durch Diagonalmatrizen dargestellt sind, d.h. ist
ben, also
bzw.
normal. Die Zusätze folgen sofort.
102
LINEARE ALGEBRA
Bemerkung.
Ein normaler Endomorphismus, wie in Satz 7.5.8, ist
diagonalisierbar, aber die Umkehrung gilt nicht, z.B. ist
mit den beiden verschiedenen Eigenwerten
bar nach Satz 6.2.1, jedoch nicht normal, da
2
und
AAT
1,
A=
0
1
2
1
,
diagonalisier-
6= AT A.
Denn die
Eigenvektoren bilden zwar eine Basis, aber keine Orthogonalbasis.
Weiterhin werden alle normalen Endomorphismen endlich dimensionaler euklidischer Vektorräume charakterisiert.
Lemma 7.5.9. Die komplexe Fortsetzung b eines normalen Endomorc . Sei ein normaler
phismus ist normal, und es gilt (
b) = Endomorphismus des euklidischen Vektorraumes V . Sei v = v1 + iv2
ein Eigenvektor der komplexen Fortsetzung b von zum nicht reellen
Eigenwert a. Dann ist v
= v1 iv2 ebenfalls ein Eigenvektor der komplexen Fortsetzung b und zwar zum Eigenwert a
. Insbesondere sind
v; v orthogonal, und mit v ist auch v normiert.
b von ist
b(v1 + iv2 ) (w1 + iw2 ) = (v1 )w1 + (v2 )w2 + i (v2 )w1 (v1 )w2
= v1 ( w1 ) + v2 ( w2 ) + i v2 ( w1 ) v1 ( w2 )
= (v1 + iv2 )( w1 + i w2 )
c (w1 + iw2 ):
= (v1 + iv2 )
c , und c als adjungierter Abbildung.
Also ist (
b) = b ist normal mit Für den Eigenvektor v = v1 + iv2 von b zum nicht reellen Eigenwert a =
a1 + ia2 ist
v2 = v12 + v22 + i(v1 v2 v2 v1 ) = v 2 ;
wegen der Symmetrie des reellen Skalarprodukts. Also ist v genau dann
normiert, wenn v
normiert ist. Wegen
Beweis. Für die komplexe Fortsetzung
v1 + iv2 = v
^ = (a1 + ia2 )(v1 + iv2 ) = a1 v1
a2 v2 + i(a2 v1 + a1 v2 );
folgt aus einem Vergleich der Real- und Imaginärteile
v1 = a1 v1
Damit bestätigt man
a2 v2
und
v2 = a2 v1 + a1 v2 :
v als Eigenvektor von b zum Eigenwert a, denn
^ v = v1 iv2 = a1 v1 a2 v2 i(a2 v1 + a1 v2 ) = (a1 ia2 )(v1 iv2 ) = av:
Nach Satz 7.5.5 sind die Eigenvektoren
Eigenwerten
a; a orthogonal.
v; v von b zu den verschiedenen
Ein normaler Endomorphismus eines endlich dimensionalen unitären
Vektorraumes ist diagonalisierbar über
C , und das gilt auch für die dar-
stellenden Matrizen. Nicht so einfach ist der Sachverhalt für normale
LINEARE ALGEBRA
103
Endomorphismen eines endlich dimensionalen euklidischen Vektorraumes, wenn man reelle darstellende Matrizen verwendet.
Man spricht
hier von einer reellen Normalform reeller normaler Matrizen.
Satz 7.5.10.
Ein Endomorphismus
klidischen Vektorraumes
V
eines endlich dimensionalen euV eine Or-
ist genau dann normal, wenn
eine darstellende Matrix der Form
A = diag (c1 ; : : : ; ck ; K1 ; : : : ; Kh )
a
b
j
j
hat, mit reellen Eigenwerten ci und reellen Matrizen Kj =
bj aj .
Jeder Matrix Kj entspricht ein Paar konjugiert komplexer Nullstellen
aj ibj des charakteristischen Polynoms von . Ist insbesondere selbstadjungiert, dann ist A eine reelle Diagonalmatrix. Ist antiselbstadjungiert, dann ist A schief symmetrisch, d.h. u.A. alle Diagothonormalbasis besitzt, bzgl. derer
naleinträge sind
0.
Beweis. Eine Induktion über
dim V =
beginnt für
n
= 1
mit dem
n gezeigt,
< n gilt.
?
Wenn einen reellen Eigenwert hat, dann gilt V = hv i v und mit
Lemma 7.5.7 folgt die Behauptung für V .
Sei nunmehr kein Eigenwert von reell. Nach Lemma 7.5.9 hat dann
die komplexe Fortsetzung b von die Eigenwerte a = a1 + ia2 und
a = a1 ia2 zu normierten orthogonalen Eigenvektoren v = v1 + iv2
und v
= v1 iv2 . Für die reellen Vektoren
Skalar
und es ist nichts zu zeigen.
n
Die Behauptung wird für
unter der Annahme, dass sie für alle Zahlen
w1 =
p1 (v + v) =
p
2
2v1
und
w2 =
p1 (v v) =
i
2
p
2v2
gilt:
1 2
1
(v + v2 ) = 1 und w1 w2 = (v 2 v2 ) = 0:
2
2i
Somit sind (v; v
) und (w1 ; w2 ) zwei verschiedene Orthonormalbasen von
hv; vi = hw1; w2i in der komplexen Erweiterung Z von V . Die darstellende Matrix K von bjhw1 ;w2 i ist gegeben durch
1
w1 = p (bv + bv) = a1 w1 a2 w2 und w2 = a2 w1 + a1 w2 ;
2
w12 = w22 =
also
K=
a1 a2
a2 a1
. Das komplexe Erzeugnis
und das reelle Erzeugnis
da
hw ; w iZ ist b-invariant
1
2
hw ; w iV ist -invariant und sogar -invariant,
1
2
w1 = a1 w1 + a2 w2 und w2 = a2 w1 + a1 w2 .
Nach Lemma 7.5.6
104
LINEARE ALGEBRA
hw ; w i?V invariant
ist dann auch das reelle orthogonale Komplement
unter
, d.h. V
= hw1 ; w2 i hw1 ; w2 i?
Nach Lemma 7.5.6 ist dann
jhw1 ;w2i?
ist eine
1
2
-invariante Zerlegung.
normal und die Induktionsan-
nahme führt zum gewünschten Ergebnis.
bezüglich einer Orthonormalba mit A = AT als
T
T
darstellender Matrix, vgl. Satz 7.5.3. Wegen AA = A A ist dann
Sei umgekehrt der Endomorphismus
sis durch die Matrix
A dargestellt.
Dann existiert
normal. Die Ergebnisse für einen selbstadjungierten bzw. antiselbstadjungierten Endomorphismus
7.6.
ergeben sich sofort.
Orthogonale und unitäre Abbildungen.
Die wichtigsten linearen Abbildungen zwischen euklidischen bzw. unitären Vektorräumen sind diejenigen, die das skalare Produkt invariant
lassen, wie z.B. Drehungen und Spiegelungen.
Denition.
räume.
Seien
V; W
zwei euklidische bzw. zwei unitäre Vektor-
Eine lineare Abbildung
unitär genannt, wenn für je zwei
: V ! W wird orthogonal bzw.
v; v 0 2 V gilt: (v )(v 0) = vv 0. Sol-
che Abbildungen sind längentreu und winkeltreu .
orthogonale bzw. unitäre Abbildungen
Insbesondere sind
injektiv, da
jvj = jvj, und
sie haben im Falle endlicher Dimension orthogonale bzw. unitäre Inverse. Hierfür substituiert man oben
v
=
1w
und
v 0 = 1 w0 .
Zudem
sind Eigenwerte orthogonaler bzw. unitärer Endomorphismen vom Be-
1, da für einen
jvj = javj = jajjvj.
trag
Eigenvektor
v
6=
0
von
mit Eigenwert
a
gilt
Orthogonale bzw. unitäre Abbildungen lassen sich auch anders charakterisieren.
Satz 7.6.1.
Seien
V; W
zwei euklidische bzw. zwei unitäre Vektorräu-
!W
sind die folgenden Aus-
(4) Bilder von Orthonormalsystemen unter
sind wieder Orthonor-
me. Für eine lineare Abbildung
:V
sagen äquivalent.
(1)
ist orthogonal bzw. unitär.
jvj = 1 folgt stets jvj = 1.
Für alle v 2 V gilt jv j = jv j.
(2) Aus
(3)
malsysteme.
Die komplexe Fortsetzung einer orthogonalen Abbildung ist unitär.
Beweis. (1) impliziert (2) weil
insbesondere längentreu ist.
(2) impliziert (3) nach (1) und Proposition 7.3.3 (2), denn für
ist
jvj = j(jvj jvvj )j = jvj( jvvj ) = jvjj jvvj j = jvj.
0 6= v
2V
LINEARE ALGEBRA
(3) ) (1):
105
v; v 0 ist nach (3)
2 Re (v )(v 0 ) = j(v + v 0 )j2 jv j2 jv 0 j2
= jv + v 0 j2 jv j2 jv 0 j2 = 2 Re(vv 0 );
0
0
0
und genauso Im (v )(v ) = Im(vv ), bei Verwendung von v + iv
0
0
0
statt v + v . Also ist (v )(v ) = vv und ist unitär.
Für
Oensichtlich folgen (4) aus (1), und (3) aus (4).
Die komplexe Fortsetzung
b von ist unitär, wegen
Denition.
A 1 = AT .
A 1 = A .
E
^ (v + iw)^ (v0 + iw0 ) = (v)(v0 ) + (w)(w0 ) + i (w)(v0 )
= vv 0 + ww0 + i(wv 0 vw0 )
= (v + iw)(v 0 + iw0 ):
(v )(w0 )
Eine reelle invertierbare Matrix heiÿt orthogonal , wenn
Eine komplexe invertierbare Matrix heiÿt unitär , wenn
Aus
AAT
=
bzw.
AA
=
E
ergibt sich sofort, dass
die Zeilen und die Spalten einer orthogonalen bzw. unitären Matrix
jeweils ein Orthonormalsystem bilden und umgekehrt. Darüberhinaus
folgt aus
(A )
1
= (A 1 ) , dass die Inversen orthogonaler bzw. unitärer
Matrizen wieder orthogonal bzw. unitär sind. Insbesondere sind Permutationsmatrizen orthogonal. Die Determinante einer orthogonalen
bzw. unitären Matrix hat den Betrag
Beispiel.
A=
Die Matrizen
cos '
sin '
Die Matrix
Winkel
'
sin '
cos '
A
1,
also
1 im reellen Fall.
A; B sind orthogonal und C
; B
0
2 1
1@
2 2
=
3
1 2
1
2
1A ;
2
C
ist unitär.
1
=p
2
1
i
i :
1
ist übrigens die Drehung in der reellen Ebene um den
gegen den Uhrzeigersinn, d.h. eine mathematisch positive
Drehung .
Satz 7.6.2.
Ein Automorphismus
eines euklidischen bzw. unitären
Vektorraumes ist genau dann orthogonal, bzw. unitär, wenn
und
=
1
existiert
. Insbesondere sind orthogonale bzw. unitäre Endomor-
phismen normal.
orthogonal bzw. unitär. Dann ist
(v )w = (v )( 1 w ) = v ( 1 w );
1
1
für alle u; w 2 V . Also = . Sei umgekehrt = , dann
ist (v )(w ) = v ( w ) = vw , und ist orthogonal bzw. unitär.
Insbesondere ist normal.
Beweis. Sei
106
LINEARE ALGEBRA
Satz 7.6.3.
Die darstellenden Matrizen von orthogonalen bzw. unitä-
ren Endomorphismen endlich dimensionaler euklidischer bzw. unitärer
Vektorräume sind, bzgl. Orthonormalbasen, orthogonal bzw. unitär, und
umgekehrt. Basistransformationsmatrizen zwischen Orthonormalbasen
sind orthogonal, bzw. unitär.
Beweis. Nach den Sätzen 7.5.3 und 7.6.2 ist
A
1
= A
1
=
äquivalent zu
für die darstellenden Matrizen bzgl. Orthonormalbasen. Ei-
ne Basistransformationsmatrix ist insbesondere die darstellende Matrix
der Identität, hier bzgl. zweier Orthonormalbasen, und die Spalten einer solchen darstellenden Matrix sind die Basisbilder, hier also eine
Orthonormalbasis, d.h. diese Matrix ist orthogonal bzw. unitär.
Satz 7.6.4. Die Mengen O(n; R ) bzw. U(n; C ) aller orthogonalen bzw.
unitären n-reihigen Matrizen sind jeweils Untergruppen der allgemeinen linearen Gruppen GL(n; R ) bzw. GL(n; C ), die sog. orthogonale
Gruppe bzw. unitäre Gruppe.
Beweis. Nach Satz 7.6.2 sind Produkte und Inverse orthogonaler bzw.
unitärer Automorphismen wieder orthogonal bzw. unitär. Also sind die
nicht-leeren Mengen
O(n; R ) bzw. U (n; C ) abgeschlossen bzgl. Multi-
plikation und Inversion, somit Gruppen.
Denition.
Ein orthogonaler Automorphismus eines endlich dimen-
sionalen euklidischen Vektorraumes heiÿt eigentlich orthogonal oder
eine Drehung , wenn seine Determinante
1
gonal , wenn seine Determinante
Automorphismus
1
ist und uneigentlich ortho-
ist. Ein uneigentlich orthogonaler
heiÿt Spiegelung , wenn = 1
1
und wenn
ein
einfacher Eigenwert ist.
Satz 7.6.5.
Ein Automorphismus
klidischen Vektorraumes
V
eines endlich dimensionalen eu-
ist genau dann orthogonal, wenn
Orthonormalbasis besitzt, bzgl. derer
K ('j )
hat, mit Matrizen
1; : : :
cos 'j
sin 'j
=
entspricht ein Drehung um den
wobei
< 'j für alle
j.
;
eine
eine darstellende Matrix der
Form
A = diag 1; : : : ; 1;
V
1; K ('1 ); : : :
; K ('h)
sin 'j
. Jeder
cos 'j
Winkel 'j gegen den
Matrix
K ('j )
Uhrzeigersinn,
Der orthogonale Automorphismus ist genau dann eine Drehung, wenn
der Eigenwert
1
in gerader Vielfachheit auftritt.
Eine orthogonale Matrix ist orthogonal ähnlich zu einer solchen Matrix
A.
LINEARE ALGEBRA
Beweis. Ein orthogonaler Automorphismus
107
ist normal, also erhält
man die reelle Normalform normaler Matrizen gemäÿ Satz 7.5.10. Alle
1, d.h.
cos ' i sin ',
Eigenwerte orthogonaler Endomorphismen haben den Betrag
sie sind entweder reell,
1, oder konjugiert komplex,
und es ergibt sich eine Normalform
A wie angegeben.
Umgekehrt sind
A oensichtlich orthogonal.
Die 2 2 Kästchen K ('j ) sind Drehungen in mathematisch positivem
Sinn um den Winkel 'j . Eine Drehung liegt laut Denition genau dann
vor, wenn die Determinante von A gleich 1 ist, wenn also die Anzahl
Matrizen der Form wie
1
der Einträge
auf der Diagonalen gerade ist.
Da nur Orthonormalbasen zugrunde gelegt sind, wird die Ähnlichkeit
durch orthogonale Matrizen vermittelt.
Korollar 7.6.6.
cos '
sin '
Die Drehungen
sin '
cos '
eines
2-dimensionalen
euklidischen Vektorraumes bilden eine abelsche Gruppe.
22
Uneigentliche orthogonale
Geraden.
Jede Drehung eines
Matrizen sind Spiegelungen an einer
3-dimensionalen euklidischen
1, die sog. Drehachse,
Eigenvektor zum Eigenwert
Raumes hat einen
eine sog. Drehebe-
ne, und bzgl. einer dazu passenden Orthonormalbasis eine darstellende
Matrix der Form
0
1
1
0
@0 cos '
0 sin '
0
sin 'A :
cos '
Für jede darstellende Matrix einer Drehung bzgl. einer Orthonormalbasis ist durch
cos ' =
Drehwinkel gegeben.
1
2
Uneigentliche orthogonale
tr(A)
33
1
bis auf das Vorzeichen der sog.
Matrizen sind sog. Drehspiegelungen,
d.h. eine Drehung in einer Ebene und eine Spiegelung an dieser Drehebene.
Beweis. Die
2-dimensionalen
Drehungen bilden die Gruppe
O(2; R ).
Diese Gruppe ist oensichtlich abelsch, vgl. auch das nachfolgende Beispiel.
Eine uneigentliche orthogonale
ist also eine Spiegelung.
22 Matrix hat die Eigenwerte 1 und
Die Normalform einer Drehung im
1,
3-dimensionalen euklidischen Raum
entnimmt man Satz 7.6.5. Da ähnliche Matrizen gleiche Spur haben,
genügt es die Spur dieser Normalform zu berechnen, um den Cosinus
108
LINEARE ALGEBRA
des Drehwinkels zu erhalten und damit den Drehwinkel bis auf das
Vorzeichen.
Eine uneigentliche orthogonale
reelle Normalform
diag ( 1; K )
33
Matrix hat nach Satz 7.6.5 die
mit einer
eine Drehspiegelung.
Beispiel.
cos '
sin '
sin '
cos '
Bemerkung.
cos
sin
sin
cos
=
Die Normalform einer
22
Drehmatrix
cos(' + )
sin(' + )
K , ist also
sin(' + )
cos(' + )
3-dimensionalen
:
Drehung wie in
Korollar 7.6.6 erhält man auch direkt durch überwiegend geometrische
Überlegungen. Das charakteristische Polynom einer orthogonalen
33
A ist ein reelles Polynom des Grades 3, und hat somit eine reelle
1, da A orthogonal ist. Es liegt eine Drehung vor, also
ist dieser Eigenwert zum Eigenvektor v nicht
1, sondern 1. Das ist die
Drehachse R v und ein A-invarianter Unterraum. Nach Lemma 7.5.7
?
oder auch einfach, weil A orthogonal ist, erhält man, dass v auch AMatrix
Nullstelle, hier
invariant ist, also eine
2-dimensionale
Drehung mit der angegebenen
darstellenden Matrix.
Hauptachsentransformation.
Denition. Zwei reelle oder komplexe, quadratische Matrizen A; B
7.7.
heiÿen orthogonal ähnlich bzw. unitär ähnlich , wenn es
gonale bzw. unitäre Matrix
D
gibt mit
B = DAD .
eine ortho-
In diesem Sinne
spricht man auch von orthogonal diagonalisierbar und von unitär dia-
gonalisierbar .
Das Verfahren im folgenden Satz wird oft als Hauptachsentransformation bezeichnet, und die Matrixtransformation, die er beinhaltet, als
Hauptachsentransformation . Man verwendet u.A. diese Transformation, eine Drehung, um Kegelschnitte in Hauptachsenform zu bringen,
z.B. eine Ellipse , die schräg in der reellen Ebene
dass ihre Hauptachsen
system liegen, d.h.
a; b2 parallel
x2 + y = 1.
a2
b2
R
2
liegt, so zu drehen,
zum rechtwinkligen Koordinaten-
Meist spricht man nur bei reellen
symmetrischen Matrizen von Hauptachsentransformation.
Satz 7.7.1.
(Hauptachsentransformation) Reelle symmetrische Matri-
zen sind orthogonal diagonalisierbar, sogar eigentlich orthogonal diagonalisierbar.
Hermitesche Matrizen sind unitär diagonalisierbar, d.h.
unitär ähnlich zu einer reellen Diagonalmatrix.
LINEARE ALGEBRA
109
Beweis. Für reelle symmetrische Matrizen folgt die Aussage aus dem
Satz 7.5.10 über die reellen Normalformen symmetrischer Matrizen und
Satz 7.6.3. Genauer gilt für eine uneigentlich orthogonale Matrix
d.h.
det U =
ist und
U T AU
1, dass X = diag ( 1; 1; : : : ; 1)U
= X T AX .
U,
eigentlich orthogonal
Für hermitesche Matrizen nutzt man die Sätze 7.5.5 und 7.6.3.
Bemerkung.
Zur expliziten Hauptachsentransformation der reellen
A muss man die orthogonale Matrix D bestimDADT eine (reelle) Diagonalmatrix ist. Tatsächlich
bilden die Zeilen der orthogonalen Matrix D nichts anderes als eine Orthonormalbasis aus Eigenvektoren von A, und man sieht sofort, dass
die Diagonaleinträge von B genau die (reellen) Eigenwerte von A sind.
Damit hat man ein Verfahren, um D zu berechnen. Man bestimmt
das charakteristische Polynom von A, zerfällt es in Linearfaktoren, besymmetrischen Matrix
men für die
B
=
stimmt Basen aller Eigenräume und orthogonalisiert diese Basen. Die
Vereinigung aller dieser Orthonormalbasen ist eine Orthonormalbasis
aus Eigenvektoren nach Satz 7.5.5. Die gewünschte orthogonale Matrix
D erhält man dann indem man die Eigenvektoren zeilenweise un-
tereinander schreibt.
Denition.
Eine symmetrische oder hermitesche Matrix
positiv denit , wenn für jeden (passenden) Spaltenvektor
elle Zahl
v Av
v Av
A
heiÿt
v 6= 0 die re-
positiv ist. Man spricht von positiv semi-denit , wenn
0 für alle v.
Analog gibt es die Begrie negativ denit , ne-
gativ semi-denit und indenit . Skalarprodukte haben positiv denite
symmetrische bzw. positiv denite hermitesche darstellende Matrizen.
C = (ci;j ) als
v = (a1 ; : : : ; an)
D.h., gemäÿ Satz 7.1.1 bzw. Satz 7.2.1 ist mit einer Matrix
darstellender Matrix für reelle oder komplexe Tupel
und
w = (b1 ; : : : ; bn ) durch
X
vw =
i;j n
ai ci;jbj = vCw
1
genau dann ein Skalarprodukt gegeben, wenn
C
eine reelle positiv de-
nite symmetrische bzw. eine positiv denite hermitesche Matrix ist,
vgl. Lemma 7.1.3.
Für positiv denite Matrizen werden im folgenden Satz zwei Charakterisierungen gegeben, mit der zweiten, hier ohne Beweis, hat man ein
vorteilhaftes Verfahren ohne Berechnung der Eigenwerte.
Satz 7.7.2.
Eine reelle symmetrische oder hermitesche Matrix ist ge-
nau dann positiv denit, wenn alle Eigenwerte positiv sind.
110
LINEARE ALGEBRA
A = (ai;j ) 2 M(n; R ) ist genau dann
Hauptuntermatrizen (ai;j )i;j k für alle k =
Eine reelle symmetrische Matrix
positiv denit, wenn alle
1; : : :
; n positive Determinanten haben.
A eine reelle symmetrische bzw. hermitesche Matrix. Sei A
b zum normierten Eigenvektor
v 6= 0, d.h. Av = bv . Dann ist 0 < v Av = bjv j2 , d.h. b > 0. Seien
umgekehrt alle Eigenwerte (b1 ; : : : ; bn ) positiv, und sei (v1 ; : : : ; vn ) ein
Orthonormalsystem von Eigenvektoren von A, als Spaltenvektoren geschrieben, zu den jeweiligen Eigenwerten bi Dann erhält man für einen
Pn
allgemeinen Vektor v =
i=1 ai vi 6= 0
Beweis. Sei
positiv denit mit (reellem) Eigenwert
n
n
i=1
n
X
j =1
n
n
i=1
j =1
X
X
X
X
v Av = ( ai vi )A( aj vj ) = ( ai vi )( bj aj vj )
=
=
und
i;j =1
n
X
i=1
ai bj aj (vi vj ) =
n
X
i;j =1
ai bj aj Æij
jaij bi > 0;
2
A ist positiv denit.
Beispiel. Die reelle symmetrische Matrix A = ab bc ist genau dann
positiv denit, wenn a > 0 und det A = ac
b2 > 0.
T
Für eine beliebige reelle oder komplexe Matrix A ist AA bzw. AA
symmetrisch bzw. hermitesch, positiv semi-denit vom Rang gleich
rang A.
Denn
0 jAv j2 = vAA v , und AA ist mit Hauptachsentrans-
formation unitär diagonalisierbar, d.h. es gibt eine unitäre Matrix
dass
(SAS )(SA S ) = SAA S = D
Diagonalmatrix
D.
S , so
mit einer positiv semi-deniten
Also bilden z.B. die Zeilen der Matrix
SAS ein
Orthogonalsystem, evtl. zuzüglich einiger Nullzeilen. Damit sind genau
rang A Diagonaleinträge von D
rang A. Für eine invertierbare
denit. Übrigens ist dann
AAT
ungleich
0
d.h.
rang AA = rang D =
A ist AAT bzw. AA positiv
bzw. AA eine darstellende Matrix des
Matrix
Standardskalarprodukts bzgl. einer alternativen Orthonormalbasis.
Denition.
Die Anzahl
t(A) der positiven Eigenwerte einer reellen
A heiÿt Trägheitsindex .
symmetrischen oder einer hermiteschen Matrix
Für symmetrische bzw. hermitesche Matrizen wird durch den Träg-
heitssatz von Sylvester eine Normalform bzgl. Kongruenz bestimmt.
LINEARE ALGEBRA
Satz 7.7.3.
111
A eine quadratische, reelle symmetrische bzw. (komplexe) hermitesche Matrix vom Rang r und
Trägheitsindex t. Alle Matrizen in der Kongruenzklasse von A sind
(Trägheitssatz von Sylvester) Sei
symmetrisch bzw. hermitesch. Der Rang und der Trägheitsindex sind
die vollständigen Invarianten der Kongruenzklasse und
zu
D = diag (1| ; :{z
: : ; 1}; | 1; :{z
:: ;
r
t
t
Einträge sind
1.
r t
1; 0 : : : ; 0),
}
t Einträge sind 1 und
Insbesondere gibt es eine reelle invertierbare
bzw. komplexe invertierbare Matrix
Zwei quadratische
d.h.
A ist kongruent
S
mit
D = S T AS
bzw.
D = S AS .
n-reihige reelle symmetrische bzw. hermitesche Ma-
trizen sind genau dann kongruent, wenn sie gleichen Rang und gleichen
Trägheitsindex besitzen.
Beweis. Es wird nur der komplexe Fall bewiesen.
A unitär ähnlich
zu einer reellen Diagonalmatrix mit positiven Eigenwerten b1 ; : : : ; bt >
0 und negativen Eigenwerten bt+1 ; : : : ; br < 0. Also
Nach der Hauptachsentransformation, Satz 7.7.1, ist
B = diag (b1 ; : : : ; bt ; bt+1 ; : : : ; br ; 0; 0; : : : ) = CAC :
Mit
S = diag ( p1b1 ; : : : ; p1bt ; p 1b ; : : : ; p 1 br ; 1; 1; : : : ) gilt:
t+1
D = (SC )A(SC ) = diag (Et ; Er t ; 0):
t ist noch zu zeigen. Sei (v1 ; : : : ; vt ; vt+1 ; : : : ; vn ) eine
= A die darstellende Matrix D =
0
diag (Et ; Er t ; 0) hat. Sei (v1 ; : : : ; vt00 ; vt00 +1 ; : : : ; vn0 ) eine neue Basis,
0
bezüglich derer die darstellende Matrix D = diag (Et0 ; Er t0 ; 0) hat.
0
0
Sei U = hv1 ; : : : ; vt i und sei W = hvt0 +1 ; : : : ; vn i. Dann ist U \ W = 0,
Pt
Pn
weil für z 2 U \ W gilt: z =
bj v 0 . Gemäÿ der
i=1 ai vi =
j =t0 +1
Pt j 2
verschiedenen Darstellungen von z ist (z; z ) =
i=1 jai j 0 und
Pn
2
(z; z ) =
j
b
j
0
,
d.h.
z
=
0
.
Nach
dem
Dimensionssatz
i=t0 +1 i
0
für Unterräume gilt: t + (n
t ) = dim U + dim W n und somit
t t0 . Aus Symmetriegründen folgt dann t = t0 .
Die Invarianz von
Basis von
C n, bezüglich derer Der Trägheitsindex einer invertierbaren reellen symmetrischen bzw.
hermiteschen Matrix kann vorteilhaft, ohne die Bestimmung der Eigenwerte, mit der Descarteschen Zeichenregel bestimmt werden. Die
charakteristischen Polynome solcher Matrizen erfüllen die Voraussetzungen der folgenden Spezialisierung der Descarteschen Zeichenregel,
vgl. [3, Sturm's Theorem], die ohne Beweis angegeben wird.
112
LINEARE ALGEBRA
Satz 7.7.4. (Descartesche Zeichenregel) Das reelle Polynom f (x) =
an xn + an 1 xn 1 + + a1 x + a0 mit a0 6= 0 zerfalle in reelle Linearfaktoren. Dann ist die Anzahl der positiven Nullstellen von f (x),
gezählt mit Vielfachheiten, gleich der Anzahl der Vorzeichenwechsel in
der Folge der Koezienten
(a0 ; : : :
; an ), wobei die Koezienten ai = 0
weggelassen sind.
Beispiel.
f (x) = x3 3x 1 hat drei verschiedene
1) > 0 und f (0) < 0. Genau eine der
Das reelle Polynom
reelle Nullstellen, weil
f(
Nullstellen ist positiv, weil es genau einen Vorzeichenwechsel bei den
Koezienten gibt.
Die allgemeine lineare Gruppe
GL(n; R )
wird erzeugt von der Menge
der positiv deniten symmetrischen Matrizen und der Gruppe der orthogonalen Matrizen.
Die allgemeine lineare Gruppe
GL(n; C )
wird
erzeugt von der Menge der positiv deniten hermiteschen Matrizen
und der Gruppe der unitären Matrizen.
Die Menge der invertierba-
ren, symmetrischen bzw. der invertierbaren, hermiteschen Matrizen ist
nicht multiplikativ abgeschlossen also keine Gruppe. Auch wenn man
invertierbar zu positiv denit verschärft, erhält man keine Gruppen.
Genauer wird das im folgenden Satz durch die sog. Polarzerlegung von
Matrizen formuliert.
Satz 7.7.5.
(Polarzerlegung) Jeder Automorphismus
eines endlich
dimensionalen euklidischen bzw. unitären Vektorraumes lässt sich auf
genau eine Weise als Produkt
Automorphismus
',
='
eines orthogonalen bzw. unitären
und eines selbstadjungierten Automorphismus
mit lauter positiven Eigenwerten darstellen.
Jede invertierbare reelle Matrix
dukt
A = BS
A kann auf genau eine Weise als ProB und einer positiv de-
mit einer orthogonalen Matrix
niten symmetrischen Matrix
S
dargestellt werden.
Jede invertierbare komplexe Matrix
Produkt
A = BS
kann auf genau eine Weise als
mit einer unitären Matrix
ten hermiteschen Matrix
Beweis. Mit
A
S
B
und einer positiv deni-
dargestellt werden.
ist auch ein Automorphismus und = ist selbst-
adjungiert und positiv denit, d.h. es existiert eine Orthonormalbasis
(v1 ; : : :
; vn) von Eigenvektoren von mit lauter positiven
(reellen) Eip
genwerten ai . Sei
2 Aut V deniert durch vi = aivi , d.h.p 2 = ai 2 R .
und
ist selbstadungiert, positiv denit mit Eigenwerten 0 <
1
Sei ' = 2 Aut V .
2
1 2
Aus
= = folgt ' 1 = 1 =
1 = 1 =
( 1 ) = ' . D.h. ' ist orthogonal bzw. unitär und = ' .
LINEARE ALGEBRA
113
Um die Eindeutigkeit der Zerlegung zu zeigen, nimmt man
'0 0
= an. Also folgt wegen
sind,
(7.3)
2
= 0
und, da '; '
0
die positiven Eigenwerte
und
ai
02
bzw.
) = 0 0 = 0 2 :
haben dieselben Eigenvektoren, und
a2i .
Also haben
und
0
nach (7.3)
vi =
' = '0 .
gleiche positive Eigenwerte und gleiche Eigenvektoren, genauer
ai vi
=
0 vi
für alle
i.
Somit ist
=
orthogonal bzw. unitär
= ( ')(' ) = = ( '0 )('0
Die Endomorphismen
='
=
0,
und folglich ist auch
Die Übersetzung auf Matrizen erfolgt wie üblich.
114
LINEARE ALGEBRA
8. Normalformen von Matrizen
Normalformen von Matrizen sind spezielle Repräsentanten aus Ähnlichkeitsklassen von Matrizen.
Die darstellenden Matrizen eines En-
domorphismus eines endlich dimensionalen Vektorraumes bilden bekanntlich eine komplette Ähnlichkeitsklasse.
Gesucht wird eine dar-
stellende Matrix, die Normalform dieser Ähnlichkeitsklasse, welche die
wesentlichen Eigenschaften des dargestellten Endomorphismus abzulesen gestattet.
Im Abschnitt 6.2, Diagonalisierbarkeit liegen bereits
Normalformen vor. An Diagonalmatrizen kann man z.B. den Rang der
Matrix, ihre Eigenwerte und Eigenvektoren ablesen.
Die Herleitung
von Normalformen im allgemeinen Fall erfordert u.A. die Kenntnis des
charakteristischen und des Minimalpolynoms.
Polynomringe über Körpern.
Der Polynomring K [x] aller Polynome über dem Körper K ist auch ein
unendlich dimensionaler K -Vektorraum mit der Menge aller Monome
f1; x; x2; : : : g als Basis.
Denition. Gilt die Gleichung
(8.1)
pq = r für p; q; r 2 K [x];
dann heiÿen p; q Teiler von r , man schreibt z.B. pjr . Ein nicht konstantes Polynom r heiÿt irreduzibel oder unzerlegbar , wenn eine Zerlegung
der Form (8.1) trivial ist, d.h. p oder q ist konstant, ansonsten heiÿt ein
8.1.
Polynom zerlegbar oder reduzibel . Oensichtlich ist ein lineares Poly-
nom , d.h. vom Grad
1,
unzerlegbar. Wenn die Polynome
sogar normiert sind, dann ist auch
r normiert.
p; q
in (8.1)
Für Polynome über nullteilerfreien Ringen, also insbesondere über Körpern, gilt der Gradsatz .
p; q 2 K [x] ist
grad(pq ) = grad(p) + grad(q ):
grad(p + q ) max grad(p); grad(q ) mit
Satz 8.1.1.
Weiter gilt
für
p; q
(Gradsatz) Für
Gleichheit u.A.
von verschiedenem Grad.
Insbesondere ist der Ring
K [x] nullteilerfrei und es gilt die Kürzungs-
regel.
an xn + und q = bm xm + Polynome mit
n+m + mit
Leitkoezienten an ; bm 2 K n 0. Dann ist pq = an bm x
Leitkoezient an bm 6= 0, da K ein Körper ist. Der Zusatz ist oenBeweis. Seien
sichtlich.
p
=
LINEARE ALGEBRA
115
Beispiel.
Seien die Polynome
p = x2 + 1, q = x2 + x + 1 und r = x2
gegeben.
Die Polynome
sind irreduzibel über
über
C.
Das Polynom
Das Polynom
q
r
p; q
ist irreduzibel über
Q
R
und reduzibel
und reduzibel über
ist das einzige irreduzible Polynom des Grades
dem Körper mit
2
2
2
R.
über
Elementen.
Schon für ganze Zahlen haben wir eine Division mit Rest und damit
schlieÿlich eine Primfaktorzerlegung erhalten, vgl. Satz 0.3.3. Auf prinzipiell gleiche Weise erhält man auch für einen Polynomring
K [x] über
einem Körper eine Division mit Rest mit geeigneter Denition eines
Restes und damit eine Primfaktorzerlegung.
p; q 2 K [x], mit q 6= 0,
über dem Körper K , gibt es eindeutig bestimmte Polynome t; r 2 K [x]
Satz 8.1.2.
(Division mit Rest) Für Polynome
mit
p = tq + r; r = 0
Das Polynom r heiÿt Rest.
oder
grad(r ) < grad(q ):
qt = p, also ist der
r = 0 und t ist eindeutig bestimmt. Sei nunmehr q - p. Dann ist
das Nullpolynom nicht in der Menge fp
tq jt 2 K [x]g. Also existiert
in dieser Menge ein Polynom r = p
tq von minimalem Grad m. Seien
q = ak xk + vom Grad k und r = bm xm + mit Leitkoezienten
ak ; bm ungleich 0. Es genügt zu zeigen, dass m < grad q = k. Sei m k angenommen, dann existiert ein weiteres Polynom aus der obigen
Beweis. Für den Nachweis der Existenz sei zuerst
Rest
Menge der Form
bm m
x
ak
bm m k
x q
ak
bm m k
x (ak xk + )
= (bm xm + )
ak
bm
= (bm 1
ak 1 )xm 1 + ak
des Grades < m im Widerspruch zur Minimalität von r .
0
0
Zum Beweis der Eindeutigkeit setzt man p = tq + r = t q + r mit
0
0
0
0
0
Resten r; r . Also (t
t )q = r r, folglich ist t = t und r = r nach
p
[t +
k ]q =
p tq
Gradsatz.
Bemerkung. Dividiert man ganzzahlige Polynome p; q 2 Z[x] mit
Rest, also p = tq + r , so erhält man i.A. Polynome t; r 2 Q [x] mit
rationalen Koezienten. Die beiden Polynome t; r sind genau dann
ganzzahlig, wenn der Leitkoezient des Nennerpolynoms q gleich 1
ist. Das ergibt sich aus einer genaueren Betrachtung in Satz 8.1.2.
116
LINEARE ALGEBRA
Irreduzible Polynome über Körpern haben die folgende zusätzliche Eigenschaft, die man auch für Primzahlen kennt, vgl. Lemma 0.3.2.
Lemma 8.1.3. Ein Polynom p 2 K [x] n K ist genau dann irreduzibel,
wenn p ein Produkt qs, für q; s 2 K [x], nur dann teilt, wenn p einen
der beiden Faktoren teilt.
p 2 K [x] entweap, und wenn p eine Potenz q n
Insbesondere sind Teiler eines irreduziblen Polynoms
der Skalare
für
a2K
oder von der Form
q 2 K [x] teilt, so teilt es q .
p irreduzibel und Teiler von qs. Weiter sei angenommen,
dass p weder Teiler von q noch von s ist, und dass grad qs diesbezüglich
minimal ist. Also q = hp + r mit Rest 0 6= r 2 K [x] und grad r < grad p.
Somit ist rs = qs
hps durch p teilbar und von kleinerem Grad als qs.
Folglich ist p ein Teiler von s, ein Widerspruch.
Sei umgekehrt die angegebene Eigenschaft von p angenommen, dann
führt der Ansatz p = qs mit p; s 2 K [x] n K sofort zum Widerspruch
aus Gradgründen, d.h. p ist irreduzibel. Induktiv zeigt man die letzte
Beweis. Sei
Aussage.
Im Polynomring über einem Körper gibt es, wie für ganze Zahlen, eine
Primfaktorzerlegung .
Satz 8.1.4.
Jedes normierte Polynom aus
K [x] kann bis auf die Rei-
henfolge eindeutig als Produkt endlich vieler normierter irreduzibler Polynome dargestellt werden.
Beweis. Die Existenz einer solchen Zerlegung folgt aus dem Gradsatz,
und die Eindeutigkeit folgt aus Lemma 8.1.3, da für zwei irreduzi-
ble Zerlegungen ,
p1 pk
o.B.d.A. sukzessive folgt:
k = h.
Denition.
q1 qh , d.h. alle pi ; qi
p1 = q1 , p2 = q2 , usw.,
=
sind irreduzibel,
insbesondere ist
Auf Grund der Primfaktorzerlegung für Polynome über
p; q; r 2 K [x].
Das Polynom p heiÿt gröÿter gemeinsamer Teiler von q und r , geschrieben p = ggT(q; r ), wenn p ein gemeinsamer Teiler von q und r
ist und p diesbezüglich von maximalem Grad ist, o.B.d.A. sogar normiert. Das Polynom p heiÿt kleinstes gemeinsames Vielfaches von q
und r , geschrieben p = kgV(q; r ), wenn q und r Teiler von p sind
und p diesbezüglich von minimalem Grad ist, o.B.d.A. sogar normiert.
Für Polynome p; q 2 K [x], deren gröÿter gemeinsamer Teiler ein Skalar ist, d.h. sog. teilerfremde Polynome , schreibt man ggT(p; q ) = 1.
Körpern sind die folgenden Denitionen sinnvoll für
LINEARE ALGEBRA
117
Normierte gröÿte gemeinsame Teiler und normierte kleinste gemeinsame Vielfache sind wegen der eindeutigen Primfaktorzerlegung eindeutig
; pk )
bzw. kgV(p1 ; : : : ; pk ). Wie für ganze Zahlen zeigt man für p; q 2 K [x]
q
p
(8.2)
;
) = 1:
pq = ggT(p; q ) kgV(p; q ) und ggT(
ggT(p; q ) ggT(p; q )
bestimmt. Für mehr als zwei Polynome schreibt man
ggT(p1 ; : : :
Wie für ganze Zahlen gilt der Satz von Bézout.
Satz 8.1.5.
(Bézout) Für
p; q 2 K [x] gibt es r; s 2 K [x] mit
rp + sq = ggT(p; q ):
Insbesondere lassen sich teilerfremde Polynome
d.h. es existieren
r; s 2 K [x] mit rp + sq = 1.
p; q
zu
1
kombinieren,
I = frp + sq j r; s 2 K [x]g ist eine additive UnterK [x], und für beliebige t 2 K [x] gilt I tI = fth j h 2 I g.
Teilmengen I eines Ringes, hier K [x], heiÿen Ideale . Sei 0 6=
Beweis. Die Menge
gruppe von
Solche
m 2 I (normiert) von minimalem Grad. Dann gilt für ein beliebiges
h 2 I , dass h = tm + r mit Restpolynom r, also r = h tm 2 I .
Somit ist r = 0, da m von minimalem Grad war, und I = K [x]m. Damit teilt m beide Polynome p; q 2 I , d.h. mjg = ggT(p; q ) (normiert).
Umgekehrt ist jedes Polynom in I ein Vielfaches von g , auch m, und
es folgt m = g . Man erhält I = K [x]g und rp + sq = g für geeignete
r; s 2 K [x], wie gewünscht.
Division mit Rest kann man iterieren und erhält den sog. Euklidischen
Algorithmus, mit dem man insbesondere den gröÿten gemeinsamen Teiler sowohl von ganzen Zahlen, als auch von Polynomen über Körpern
berechnen kann.
Satz 8.1.6. (Euklidischer Algorithmus) Seien p; q 2 K [x] mit q 6= 0
und q - p. Der letzte Rest rm ungleich 0 des Euklidischen Algorithmus
für p; q ist der gröÿte gemeinsame Teiler ggT(p; q ) von p und q . Rekursives Zurückrechnen im Euklidischen Algorithmus liefert eine Darstellung des gröÿten gemeinsamen Teilers von
p und q , d.h.
ggT(p; q ) = rm = rp + sq
mit geeigneten
r; s 2 K [x].
118
LINEARE ALGEBRA
Euklidischer Algorithmus:
p
q
r1
=
=
=
s1 q + r1 ;
s2 r1 + r2 ;
s3 r2 + r3 ;
..
.
rm
rm
rm
sm 1 rm 2 + rm 1 ;
sm rm 1 + rm ;
2
sm+1 rm ;
1
wobei entweder q jp und r1 = 0, oder ri 6= 0 für alle i = 1; : : : ; m und
grad q > grad r1 > > grad rm 0:
3
=
=
=
q - p nach endlich vielen
Schritten mit rm wegen der strikten Abnahme der Grade der ri . DurchBeweis. Der Euklidische Algorithmus endet für
läuft man den Algorithmus von oben nach unten, dann teilt der gröÿte
p und q auch r1 und schlieÿlich alle r2 ; : : : ; rm .
Durchläuft man den Algorithmus von unten nach oben, dann teilt rm
erst rm 1 und schlieÿlich alle rm 2 ; : : : ; r1 ; q; p. Folglich ist rm der
gröÿte gemeinsame Teiler von p; q . Weiter ist rm erst eine Kombination von rm 1 und rm 2 . Setzt man den darüber liegenden Ausdruck
für rm 1 ein, dann ist rm eine Kombination von rm 2 und rm 3 , schlieÿlich ist rm eine Kombination von p und q .
gemeinsame Teiler von
Polynome von Endomorphismen und Minimalpolynom.
Setzt man einen Endomorphismus eines K -Vektorraumes V in ein Polynom p 2 K [x] ein, dann ist p() wieder ein Endomorphismus von V ,
8.2.
ein sog. Polynomendomorphismus . Schon mit dem charakteristischen
Polynom eines Endomorphismus hat sich abgezeichnet, dass wesentliche Eigenschaften von Endomorphismen mit Polynomen formuliert
werden. Deshalb wird der Umgang mit Polynomen von Endomorphismen präzisiert.
Lemma 8.2.1. Sei ein Endomorphismus des K -Vektorraumes V
und seien p; q 2 K [x]. Dann gelten für die Polynomendomorphismen:
(1) p()q () = pq (), insbesondere sind p(); q () vertauschbar.
(2) Ein -invarianter Unterraum ist auch p()-invariant.
(3) Im p() und ker p() sind -invariant.
(4) Für eine direkte Zerlegung V = U1 Uk von V in invariante Unterräume Ui ist
ker p() = U1 \ ker p() Uk \ ker p() :
LINEARE ALGEBRA
(5)
(6)
ker p() ker q (), falls p ein Teiler von q ist.
ker p() \ ker q () = ker ggT(p; q )(). Insbesondere
p() = q () = 0, dass ggT(p; q )() = 0.
119
folgt aus
Beweis. (1) gilt laut Produktregel für Polynome.
(2): Aus
U
U folgt ak U U und somit p()U U .
p()
= p() gilt z.B. p()(v ) = p()(v ) = 0 für
v 2 ker p(). Also v 2 ker p() und ker p() ist -invariant. Analog
beweist man die -Invarianz von Im p().
(3): Wegen
p() = und V = U1 U2 zu zeigen.
Denn aus erhält man alle Polynome in und per Induktion erhält
man die Aussage für k > 2. Sowieso gilt ker (U1 \ ker ) (U2 \
ker ).
Umgekehrt gilt für v = u1 + u2 2 ker mit u1 2 U1 und v2 2 U2 , dass
0 = v = u1 + u2 , wobei u1 2 U1 und v2 2 U2 . Die Darstellung
v = u1 + u2 ist eindeutig weil die Summe der Ui direkt ist, also
u1 = 0 und u2 = 0, d.h. u1 2 U1 \ ker und u2 2 U2 \ ker . Damit
(4): Es genügt die Aussage für
folgt die behauptete Gleichung.
rp = q , folgt aus p()(v ) = 0 sofort q ()(v ) = 0.
(6): Nach (5) gilt die Inklusion ker p() \ ker q () ker g (), falls
g = ggT(p; q ) der gröÿte gemeinsame Teiler von p und q ist. Nach
Bézout existieren r; s 2 K [x] mit g = rp + sq . Also folgt umgekehrt
aus p()v = 0 und q ()v = 0 auch g ()v = 0.
(5): Wegen
Für jeden Endomorphismus eines endlich dimensionalen Vektorraumes
gibt es annullierende Polynome, vgl. Satz 6.1.4.
Satz 8.2.2. Sei ein Endomorphismus eines endlich dimensionalen
K -Vektorraumes V . Für jeden Unterraum U V existiert genau ein
normiertes, annullierendes Polynom m = m;U 2 K [x] minimalen
Grades, d.h. m()(U ) = 0, und m teilt jedes andere solche annullierende Polynom. Ist (u1 ; : : : ; uk ) ein Erzeugendensystem von U , dann
ist m = m;U = kgV(m;ui j i).
Beweis. Nach Satz 6.1.4 existiert ein solches annullierendes Polynom
minimalen Grades.
Für ein weiteres annullierendes Polynom
p
p = qm + r mit r = 0 oder grad r < grad m, nach Division mit
r()(U ) = (p qm)()(U ) = p()(U ) + qm()(U ) = 0,
r = 0, und m teilt p. Zwei normierte, annullierende Polynome
dann
Rest. Wegen
ist
m
gilt
minimalen Grades teilen sich gegenseitig und sind deshalb gleich.
120
LINEARE ALGEBRA
Das kleinste gemeinsame Vielfache von
m;u1
und
m;u2
annulliert
hu ; u i und ist diesbezüglich von minimalem Grad. Also folgt induktiv
1
2
die Behauptung.
Denition.
Für U = hv i
-Annullator von U .
sagt man -Annullator von v . Ist U = V der ganze
Vektorraum, dann heiÿt m = m das Minimalpolynom von . Insbesondere ist für V = U + W , dargestellt als Summe von Unterräumen,
das Minimalpolynom von gleich dem kleinsten gemeinsamen Vielfachen der -Annullatoren der Summanden U und W . Man betrachtet
Das Polynom
m
=
m;U
heiÿt
quadratische Matrizen als Endomorphismen des arithmetischen Vektorraumes und spricht deshalb gleichfalls von annullierenden Polynomen .
mA einer Matrix A 2
M(n; K ) als kleinstes gemeinsames Vielfaches z.B. der -Annullatoren
der Einheitsvektoren e1 ; : : : ; en . Transponierte quadratische Matrizen
T
T
haben gleiche Minimalpolynome, da m(A ) = m(A) = 0. Ähnliche
Matrizen haben gleiche Minimalpolynome. Denn aus p(A)(v ) = 0,
1
für alle v , folgt p(SAS
)(Sv ) = Sp(A)S 1 (Sv ) = Sp(A)(v ) = 0,
und Sv durchläuft mit v den gesamten Vektorraum, da S invertierbar
Laut Satz 8.2.2 erhält man das Minimalpolynom
ist.
Satz 8.2.3.
ein Endomorphismus des endlich dimensionalen K mit Minimalpolynom m 2 K [x]. Für einen echten
d.h. 0 < grad p < grad m, ist U = (m=p)()V ein
Unterraum mit 0 6= U ( V , und das Minimalpolynom
Sei
V
m,
Vektorraumes
p von
-invarianter
von jU ist p.
Teiler
pr = m. Nach Lemma 8.2.1 ist U = r()V ein -invarianp()U = m()V = 0, und p ist das Minimalpolynom von jU . Es gilt 0 6= U ( V , weil p ein echter Teiler ist.
Beweis. Sei
ter Unterraum mit
A gibt es Beziehungen zwischen den Minimalpolynomen
A; AT , bzw. der inversen, A; A 1 .
Proposition 8.2.4. Die quadratischen Matrizen A; AT haben dasselbe
Minimalpolynom. Hat die invertierbare Matrix A das Minimalpolynom
m(x) = xn + an 1 xn 1 + + a0 , dann ist a0 6= 0 und die Inverse A 1
Für Matrizen
der transponierten,
hat das Minimalpolynom
m
e (x) = xn +
Insbesondere ist
(8.3)
A
1
=
a1 n
x
a0
1
a0
An
1
1
++
an 1
1
x+
a0
a0
an 1 n
A
a0
2
= xn
1
a0
m(x
aa A aa E:
2
1
0
0
1
):
LINEARE ALGEBRA
121
m(AT ) = 0, und wegen
m(A) sind die Minimalpolynome von A und AT gleich.
Ist A invertierbar, dann erhält man durch Multiplikation von m(A) = 0
1
n 1+a
n 2 + + a E = a A 1 , also
mit A
die Gleichung A
n 1A
1
0
ist a0 6= 0, sonst wäre m nicht das Minimalpolynom von A. Darüber
m(A)
Beweis. Transposition von
m(AT ) T =
= 0
ergibt
hinaus ist auch die Gleichung für die Inverse bewiesen.
m
e ergibt mit obiger Polynomidentität m
e (A 1 ) =
0, und weil die zweimalige Anwendung der Operation m 7! m
e wieder m
1
ergibt, ist m
e das Minimalpolynom von A .
Einsetzen von
Bemerkung.
A
1
in
Auch mit dem charakteristischen Polynom, statt dem
Minimalpolynom, erhält man für eine invertierbare Matrix die Darstellung (8.3) für die Inverse, mit gleichem Argument.
8.3.
Zyklische Unterräume.
Um Normalformen von Matrizen zu erhalten, sucht man für einen En-
des endlichLdimensionalen Vektorraumes V eine feinste direkte Zerlegung V =
Ui in -invariante Unterräume Ui . Eine
darstellende Matrix von bzgl. einer Basis, die dieser Zerlegung folgt,
domorphismus
hat dann Blockdiagonalform, vgl. die Denition invarianter Unterräume.
Eine typische Normalform einer Matrix ist die sog. Frobeniusmatrix .
Denition.
usmatrix oder Begleitmatrix zu
wenn
0
0 0
B1 0
B
Fp = B
B0
B.
@ ..
0
Die Frobeniusmatrix
det(Ex
2
Fp M(n; K )
n
p(x) = x + an 1 xn 1 +
Eine quadratische Matrix
Fp ) = p(x).
Fp
1
..
.
..
.
:::
0
0
+ a 2 K [x],
.
..
0
1
an
an
0
1
a0
a1
.
..
heiÿt Frobeni-
2
C
C
C
C:
C
A
1
hat das charakteristische Polynom
Fp (x)
=
Der nächste Satz gewährt einen Überblick über die kleinsten invarianten Unterräume, die einen vorgegebenen Vektor enthalten.
Satz 8.3.1.
Für einen Endomorphismus
des endlich dimensionalen
V , und v 2 V , ist
U = hv; v; 2v; : : : i = fq ()(v ) j q 2 K [x]g
Vektorraumes
122
LINEARE ALGEBRA
der eindeutig bestimmte kleinste
-invariante
Unterraum, der
v
ent-
-Annullator von v und das Minimalpolynom von jU sind
p = xn + an 1 xn 1 + + a0 dieses Minimalpolynom, dann
n 1 v ). Die
hat U die Dimension n = grad p und die Basis (v; v; : : : ; darstellende Matrix von jU , bzgl. dieser Basis ist die Frobeniusmatrix Fp . Insbesondere sind für eine Frobeniusmatrix zum Polynom p
das charakteristische und das Minimalpolynom gleich p.
hält. Der
gleich. Ist
U der kleinste -invariante Unterraum von V ,
der v enthält. Die Elemente von U haben als Linearkombinationen von
v; v; 2v; : : : die Form q ()(v ) mit q 2 K [x]. Sei n 2 N minimal
Beweis. Oensichtlich ist
bezüglich
n v 2 v; v; 2v; : : : ; n 1 v ;
mit der Darstellung
n v = a0 v
(8.4)
a1 v
an n v:
1
1
; n 1 v ) ein Erzeugendensystem von U , und sogar linear unabhängig, d.h. eine Basis, da n minimal ist.
n
Aus der Darstellung (8.4) ergibt sich sofort das Polynom p(x) = x +
n
1
an 1 x + + a0 als der -Annullator von
v und als das Minimalpoi
i
lynom von jU , da p()( v ) = p()(v ) = 0.
Die darstellende Matrix von jU bezüglich der gegebenen Basis gewinnt
Also ist
(v; v; 2 v; : : :
man spaltenweise durch die Koezientenvektoren der Basisbilder, al-
e2 ; : : : ; en , und die
letzte Spalte liest man an (8.4) ab und erhält die Frobeniusmatrix Fp .
Insbesondere sind dann das Minimalpolynom von Fp und das charakteristische Polynom gleich p.
so der Reihe nach erst einmal die Einheitsvektoren
Denition.
Vektor v 2 V
U
Für einen Vektorraum
V
mit Endomorphismus
und
heiÿt der Unterraum
= hv i = hv; v; 2v; : : : i = fq ()(v ) j q
2 K [x]g
v erzeugte -zyklische Unterraum , und v heiÿt ein erzeugendes
Element des -zyklischen Unterraumes U . Mit dem -Annullator p
von U gilt dim U = grad p, nach Satz 8.3.1. Ist V = hv i , dann heiÿt V
ein -zyklischer Vektorraum.
der von
Die Existenz zyklischer Unterräume ist nach Satz 8.3.1 gesichert. Von
Interesse sind die
-invarianten Unterräume -zyklischer Vektorräume
und ihre Dimensionen.
LINEARE ALGEBRA
123
Satz 8.3.2. Die -invarianten Unterräume -zyklischer Vektorräume
sind -zyklisch.
Ein -zyklischer Vektorraum V = hv i mit m als Minimalpolynom
von hat als -invariante Unterräume genau die paarweise verschiedenen (-zyklischen) Unterräume ker h() = h(m=h)()(v )i für alle
Teiler h von m. Es gilt dim ker h() = grad h.
Beweis. Sei
U
ein
kleinsten Grades
-invarianter Unterraum von V , sei p das Polynom
mit p()(v ) 2 U und sei q ()(v ) 2 U ein weiteres
U . Dann gibt es, wegen Division mit Rest, vgl. Satz 8.1.2,
Polynome s; r mit q = sp + r , wobei entweder r = 0 oder grad r <
grad p. Also q ()(v )
s()p() (v ) = r()(v ) 2 U , und r = 0, nach
Wahl von p. Somit ist U = fs() p()(v ) j s 2 K [x]g = hp()(v )i
ein -zyklischer Unterraum.
Der -Annullator h des Unterraumes U = hp()(v )i teilt m, und
m
U ker h() = h ()(v )i:
h
Wegen (hp)()(v ) = 0, teilt m das Produkt hp, also ist m=h ein Teiler
von p, d.h. es gibt ein Polynom r mit p = (m=h)r derart, dass r und h
teilerfremd sind, nach Denition von h. Nach dem Satz von Bézout,
Satz 8.1.5, gibt es dann Polynome s; t mit sr + th = 1. Somit ist
m
m
m
()(v ) =
()(v ) (tm)()(v ) = sr
()(v ) = (sp)()(v ) 2 U;
h
h
h
und folglich U = ker h(). Damit sind alle -invarianten Unterräume
von V durch die Teiler h des Minimalpolynoms m von in der Form
ker h() gegeben. Weiter sind diese Kerne wegen Lemma 8.2.1 (6)
paarweise verschieden und dimh(m=h)()(v )i = grad h.
Element in
Unzerlegbare Unterräume und Frobenius Normalform.
Denition. Ein Vektorraum V mit Endomorphismus heiÿt unzerlegbar , wenn er keine direkte Summe -invarianter Unterräume
ist. In diesem Sinne spricht man auch von einem -unzerlegbaren, 8.4.
invarianten Unterraum.
V , mit einem
in -unzerleg-
Oensichtlich hat jeder endlich dimensionale Vektorraum
Endomorphismus
,
direkte Zerlegungen
bare Unterräume, es sei denn
gezeigt, dass
lynom von
V
V
V
Ln
= i=1 Ui
ist unzerlegbar. Im nächsten Satz wird
eine echte solche Zerlegung hat, wenn das Minimalpo-
keine Primpotenz ist.
Die Umkehrung gilt nicht.
124
LINEARE ALGEBRA
Satz 8.4.1.
Ist
m = pq
eine teilerfremde Zerlegung des Minimalpoly-
noms des Endomorphismus
V , dann gelten:
(1) U = ker p() =
eines endlich dimensionalen Vektorrau-
mes
Im q ()
und
W
= ker q () = Im p()
sind
-
invariante Unterräume.
V = U W.
(3) p ist das Minimalpolynom von jU und q ist das Minimalpolynom
von jW .
k
k
Ist insbesondere m = p11 pt t eine Primfaktorzerlegung des Minimal(2)
polynoms, dann ist
V
= ker pk11 () ker pkt t ()
eine direkte Zerlegung von
Die Einschränkung von
ki .
Minimalpolynom
pi
V
auf
W = Im p() sind nach
Lemma 8.2.1 -invariant und oensichtlich ist U ker p() und W ker q (). Wieder nach Lemma 8.2.1 ist
U \ W ker p() \ ker q () ker ggT(p; q )() = ker id = 0;
weil p und q teilerfremd sind, d.h. V ker p() ker q () U W .
Beweis. Die Unterräume
U
-invarianten Unterräume ker pki i ().
ker pki i () ist ein Endomorphismus mit
in die
= Im q ()
und
Es genügt also (2) zu beweisen, auch für (1). Nach Bézout, Satz 8.1.5,
r; s 2 K [x] mit 1 = rp + sq , also
v = id v = r() p()(v ) + s() q ()(v ) 2 W U;
also V = U W .
(3): Das Minimalpolynom von jU teilt p und das Minimalpolynom
von jW teilt q . Also teilt das Minimalpolynom von U W das kleinste
gemeinsame Vielfache pq von p und q . Wegen V = U W sind deshalb
die Minimalpolynome von jU und jW gleich p bzw. q . Der Zusatz
existieren
folgt induktiv.
Nach Satz 8.4.1 muss das Minimalpolynom von
eines -unzerlegbaren
Vektorraumes eine Primpotenz sein. Mit der Umkehrung dieser Frage
beschäftigt sich der nächste Satz.
Satz 8.4.2. Sei ein Endomorphismus des endlich dimensionalen Vekk
torraumes V mit einer Primpotenz p als Minimalpolynom. Dann exik
stiert ein -zyklischer Unterraum U der Dimension dim U = grad p ,
k
und das Minimalpolynom der Restriktion jU von ist p . Weiter existiert für jeden solchen -zyklischen Unterraum U ein -invariantes
Komplement W , d.h. V = U W .
LINEARE ALGEBRA
Beweis. Es gibt ein
u
mit
dim U = k grad p < dim V .
-Annullator pk .
125
Sei
U
=
hui ( V , d.h.
Zuerst wird gezeigt, dass in dieser Situati-
on immer ein nicht triviales maximales
-invariantes Komplement W
U \ W = 0 mit W 6= 0.
k
Es gibt ein v 2 V n U mit p()v 2 U , da p ()v = 0 2 U , und
k 1 ().
oensichtlich p()v 2 U \ ker p
k 1 () = p()U , denn sowieso ist die rechte Seite
Es gilt U \ ker p
in der linken enthalten.
Sei nun y = q ()u ein Element der linken Seite, dargestellt als Linearkombination der Basis von U , vgl.
k 1 () ist (pk 1 q )()u = 0, also teilt
Satz 8.3.1. Wegen y 2 ker p
k
k 1 q , somit ist q = rp und
der -Annullator p , von u das Polynom p
y = r()[p()u] 2 p()U , wie gewünscht.
0
0
Das obige Argument belegt, dass es ein u 2 U gibt mit p()u = p()v .
0
0
Weiter wird gezeigt, dass hv u i \ U = 0. Es gilt: p()(v u ) = 0. Sei
0 6= q ()(v u0 ) 2 hv ui \ U als allgemeines Element angenommen,
d.h. p 6 j q , dann existieren nach Bézout r; s 2 K [x] mit rp + sq = 1.
existiert, d.h.
Also folgt der Widerspruch
u0 = r() p()(v u0 ) + s() q ()(v u0 ) 2 U:
Wegen 0 6= v
u0 , ist W = hv u0 i ein nicht trivialer -invarianter
Unterraum, mit U \ W = 0.
V; U; erfüllen alle Voraussetzungen der Behauptung und W 6= 0 sei ein
maximales -invariantes Komplement von U = hui , d.h. U W V .
Sei V von minimaler Dimension bzgl. der Eigenschaft U W 6= V .
Sei der von auf V = V=W induzierte Endomorphismus, d.h.
(v + W ) = (v ) + W , dann ist U = U=W =
hu + W i ein -zyklischer
Unterraum mit dim U = dim (U W )=W = dim U , vgl. Satz 3.6.10.
k
Also sind die Minimalpolynome von und von jU beide gleich p . Damit sind alle Voraussetzungen des Satzes für V erfüllt, und da dim V <
dim V , gibt es für U ein -invariantes Komplement W , d.h. V = U W ,
wobei W = H=W und W = (U W ) \ H = (U \ H ) W , vgl. Satz 3.6.9
und das Dedekindsche Modulargesetz. Folglich ist U \ H = 0, und laut
Denition von ist H sogar -invariant. Wegen W ( H liegt ein
Widerspruch zur Maximalität von W vor.
v
-unzerlegbare Vektorräume samt
sind -unzerlegbare Vektorräume -
Das nächste Korollar charakterisiert
ihrer Unterräume. Insbesondere
zyklisch. Die Umkehrung gilt nicht.
Korollar 8.4.3.
len Vektorraumes
Sei
V
ein Endomorphismus des endlich dimensiona-
mit Minimalpolynom
m.
Der Vektorraum
V
ist
126
LINEARE ALGEBRA
-unzerlegbar, wenn m = pk eine Primpotenz ist und
dim V = grad m. In diesem Fall sind die Kerne ker pi () paarweise
verschieden und die einzigen -invarianten Unterräume, d.h. sie bilgenau dann
den eine Kette:
0 ( ker p() ( ker p2 () ( ( ker pk 1 () ( V:
-unzerlegbaren
m = pk und dim V = grad m. Ist umgekehrt m = pk und
dim V = grad m, dann ist V nach Satz 8.4.2 ein -zyklischer Vektorraum und eine angenommene direkte Zerlegung in -invariante Unterk 1 ()V = 0.
räume führte nach Satz 8.3.2 zum Widerspruch p
Beweis. Nach den Sätzen 8.4.1 und 8.4.2 ist für einen
Vektorraum
Nach Satz 8.3.2 gibt es nur die angegebenen paarweise verschiedenen
-invarianten Unterräume und sie bilden oensichtlich eine Kette.
Denition.
Ein Vektorraum
V
mit Endomorphismus
heiÿt
-
6= 0 enthält. Also ist V genau dann -irreduzibel, wenn V = hv i für alle 0 =
6
v 2 V , denn -zyklische Unterräume gibt es immer. Ein -irreduzibler
irreduzibel , wenn er keinen echten
-invarianten
Unterraum
-unzerlegbar und -zyklisch. Wenn V endlich
, nach Satz 8.2.3, ein irreduzibles Minimalpolynom p, d.h. dim V = grad p.
Bemerkung. Für einen endlich dimensionalen Vektorraum V mit Endomorphismus existieren immer feinste direkte Zerlegungen V =
Ln
i=1 Ui in -unzerlegbare Unterräume Ui . Wenn m das Minimalpolynom von ist, dann haben die Restriktionen jUi nach Korollar 8.4.3
k
k
Primpotenzen p als Minimalpolynome, wobei p ein Teiler von m ist.
Weil das Minimalpolynom m das kleinste gemeinsame Vielfache der Minimalpolynome aller Restriktionen jUi ist, gibt es zu jedem maximalen
k
Primpotenzteiler p von m mindestens ein i, so dass das Minimalpolyk
nom der Restriktion jUi gleich p ist.
k
Sei p ein Primteiler von m, und sei p die maximale Potenz von p,
die m teilt. Dann ist der p-Kern von , d.h. die Teilsumme Vp =
L
fUi j pk ()Ui = 0g der Unterräume Ui mit p-Potenzen als zugehök
rigen Minimalpolynomen, genau der Kern ker p (), also elementweise
und damit eindeutig bestimmt. Die unzerlegbaren Unterräume Ui in
der Zerlegung des p-Kerns Vp sind dagegen nicht eindeutig, d.h. nicht
Vektorraum ist somit
dimensional ist, dann hat
elementweise festgelegt. Der nächste Satz zeigt, dass jedenfalls die Dimensionen der im
p-Kern auftretenden Ui eindeutig sind.
Um eine feinste Zerlegung eines endlich dimensionalen Vektorraumes
mit Endomorphismus
zerlegt man
V
in
-invariante
V
Unterräume zu bestimmen,
gemäÿ Satz 8.4.1 grob in die
p-Kerne
von
,
also
L
=
p Vp
LINEARE ALGEBRA
127
Vp = ker
pkp (), gemäÿ der Primfaktorzerlegung des
Q k
Minimalpolynoms m =
p p . Das Minimalpolynom von jVp ist pkp .
V
mit
Unter Verwendung von Satz 8.4.2 erhält man dann eine feinste Zerle-
-unzerlegbare Unterräume, indem man die p-Kerne Vp weiter
zerlegt, und zwar durch sukzessive Abspaltung -zyklischer Unterräugung in
me mit jeweils maximalem Annullator.
Das Thema des nächsten Satzes ist die Frage nach gemeinsamen Eigenschaften verschiedener feinster Zerlegungen der
p-Kerne.
Satz 8.4.4. Sei ein Endomorphismus des endlich dimensionalen Vekk
torraumes V mit einer Primpotenz p als Minimalpolynom. Dann
hat V = U1 Un eine direkte Zerlegung in -unzerlegbare Unk
terräume Ui derart, dass die Restriktion jUi das Minimalpolynom p i
hat mit ki k . Dabei ist mindestens ein ki gleich k . Die Dimension
k
von Ui ist dim Ui = grad p i . Darüber hinaus sind die Dimensionen
der Ui eindeutig bis auf Reihenfolge.
Beweis. Die Dimension von
V
ist endlich, also gibt es eine solche di-
rekte Zerlegung nach Korollar 8.4.3. Das Minimalpolynom von
das kleinste gemeinsame Vielfache der
pki ,
also ist mindestens ein
ist
ki
k, vgl. auch die voran gegangene Bemerkung. Sei o.B.d.A.
k1 k2 : : : kn 1. Zu zeigen ist die Eindeutigkeit der
Dimensionen ki bis auf Reihenfolge.
t
Sei 0 t k . Dann ist p ()Ui zyklisch, wie auch Ui , d.h. nach
t
Satz 8.3.1 ist dim p ()Ui = (ki
t) grad p falls t < ki und sonst 0.
gleich
k
=
Also ist
dim pt ()V =
n
X
i=1
dim pt ()Ui = (grad p)
Dann aber ist die Folge der
der
ki
X
ki >t
(k i
t):
eindeutig bestimmt, weil die Anzahl
ki > t für jedes t festgelegt ist.
Der nächste Satz heiÿt Normalformensatz . Die Übersetzung der bisherigen Sätze über Endomorphismen auf deren darstellende Matrizen
ergibt die Normalformen von Matrizen.
Satz 8.4.5.
A eineQquadratische Matrix
Minimalpolynom m =
pkp in Primfaktor-
(Frobenius Normalform) Sei
über dem Körper
K
zerlegung. Dann ist
mit
A
ähnlich zu einer Blockdiagonalmatrix, der sog.
Frobenius Normalform oder der allgemeinen Normalform,
A
ist ähnlich zu
diag (A1 ; : : :
; As );
128
LINEARE ALGEBRA
A
wobei die Diagonalblöcke i Frobeniusmatrizen sind zu Polynomen der
ki mit
Form
i
p . Die Normalform ist bis auf die Reihenfolge der
kp gibt es
Diagonalblöcke eindeutig. Für jede maximale Primpotenz
p
k
k
mindestens eine Frobeniusmatrix
p
Ai .
Beweis. Die bisherigen Sätze über die Zerlegung eines Vektorraumes
mit Endomorphismus
in -unzerlegbare Unterräume lassen sich auf
die darstellenden Matrizen übertragen. Einer direkten Zerlegung des
Vektorraumes in invariante Teilräume entspricht bei einer Basiswahl,
die dieser Zerlegung folgt, eine Blockdiagonalform der darstellenden
Matrizen, d.h. die darstellende Matrix
A
ähnlich zu einer Blockdiagonalmatrix.
Die einzelnen Diagonalblöcke
des Endomorphismus
ist
sind die darstellenden Matrizen von Endomorphismen bzgl. derer die
zugehörigen Teilräume unzerlegbar, also zyklisch, sind. Folglich erhält
man wie in Satz 8.3.1 für diese Diagonalblöcke Frobeniusmatrizen bzgl.
geeigneter Basen.
Der folgende Satz von Cayley-Hamilton
besagt, dass eine Matrix von
ihrem charakteristischen Polynom annulliert wird. Das folgt sofort aus
dem Normalformensatz, weil ähnliche Matrizen sowohl gleiche charakteristische, als auch gleiche Minimalpolynome besitzen, und weil das
charakteristische Polynom einer Blockdiagonalmatrix das Produkt der
charakteristischen Polynome der Frobeniusblöcke ist, und das Minimalpolynom ist das kleinste gemeinsame Vielfache der Minimalpolynome
dieser Blöcke. Natürlich verwendet man noch, dass für Frobeniusmatrizen das charakteristische Polynom gleich dem Minimalpolynom ist. Es
gibt allerdings auch noch einen direkten und kürzeren Beweis des Satzes von Cayley-Hamilton. Der Zusatz über die gleichen Primfaktoren
wird allerdings nur über die Normalform erhalten.
Satz 8.4.6.
(Cayley-Hamilton) Das charakteristische Polynom des En-
domorphismus
annulliert
,
d.h.
Polynom der quadratischen Matrix
() = 0. Das charakteristische
A annulliert A, d.h. A (A) = 0.
Insbesondere ist das charakteristische Polynom ein Vielfaches des Minimalpolynoms. Das charakteristische und das Minimalpolynom einer
Matrix haben dieselben Primfaktoren.
A eine quadratische Matrix mit charakteristischem PolyA (x) und sei v 6= 0 ein Spaltenvektor. Es genügt zu zeigen, dass
A (A)v = 0. Sei der Endomorphismus des arithmetischen Vektorraumes mit darstellender Matrix A, bzgl. der kanonischen Basis. Sei
2
k 1 v; w ; w ; : : : ), woeine neue Basis gegeben durch (v; Av; A v; : : : ; A
1
2
k
k 1 + + a der -Annullator von v ist, vgl.
bei m(x) = x + ak 1 x
0
Beweis. Sei
nom
LINEARE ALGEBRA
129
Satz 8.3.1. Man beachte, dass der Koordinatenvektor von
neuen Basis der Einheitsvektor
e1 ist.
v
bzgl. der
Dann hat der Endomorphismus
bzgl. der neuen Basis die folgende Blockdreiecksmatrix als darstellende
Matrix
A 0 = Fm
0
;
B
Fm zum Polynom m(x), d.h. m(Fm )v = 0. Wegen
0
A (x) = A (x) = Fm (x)B (x) = m(x)B (x), folgt A (A)v = 0.
mit Frobeniusmatrix
8.5.
Jordan Normalform und Anwendungen.
Genau dann, wenn das Minimalpolynom einer Matrix in Linearfaktoren zerfällt, also z.B. für komplexe Matrizen, gibt es eine einfachere
Normalform, die sog. Jordan Normalform .
Denition.
Eine quadratische Matrix
matrix zum Eigenwert
c 2 K , wenn
0
c 0
B1 c
B
Jn;c = B
B0 1
B.
@ ..
..
..
Jn;c 2 M(n; K ) heiÿt Jordan-
:::
.
1
0
C
C
.. C
.C
C
0A
:
.
c
:::
1 c
Der Eigenraum der Jordanmatrix J = Jn;c zum Eigenwert c ist Ken ,
also eindimensional, mit dem Einheitsvektor en als Eigenvektor. Das
charakteristische Polynom von J ist J (x) = det(Ex
J ) = (x c)n ,
und es ist gleich dem Minimalpolynom, da der Einheitsvektor e1 von
keiner kleineren Potenz von x
c annulliert wird. Eine Jordanman = 0, und n ist
trix J = Jn;0 zum Eigenwert 0 ist nilpotent , d.h. J
0
diesbezüglich minimal. Übrigens ist jede untere bzw. obere Dreiecksmatrix mit
0-Diagonale nilpotent, vgl. die Bemerkung im Anschluss an
Satz 4.3.4.
Der nächste Satz ist eine Spezialisierung des Normalformensatzes für
Endomorphismen, deren Minimalpolynom bzw. charakteristisches Polynom in Linearfaktoren zerfällt. Insbesondere ergibt sich hiermit auch
eine brauchbare Charakterisierung der Diagonalisierbarkeit einer Matrix, vgl. auch Satz 6.2.2.
Satz 8.5.1.
(Jordan Normalform) Sei A eine quadratische Matrix über
Q
K mit Minimalpolynom m = c(x c)kc , das in Linearfaktoren zerfällt, d.h. die Eigenwerte c sind paarweise verschieden. Dann
dem Körper
130
ist
LINEARE ALGEBRA
A
ähnlich zu einer Blockdiagonalmatrix, der sog. Jordan Normal-
form,
A
wobei die Diagonalblöcke
Minimalpolynomen
diag (A1 ; : : :
ist ähnlich zu
(x
; As );
Ai Jordanmatrizen sind zu Eigenwerten c mit
c)ki mit ki kc . Die Normalform ist bis auf
die Reihenfolge der Diagonalblöcke eindeutig. Für jede maximale Potenz (
)kc gibt es mindestens eine Jordanmatrix . Insbesondere
x
c
Ai
haben das charakteristische und das Minimalpolynom von
A
dieselben
Nullstellen.
Eine Matrix hat genau dann eine Jordan Normalform, wenn ihr Minimalpolynom (also auch ihr charakteristisches Polynom) in Linearfaktoren zerfällt, und sie ist genau dann diagonalisierbar, wenn ihr Minimalpolynom in lauter paarweise verschiedene Linearfaktoren zerfällt.
Beweis. Der Satz folgt aus Satz 8.4.5, wenn gezeigt ist, dass eine Frobeniusmatrix zum Polynom
c)r
(x
ähnlich ist zur Jordanmatrix
Jr;c.
Die allgemeine Normalform mit einer Frobeniusmatrix gewinnt man
(v; v; : : :
; r
) des -zyklischen VekV = hv i. Stattdessen nimmt man die Basis (v; ( c)v; (
c)2 v; : : : ; ( c)r 1 v ). Diese Vektoren sind tatsächlich linear unabhänlaut Satz 8.3.1 bzgl. der Basis
1
torraumes
gig und damit eine Basis. Denn die Annahme der linearen Abhängigkeit, d.h.
Pr 1
i=0 ai (
bzw. Minimalpolynom
c)i v = 0, führte zu einem -Annulator von v
von mit zu kleinem Grad. Man berechnet
die Bilder der Basisvektoren der neuen Basis als Linearkombinationen
bzgl. der neuen Basis, indem man die, durch die Frobeniusmatrix gegebenen, Bilder von
fv; v; : : : ; r vg verwendet.
1
beider Basen den Koordinatenvektor
r e1 = [r
e1
( c)e1
( c)r 1 e1
(
=
=
.
.
.
=
c)r ]e1 (= er ).
v bzgl.
e1 = er und
Genauer hat
e1 , e1 = e2 ; : : :
; r
1
Es ergibt sich
e2 = ce1 + 1( c)e1 ;
(c c2 + 2 2c + c2 )e1 = c( c)e1 + 1( c)2 e1 ;
c( c)r 1 e1 + ( c)r e1 = c( c)r 1 e1 :
Damit ist die darstellende Matrix von
bzgl. der neuen Basis spaltenJr;c.
weise gegeben, es ist die Jordanmatrix
Eine Matrix ist genau dann diagonalisierbar, wenn alle Jordanblöcke
11
Matrizen sind, also genau dann, wenn das Minimalpolynom in
paarweise verschiedene Linearfaktoren zerfällt.
LINEARE ALGEBRA
131
Bemerkung.
(1) Auch zusammen legen das charakteristische Polynom und das
Minimalpolynom nicht die Normalform fest. Kleinste Gegenbeispiele sind die beiden
B = diag (J2;0 ; 0).
44
Matrizen
A
= diag (J2;0 ; J2;0 )
und
Manchmal kann man allerdings bei Kenntnis
des charakteristischen und des Minimalpolynoms auf die exakte Normalform schlieÿen.
q (x)
=
x
2
x
+
tionale Matrix
(2)
A
1
Seien z.B.
p(x)
=
x3 + x
1
rationale (irreduzible) Polynome.
und
Die ra-
2 M(10; Q ) mit charakteristischem Polynom
A (x) = p2 q 2 und Minimalpolynom mA (x) = pq hat die Normalform diag (Fp ; Fp ; Fq ; Fq ).
Die Menge M(n; K ) der quadratischen n-reihigen Matrizen über
dem Körper K zerfällt genau dann in nur endlich viele Ähnlichkeitsklassen, wenn K endlich ist, denn genau dann gibt es nur
endlich viele Normalformen.
(3) Die Anzahl der Jordanblöcke zum Eigenwert
c einer Matrix, de-
ren Minimalpolynom in Linearfaktoren zerfällt, ist gleich der Dimension des Eigenraumes zum Eigenwert
c.
(4) Minimalpolynom und charakteristisches Polynom einer nilpotenten Matrix sind Monome, d.h.
6
te Matrizen (=
0)
xk .
Insbesondere haben nilpoten-
eine Jordan Normalform mit lauter Jordan-
blöcken zum Eigenwert
0,
und sie sind nicht diagonalisierbar.
A, d.h. A2 = A, ist
ähnlich zu einer Diagonalmatrix diag (1; : : : ; 1; 0; : : : ; 0), denn A
wird annulliert vom Polynom x(x
1), das eine Zerlegung in
(5) Eine Projektion bzw. idempotente Matrix
paarweise verschiedene Linearfaktoren hat. Die Eigenwerte sind
oensichtlich
0 ; 1.
Die Anzahlen der
0en
und
1en
ist gleich der
geometrischen Vielfachheit, d.h. der Dimensionen der Eigenräume, der Eigenwerte
0; 1.
Das Bild unter der Matrix
Eigenraum des Eigenwertes
1, also ist der
Rang von
A
ist der
A gleich der
geometrischen Vielfachheit.
(6) Eine reelle quadratische Matrix mit ungerader Zeilenzahl, z.B.
3,
hat immer einen Eigenvektor, weil ein reelles Polynom ungeraden
Grades immer eine reelle Nullstelle hat.
(7) Ein irreduzibles reelles Polynom ist entweder linear oder quadratisch, weil
(x
a)(x a) 2 R [x].
Es gibt über
Q
und auch über
jedem endlichen Körper zu jedem Grad irreduzible Polynome.
(8) Die reelle Normalform reeller normaler Matrizen ist eine Blockdiagonalmatrix, u.A. mit
Frobenius Normalform
0
1
22
Diagonalblöcken
(a2 + b2 )
2a
a b
b a
, d.h.
. Reelle Matrizen haben
132
LINEARE ALGEBRA
i.A. keine Jordan Normalform. Die Frobenius Normalform einer
reellen Matrix hat i.A. nicht nur
22
Diagonalblöcke.
q gibt es eine Matrix, die q als Minimalpoly2
nom hat, z.B. die Frobeniusmatrix Fq . Aber das Polynom x + 1
(9) Zu jedem Polynom
ist z.B. niemals das Minimalpolynom einer reellen
vgl. (6).
(10) Eine Frobeniusmatrix
Normalform, wenn
q
Fq
zum Polynom
= pk
q
33
Matrix,
ist genau dann eine
eine Primpotenz ist, weil
Fq
nicht
ähnlich zu einer echten Blockdiagonalmatrix sein kann, deren
Minimalpolynom kleineren Grad als
q hätte.
(11) Transponierte quadratische Matrizen sind ähnlich, d.h.
A und AT
S eine invertierA in Normalform M überführt,
haben dieselbe Frobenius Normalform. Denn sei
bare Matrix, welche die Matrix
also
M
= SAS
1
. Wegen
M T = (SAS
1
)T = (S T )
1
AT S T ;
genügt es die Normalformen für die Transponierten der unzer-
Fq , mit einer Primpotenz q = pk als
T
Minimalpolynom, zu bestimmen. Weil Fq dasselbe charakteriT
stische und Minimalpolynom wie Fq hat, ist Fq ähnlich zu Fq
legbaren Frobeniusmatrizen
nach dem Normalformensatz, Satz 8.4.5.
A 2 M(n; K ) ähnlich zur Jordanmatrix J = cE +
N , d.h. N n = 0. Dann ist, mit
k
k
Verwendung der binomischen Formel, A ähnlich zu c E + N .
(12) Sei die Matrix
N
mit der nilpotenten Matrix
Es soll hier nur erwähnt werden, dass es kanonische Verfahren gibt, um
die Normalformen auch von groÿen Matrizen zu berechnen.
Es gibt
weiter auch kanonische Verfahren, um Basistransformationsmatrizen
S
zu bestimmen, die per Ähnlichkeitstransformation eine quadratische
Matrix
A in ihre Normalform SAS
1
umformen. Für reelle symmetri-
sche Matrizen ist die Bestimmung von
S
wesentlich einfacher und als
Hauptachsentransformation behandelt worden.
LINEARE ALGEBRA
133
Literatur
[1] I. S. Du, A. M. Erisman, and J. K. Reid, Direct Methods for Sparse Matrices,
Clarendon Press, Oxford, UK, 1986.
[2] W. H. Greub, Linear Algebra, Springer-Verlag, Heidelberg New York, 1967.
[3] N. Jacobson, Basic Algebra I, W. H. Freeman and Company, Yale (1974).
[4] G. M. Michler, H.-J. Kowalsky, Lineare Algebra, de Gruyter Verlag, Berlin (1991).
[5] P. R. Halmos, Naive Mengenlehre, Vandenhoeck & Ruprecht, Göttingen (1968).
Index
Z2 , 18
C -Basis, 87
C -linear, 88
R-Basis, 87
R-linear, 88
ausgeartete Multilinearform, 60
Aussage, 3
Austauschsatz von Steinitz, 29
Auswahlaxiom, 27
Automorphismus, 35, 41, 45
Axiom, 14, 17, 19, 27
, Inklusion mit Gleichheit, 4
Ähnlichkeitsklassen, 131
Äquivalenz, 3, 44
Äquivalenzklasse, 8, 44
Äquivalenzrelation, 8
ähnliche Matrizen, 44
äquivalente Matrizen, 44
überabzählbar unendlich, 11
1-Gruppe, 17
10-adische Entwicklung, 12
Abbildung, 9
Abbildungsraum, 45
abelsch, 14
abzählbar, 11
Additionstafel, 18
additive abelsche Gruppe, 16, 17, 19
adjungierte Abbildung, 96
adjungierte Matrix, 85
Adjunkte, 67
aner Raum, 48
algebraisch abgeschl. Körper, 78
algebraische Struktur, 14, 17
algebraische Vielfachheit, 78
algorithmische Gröÿe, 53
allgemeine lineare Gruppe, 40, 53
alternierende Multilinearform, 59
Analysis, 21
angeordneter Körper, 83
Annullator, 120
annullierendes Polynom, 77, 128
antihermitesche Matrix, 85
Antinomie, 4
antiselbstadjungiert, 97
Antisymmetrie von Relationen, 7
antisymmetrische Bilinearform, 83
antisymmetrische Matrix, 84, 85
antisymmetrisches Polynom, 73
arithmetischer Vektorraum, 20
arithmetisches Mittel, 12
assoziativ, 35
Assoziativgesetz, 14
Bézout, 117
Basis, 24, 25
Basisdarstellung, 24, 25, 29
Basisergänzungssatz, 27
Basistransformation, 41
Begleitmatrix, 121
Bernstein, 11
Betrag, 84, 85
Betrag einer komplexen Zahl, 7
bijektiv, 9
Bild, 9, 36
Bildbereich, 9
Bilinearform, 59, 82
binomische Formel, 132
Blockdiagonalmatrix, 100
Blockdreiecksmatrix, 69, 100
Cantor, 11
Cantorsches Diagonalverfahren, 11
Cayley, 128
charakteristisches Polynom, 75
Cosinussatz, 90
Cramersche Regel, 70
134
dünn besetzte Matrix, 56
darstellende Matrix, 39, 83, 85
Darstellung eines Vektors, 21
Dedekindsches Modulargesetz, 23
Denitionsbereich, 9
Descartes, 6
Descartesche Zeichenregel, 111
Determinante, 62, 64
Determinantenmultiplikation, 63, 65
Dezimalbruchentwicklung, 12
Diagonaleintrag, 34
diagonalisierbar, 79, 108
diagonalisierbare Matrix, 129
Diagonalmatrix, 34
Dierenzmenge, 5
Dimension, 26
LINEARE ALGEBRA
Dimensionssatz für Abbildungen, 37
Dimensionssatz für Unterräume, 30
direkte Summe, 28, 29
direkter Beweis, 12
Disjunktion, 3
Distributivgesetz, 5, 17, 23
Division mit Rest, 6, 7, 115, 117, 119
Drehachse, 107, 108
Drehebene, 107
Drehspiegelung, 107
Drehung, 106
Drehwinkel, 107
Dreiecksungleichung, 90
Dualbasis, 47
dualer Operator, 94
Dualität, 48
Dualraum, 46, 94
Durchschnitt, 4
Eigenraum, 74, 131
eigentlich orthogonal, 106
Eigenvektor, 73
Eigenvektorgleichung, 73, 74
Eigenwert, 73
Einbettung, 86
Einheitsmatrix, 32
Einheitsvektor, 24
Einschränkung einer Abbildung, 88
Eintrag, 6, 19, 32
elementar abelsche Gruppe, 17
elementare Matrix, 51
elementare Umformung, 51
elementarsymmetr. Polynom, 73
Ellipse, 108
endlich erzeugter Vektorraum, 23
endliche Körper, 18
Endomorphismenring, 45
Endomorphismus, 35
Entwicklungssatz von Laplace, 67
Epimorphismus, 35
Erzeugendensystem, 15, 2325, 53
erzeugendes Element, 16, 122
Erzeugnis, 15, 22, 112
Euklid, 13
Euklidischer Algorithmus, 117
euklidischer Raum, 84
Faktorraum, 48
Fallunterscheidung, 4
135
falsche Aussage, 3, 4
Fingerregel, 93
Format einer Matrix, 32
Fortsetzung einer Abbildung, 88
Frobenius Normalform, 127
Frobeniusmatrix, 121
Funktion, 9
Gödel, 27
Galois eld, 18, 24
ganzzahlige Inverse, 70
Gauÿ, Summenformel, 13
Gauÿalgorithmus, 53
Gauÿelimination, 54
Gegenbeispiel, 4
gemischte Assoziativität, 19
gemischte Distributivität, 19
geometrische Reihe, 55
geometrische Vielfachheit, 74
geometrisches Mittel, 12
gerade Permutation, 58
GF(2), 18, 24
GF(q), 18, 48
gleichmächtig, 11
Gleitkommazahl, 56
gröÿte gemeinsame Teiler, 7, 116
Grad eines Polynoms, 72
Gradsatz, 114
Gram-Schmidt, 92
Graph einer Funktion, 9
Gruppe, 14
Gruppenaxiome, 14
Gruppenerzeugnis, 15, 112
Gruppenisomorphismus, 46
Gruppentafel, 16, 18
Halbordnung, 9
Hamilton, 128
Hauptachsenform, 108
Hauptachsentransformation, 108, 132
Hauptdiagonale, 34
Hauptuntermatrizen, 110
hermitesche Form, 84
hermitesche Matrix, 85, 108
Hintereinanderausführung, 10, 35
homogenes Gleichungssystem, 50
Homomorphiesatz, 49
Homomorphismus, 35
136
LINEARE ALGEBRA
Ideal eines Ringes, 117
idempotente Matrix, 131
imaginäre Einheit, 7
Imaginärteil, 7
Implikation, 3
indenite Matrix, 109
Index, 5
Indexmenge, 5
indirekter Beweis, 12
Induktionsbeweis, 13
induzierte Operation, 15, 21
induzierter Endomorphismus, 100
inhomogenes Gleichungssystem, 50
injektiv, 9
Inklusion, 3, 4
inneres Produkt, 84, 85
Invarianten eines Vektorraumes, 38
invarianter Unterraum, 100
inverse Matrix, 40
inverses Element, 14, 17
invertierbare Matrix, 40
irrationale Zahl, 7
irreduzible Zerlegung, 116
irreduzibler Vektorraum, 126
irreduzibles Polynom, 114, 131
isomorph, 31, 35
Isomorphismus, 35
Jordan Normalform, 129, 130, 132
Jordanmatrix, 76, 129
Körper, 17
Körperaxiome, 17
Kürzungsregel, 14
kanonischer Epimorphismus, 48
kartesische Darstellung, 7
kartesische Koordinaten, 6
kartesische Potenz, 19
kartesisches Produkt, 6
Kern, 36, 50, 126
Kette, 27
Klassen, 4
Kleinsche Vierergruppe, 17, 19
kleinste gem. Vielfache, 7, 116
Koezient, 19
Koezienten eines Polynoms, 72
Koezienten eines Vektors, 25
kommutativ, 14
kommutativer Körper, 17
Kommutativgesetz, 14
Komplement, 5
Komplement eines Unterraumes, 28
Komplementierungssatz, 28
komplettes Urbild, 8, 9
komplexe Erweiterung, 86
komplexe Fortsetzung, 88
komplexe Kongruenz, 85
komplexe Zahl, 7
komplexer Vektorraum, 19
komplexes Skalarprodukt, 85
Komposition, 10
kongruente Matrizen, 83
Kongruenzklassen von Matrizen, 83
konjugiert komplexe Nullstellen, 99
Konjunktion, 3
konstanter Koezient, 72
konstruktiver Beweis, 28
Kontraposition, 4
Konvergenzbegri, 21
Koordinate, 29
Koordinaten, 6, 25
Koordinatentupel, 25
Koordinatenvektor, 25, 30, 41
Kronecker, 32
Kroneckersymbol, 32, 91
Länge, 84, 85
längentreue Abbildung, 104
Lösungsvektor, 50
Laplace, 67
Lateinisches Quadrat, 16
leere Menge, 4, 5
Leitkoezient, 72
Lemma von Zorn, 27
linear abgeschlossen, 21
linear abhängig, 23
linear geordnete Menge, 9
linear unabhängig, 23, 25, 27
lineare Abbildung, 31, 35
lineare Gruppe, 45
lineare Operationen, 19
lineares Gleichungssystem, 50
lineares Polynom, 114
Linearfaktoren, 72
Linearform, 36, 47, 59
Linearkombination, 21
Logik, 3
Logikregeln, 4
LINEARE ALGEBRA
137
LU-Zerlegung, 56
Nullvektor, 19
Mächtigkeit einer Menge, 4
Mantisse einer Gleitkommazahl, 56
mathematisch positive Drehung, 105
Matrix, 32
Matrixeinheit, 32
Matrixeintrag, 32
Matrixring, 35
maximal, 27
Mengensystem, 5
Minimalpolynom, 120
Modul, 19
Modulargesetz, 23
Modulaxiome, 19
Monom, 30
Monomorphismus, 35
multilinear, 59
Multilinearform, 59
Multiplikationstafel, 18
multiplikative Gruppe, 17
obere Blockdreiecksmatrix, 56
obere Dreiecksmatrix, 54
obere Schranke, 27
Operation einer Gruppe, 58
Ordnung auf einer Menge, 9
Ordnungsrelation, 9
Orientierung, 93
orthogonal ähnliche Matrizen, 108
orthogonal diagonalisierbar, 108
Orthogonalbasis, 91
orthogonale Abbildung, 104, 108
orthogonale Gruppe, 106
orthogonale Matrix, 105
orthogonale Mengen, 94
orthogonale Projektion, 95
orthogonale Vektoren, 91
orthogonales Komplement, 47, 94
Orthogonalisierung, 92
Orthogonalsystem, 91
Orthonormalbasis, 91
Orthonormalsystem, 91
Orthonormierungsverfahren, 92
Nebendiagonale einer Matrix, 55
Nebenklasse, 48
Negation, 3
negativ denite Matrix, 109
negativ semi-denite Matrix, 109
negatives Element, 17
neutrales Element, 14
nicht singuläre Matrix, 40
nicht stetig, 3
nilpotente Matrix, 55, 76, 77, 129, 131
noetherscher Isomorphiesatz, 49
Norm, 47, 84, 85
normale Matrix, 99, 131
normaler Endomorphismus, 99
Normalform einer Matrix, 103, 114,
127, 129
normierter Vektor, 90
normiertes Polynom, 72
Normierung, 19
Null-Gruppe, 17
Nullabbildung, 35
Nullmatrix, 32
Nullpolynom, 72
Nullraum, 19
Nullstelle eines Polynoms, 72
Nullteiler, 33
nullteilerfrei, 33
Parität, 58
Partition einer Menge, 8
Permutation, 16, 57
Permutationsmatrix, 59, 105
Pivot, 56
Polarkoordinaten, 7
Polarzerlegung von Matrizen, 112
Polynom, 30, 72
Polynomendomorphismus, 118
Polynomring, 72
positiv denite Bilinearform, 83
positiv denite hermitesche Form, 84
positiv denite Matrix, 109
positiv semi-denite Matrix, 109, 110
Potenz einer Matrix, 132
Potenzmenge, 9
Potenzregeln, 17
Primfaktorzerlegung, 7, 115, 116
Primzahl, 6
Projektion, 47, 49, 131
Pythagoras, 7, 90
quadratische Matrix, 32
Quantoren, 3
138
LINEARE ALGEBRA
Quaternionen, 18
Quotientenmenge, 8
Rang einer Bilinearform, 83
Rang einer linearen Abbildung, 36
Rang einer Matrix, 43
Realteil, 7
rechte Hand Regel, 93
reduzibles Polynom, 114
reeller Vektorraum, 19
reellwertige Funktion, 20
Reexivität einer Relation, 7
Regel von Sarrus, 66
reguläre Bilinearform, 83
reguläre Matrix, 40
Relation, 7
reliert, 7
Repräsentant, 8, 48
Rest, 6, 115
Restriktion einer Abbildung, 88
Ring, 19
Ringaxiome, 19
Ringisomorphismus, 46
Russel, 4
Sarrus, 66
schief-hermitesche Matrix, 85
schief-symmetrische Matrix, 85
Schiefkörper, 18
Schroeder-Bernstein, 11
Schwarzsche Ungleichung, 89, 90
selbstadjungiert, 97
semi-denite Matrix, 110
senkrecht, 91
Signum einer Permutation, 58
Skalar, 19
Skalarenkörper, 19
Skalarmultiplikation, 19
Skalarprodukt, 33, 84, 109
Spaltenindex einer Matrix, 32
Spaltenrang einer Matrix, 32
Spaltenvektor, 32
Spiegelung, 106
Spur einer Matrix, 76
Standardskalarprodukt, 86
Steinitz, 29
stetige Funktion, 3
stetige reellwertige Funktionen, 30
Sturm's Theorem, 111
Subjunktion, 3
Summe von Unterräumen, 23
surjektiv, 9
Sylvester, 110
Symbole, 3
Symmetrie von Relationen, 7
symmetrische Bilinearform, 83
symmetrische Gruppe, 16, 57
symmetrische Gruppentafel, 17
symmetrische Matrix, 34, 108
symmetrisches Polynom, 73
Teiler von Polynomen, 114
teilerfremde Polynome, 116
Teilkörper, 17, 18, 20
Teilmenge, 3
Trägheitsindex, 110
Trägheitssatz von Sylvester, 110
transitiv, 15, 21
Transitivität einer Relation, 7
transponiert, 34
transponiert-konjugierte Matrix, 85
transponierte Matrix, 34, 132
Transposition, 57
Treppenform, 52
triviale Darstellung, 21, 23
triviale Gruppe, 17
Tupel, 6, 19, 24
umkehrbar, 9
Umkehrfunktion, 10
uneigentlich orthogonal, 106
unendliche Dimension, 26
ungerade Permutation, 58
unitär ähnlich, 108
unitär diagonalisierbar, 108
unitäre Abbildung, 104, 108
unitäre Gruppe, 106
unitäre Matrix, 105
unitärer Raum, 85
unitrianguläre Matrix, 55
untere Schranke, 27
Untergruppe, 15
Untergruppenkriterium, 15
Untermatrix, 67
Unterraum, 21
Unterraum aller Polynome, 30
Unterraumkriterium, 21
unvergleichbare Elemente, 9
LINEARE ALGEBRA
unzerlegbarer Vektorraum, 123
unzerlegbares Polynom, 114
Urbild, 9, 36
Vandermonde Determinante, 71
Variable, 72
Vektor, 19
Vektorraum, 19
Vektorraumaxiome, 19
Vereinigung von Mengen, 4
vergleichbar, 9
Verknüpfung, 14
Vietasche Wurzelsätze, 73, 76
Vorzeichen einer Permutation, 58
Vorzeichenregel, 18, 58
Vorzeichenschachbrett, 68
wahre Aussage, 3, 4
Wahrheitstafel, 3
Wedderburn, 18
Winkel, 90
winkeltreu, 104
Wohlordnungssatz, 27
Wurzel eines Polynoms, 72
Zeichenregel , 111
Zeilenindex einer Matrix, 32
Zeilenrang einer Matrix, 32
Zeilenvektor, 32
zerlegbare Polynome, 114
Zerlegung einer Abbildung, 49
Zerlegung einer Menge, 8
Zerlegung eines Vektorraumes, 28
Zorn, 27
Zuordnung, 9
zyklische Gruppe, 15, 17
zyklischer Unterraum, 122
139
Herunterladen