Abbildungen zwischen Vektorräumen mit Skalarprodukt.

Werbung
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT
SKALARPRODUKT
G.FELDER, LINEARE ALGEBRA II, FS 2013
27.03.2013
Inhaltsverzeichnis
1. Selbstadjungierte Abbildungen
1.1. Adjungierte Abbildungen
1.2. Spektralsatz für selbstadjungierte Abbildungen
1.3. Min-Max-Prinzip
Übungen
2. Normale Selbstabbildungen
2.1. Spektralsatz für normale Selbstabbildungen
2.2. Spektralsatz für unitäre Abbildungen
2.3. Normalform für reelle normale Selbstabbildungen
2.4. Orthogonale und schiefsymmetrische Matrizen
Übungen
3. Positiv definite Selbstabbildungen
3.1. Positiv (semi)definite Selbsabbildungen und Matrizen
3.2. Positiv definite Abbildungen und Skalarprodukte
3.3. Cholesky-Zerlegung
Übungen
4. Singulärwertzerlegung
4.1. Singulärwerte und Singulärvektoren
4.2. Geometrische Interpretation
4.3. Kleinste Quadrate
Übungen
1
1
3
6
8
8
8
10
11
13
14
14
14
16
16
17
18
18
21
21
22
1. Selbstadjungierte Abbildungen
1.1. Adjungierte Abbildungen. Seien V, W euklidische oder unitäre
Vektorräume mit Skalarprodukten h , iV , h , iW . Sei f ∈ Hom(V, W )
eine lineare Abbildung V → W . Eine Abbildung f ∗ : W → V heisst zu
f adjungiert falls
hf (v), wiW = hv, f ∗ (w)iV , für alle v ∈ V und alle w ∈ W .
1
2
G.FELDER, LINEARE ALGEBRA II, FS 2013
Bemerkung 1.1. Wegen der Symmetrie/Hermitesche Eigenschaft von
Skalarprodukten ist diese Bedingung zu hw, f (v)iW = hf ∗ (w), viV äquivalent.
Lemma 1.2. Sei V endlichdimensional. Dann existiert zu jeder linearen Abblidung f : V → W genau eine adjungierte Abbildung f ∗ : W →
V.
Beweis. Eindeutigkeit: Wenn g1 , g2 beide adjungiert zu f sind, dann
folgt aus der Additivität des Skalarprodukts, dass hv, g1 (w)−g2 (w)iV =
0, für alle v ∈ V, w ∈ W . Also g1 (w) − g2 (w) = 0 für alle w ∈ W , so
dass g1 = g2 .
Existenz: Sei (u1 , . . . , un ) eine Orthonormalbasis von V . Es genügt,
eine Abbildung f ∗ zu produzieren, die
hui , f ∗ (w)iV = hf (ui ), wiW
für alle w ∈ W und i = 1, . . . , n erfüllt. Es ist leicht zu verifizieren,
dass
n
X
f ∗ (w) =
hf (ui ), wiW ui
i=1
diese Bedingung erfüllt.
Bemerkung 1.3. Die Eindeutigkeit gilt auch im unendlichdimensionalen Fall, mit demselben Beweis, nicht aber die allgemeine Existenz, S.
Übung.
Die adjungierte Matrix einer m × n Matrix A mit komplexen Einträgen aij ist die n × m Matrix A∗ = (bij mit bij = aji . Für reelle
Matrizen ist die adjungierte Matrix von A die transponierte Matrix
A∗ = AT . Zur einheitlichen Behandlung des reellen und komplexen
Fall nennen wir sie ebenfalls adjungiert.
Lemma 1.4. Seien V, W endlichdimensional mit Orthonormalbasen
BV , BW . Die Matrix von f ∗ bezüglich der Basen BW , BV ist die zur
Matrix von f bezüglich BV , BW adjungierte Matrix.
Beweis. Sei BV = (u1 , . . . , un ), BW = (ũ1 , . . . , ũm ). Die Matrix A =
(aij ) von f ist durch
f (uj ) =
m
X
i=1
aij ũi
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT
3
definiert. Da BW orthonormal ist, gilt also aij = hf (uj ), ũi iW . Anderseits sind die Einträge bij der Matrix B von f ∗
bij = hf ∗ (ũj ), ui iV
= hui , f ∗ (ũj )iV
= hf (ui ), ũj iW
= āji
Nimmt man V = Kn , W = Km mit Standardbasen, so folgt die Übereinstimmung der zwei Bedeutungen von “adjungiert” bei Matrizen.
Korollar 1.5. Sei A ∈ M (m, n; K) eine m × n Matrix mit Einträgen
in K = R oder C. Dann ist y 7→ A∗ y die zu x 7→ Ax adjungierte
Abbildung bezüglich der Standardskalarprodukten auf Kn , Km .
Folgende Eigenschaften für Abbildungen f, g zwischen endlichdimensionalen euklidischen oder unitären Vektorräumen gelten (Übung):
(i) (f ∗ )∗ = f , f ∈ Hom(V, W )
(ii) (λf + µg)∗ = λ̄f ∗ + µ̄g ∗ , f, g ∈ Hom(V, W ), λ, µ ∈ K.
(iii) (f ◦ g)∗ = g ∗ ◦ f ∗ , f ∈ Hom(V, W ), g ∈ Hom(U, V ).
(iv) det(f ∗ ) = det(f ), f ∈ End(V ).
1.2. Spektralsatz für selbstadjungierte Abbildungen. Sei V ein
endlichdimensionaler reeller oder komplexer Vektorraum mit Skalarprodukt h , i.
Definition 1.6. f ∈ End(V ) heisst selbstadjungiert falls f = f ∗
f ist also genau dann selbstadjungiert wenn die Matrix A = (aij )
von f bezüglich einer beliebigen Orthonormalbasis von V Hermitesch
(K = C) bzw. symmetrisch (K = R) ist:
aij = aji
Lemma 1.7. Alle Eigenwerte einer selbstadjungierten Abbildung eines
unitären Vektorraums sind reell.
Beweis. Für jeden Eigenvektor v zum Eigenwert λ gilt:
λhv, vi = hλv, vi = hf (v), vi = hv, f (v)i = hv, λvi = λ̄hv, vi.
Die Behauptung folgt da v 6= 0 also hv, vi =
6 0.
Lemma 1.8. Eigenvektoren einer selbstadjungierten Abbildung zu verschiedenen Eigenwerten stehen aufeinander senkrecht.
4
G.FELDER, LINEARE ALGEBRA II, FS 2013
Beweis. Seien v, w Eigenvektoren zu Eigenwerten λ 6= µ. Also gilt
f (v) = λv, f (w) = µw. Es folgt
λhv, wi = hf (v), wi
= hv, f (w)i
= hv, µwi
= µhv, wi,
wobei wir im letzen Schritt Lemma 1.7 verwendet haben. Es folgt, dass
(λ − µ)hv, wi = 0
und, da λ 6= µ, hv, wi = 0.
Satz 1.9. (Spektralsatz) Sei f ∈ End(V ) selbstadjungiert, dim V < ∞.
Dann ist f diagonalisierbar mit einer Orthonormalbasis von Eigenvektoren.
Beweis. Induktion in n = dim V . Für n = 0 ist nichts zu beweisen: Die
leere Familie () ist eine Orthonormalbasis von {0}.
Für den Induktionsschritt benötigen wir das
Lemma 1.10. Jede selbstadjungierte Selbstabbildung eines endlichdimensionalen euklidischen oder unitären Vektorraums positiver Dimension hat einen Eigenvektor.
Beweis. Wir müssen zeigen dass das charakteristische Polynom eine
Nullstelle in K hat. Wenn K = C folgt das aus dem Fundamentalsatz
der Algebra. Wenn K = R bemerken wir dass das charakteristische
Polynom von f ist das charakteristische Polynom χA (t) = det(tIn − A)
der symmetrischen Matrix A von f bezüglich einer Orthonormalbasis.
Wenn wir A als komplexe Hermitesche Matrix auffassen, dann ist jede
komplexe Nullstelle von χA (t) Eigenwert der selbstadjungierten Abbildung z 7→ Az auf Cn . Nach Lemma 1.7 sind also diese Eigenwerte
reell.
Wir nehmen also an, der Satz sei für alle unitären und euklidischen
Vektorräumen der Dimension ≤ n−1 bewiesen. Sei f ∈ End(V ) selbstadjungiert, mit dim V = n. Nach Lemma 1.10 hat f einen Eigenwert
λ, der nach Lemma 1.7 reell ist. Seien v ein Eigenvektor zu λ und
U = span v der von v erzeugte Unterraum. Dann hat der orthogonale
Komplement U ⊥ = {w ∈ V | hw, vi = 0} Dimension n − 1. Zudem ist
f (U ⊥ ) ⊂ U ⊥ , denn, für alle w ∈ U ⊥ ,
hf (w), vi = hw, f (v)i = λhw, vi = 0.
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT
5
Also ist die Einschränkung f |U ⊥ von f auf U ⊥ eine Selbstabbildung von
U ⊥ , die bezüglich der Einschränkung des Skalarprodukts selbstadjungiert ist. Nach Induktionsannahme hat also U ⊥ eine Orthonormalbasis
(u1 , . . . , un−1 ) von Eigenvektoren von f . Da v auf diesen Vektoren senkrecht steht, ist
1
(u1 , . . . , un−1 ,
v)
kvk
eine Orthonormalbasis von Eigenvektoren. Der Induktionsschritt ist
somit vollendet.
Bemerkung 1.11. Der Name des Satzes leitet sich vom Spektrum her,
der Menge der Eigenwerte einer linearen Selbsabbildung.
Beispiel 1.
A=
0 i
−i 0
∈ M (2, 2; C).
A = A∗ also ist x 7→ Ax selbstadjungiert auf C2 mit dem Standardskalarprodukt. Das charakteristische Polynom ist
χA (t) = t2 − 1,
mit Nullstellen λ1,2 = ±1. Die Eigenräume sind
i
1 −i
,
=C
E1 (A) = Ker
1
i 1
−i
−1 −i
.
=C
E−1 (A) = Ker
1
i −1
√
Die Eigenvektoren 1i , −i
sind orthogonal und haben Norm 2. Also
1
bilden
1
1
i
−i
√
√
,
,
1
2 1
2
eine aus Eigenvektoren von A bestehende Orthonormalbasis.
Korollar 1.12. Sei A eine Hermitesche n × n Matrix. Dann gibt es
eine unitäre n × n Matrix U , so dass
A = U DU ∗
wobei D eine reelle Diagonalmatrix ist.
Beweis. Ist allgemein A eine diagonalisierbare Matrix und U die Matrix
deren Spalten eine Basis aus Eigenvektoren bilden, so gilt A = U DU −1 ,
wobei D die Diagonalmatrix mit den Eigenwerten in der Diagonale. In
unserem Fall wählen wir eine Orthonormalbasis von Eigenvektoren so
dass U unitär ist, also U −1 = U ∗ .
6
G.FELDER, LINEARE ALGEBRA II, FS 2013
1.3. Min-Max-Prinzip. Der Rayleigh-Quotient einer selbstadjungierten Abbildung f ∈ End(V ) ist die Funktion V r {0} → R
rf : v 7→
hf (v), vi
hv, vi
Da f selbstadjungiert ist, ist der Zähler reell:
hf (v), vi = hv, f (v)i = hf (v), vi.
Also ist rf (v) ∈ R. Ausserdem gilt rf (λv) = rf (v) für alle λ ∈ K.
Satz 1.13. Sei λ1 der grösste Eigenwert einer selbstadjungierten Abbildung f ∈ End(V ) eines n-dimensionalen Vektorraums V . Dann gilt1
λ1 = maxv∈V r{0}
hf (v), vi
= maxkvk=1 hf (v), vi.
hv, vi
Das Maximum wird für die Eigenvektoren zum Eigenwert v angenommen.
Beweis. Sei (u1 , . . . , un ) eine Orthonormalbasis
P von Eigenvektoren von
f zu den Eigenwerten
λ
,
.
.
.
,
λ
und
v
=
xi ui mit xi ∈ K. Dann ist
1
n
Pn
2
hf (v), vi = i=1 λi |xi | und, da λi ≤ λ1 ,
P
P
2
λi |xi |2
i
i λ1 |xi |
P
rf (v) = P
≤
= λ1
2
2
i |xi |
i |xi |
also ist rf (v) ≤ λ1 für alle v 6= 0 also auch für alle v mit Norm 1. Für
Eigenvektoren v zum Eigenwert λ1 gilt:
rf (v) =
hλ1 v, vi
= λ1
hv, vi
also ist das Maximum genau für diese Eigenvektoren angenommen.
Darunter haben wir auch solche mit Norm 1 so dass auch die zweite
Variante, mit dem Maximum über die Vektoren der Norm 1, gilt. Verwendet man diesen Satz für −f , so erhält man für den kleinsten
Eigenwert λn von f :
λn = minv∈V r{0}
hf (v), vi
= minkvk=1 hf (v), vi.
hv, vi
von V = Kn mit Standardskalarprodukt hx, yi =
PDer Spezialfall
∗
i xi ȳi = y x gibt die Version von Satz 1.13 für Matrizen.
1max
E
F (v) ist das Maximum der Menge {F (v) | v hat die Eigenschaft E}
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT
7
Satz 1.14. Sei A = A∗ ∈ M (n, n; K), K = C oder R. Dann gilt für
den grössten Eigenwert λ1 :
x∗ Ax
λ1 = max ∗ = max x∗ Ax
x6=0 x x
kxk=1
Das Maximum wird für Eigenvektoren zum Eigenwert λ1 angenommen.
Dieser Satz hat folgende Verallgemeinerung, die eine ähnliche Charakterisierung der restlichen Eigenwerte gibt.
Satz 1.15. (Courant-Min-Max-Prinzip) Sei fQ∈ End(V ) selbstadjungiert mit charakteristischem Polynom χg (t) = ni=1 (t − λi ) und Eigenwerten λ1 ≥ · · · ≥ λn . Dann gilt
hf (v), vi
λj =
min
max
.
W ⊂V,dim W =n−j+1 v∈W r{0} hv, vi
Beweis. Zuerst zeigen wir, dass das Maximum in der Klammer für jeden
W angenommen wird. Wählt man eine Orthonormalbasis B von V so
dass die ersten n − j + 1 Basisvektoren eine Basis von W bilden (eine
solche Basis existiert nach Gram–Schmidt), so ist die Matrix A von
f bezüglich B selbstadjungiert und der Rayleighquotient für v ∈ W
ist der Rayleighquotient der selbstadjungierten Untermatrix (ars ), 1 ≤
r, s ≤ n − j + 1. Also wird nach Satz 1.13 das Maximum angenommen.
Um eine obere Schranke für λj zu erhalten, zeigen wir dass jeder
W ⊂ V der Dimension n − j + 1 einen Vektor der Form
v0 =
j
X
xi ui 6= 0,
x1 , . . . , xj ∈ K,
i=1
enthält, wobei (u1 , . . . , uj , . . . , un ) eine Orthonormalbasis von Eigenvektoren zu den Eigenwerten λ1 ≥ · · · ≥ λn ist. Ein solcher Vektor
liegt in W ∩ Vj mit Vj = span(u1 , . . . , uj ). Da dim(W ) = n − j + 1 und
dim(V ) = j ist W ∩ Vj die Lösungsmenge eines homogenen Systems
von
(j − 1) + (n − j) = n − 1
linearen Gleichungen. Da n − 1 < n hat das System eine nichttriviale
Lösung v0 . Für jeden W der geforderten Dimension haben wir also die
Ungleichung
Pj
λi |xi |2
hf (v), vi
hf (v0 ), v0 i
(1)
maxv∈W r{0}
≥
= Pi=1
≥ λj ,
j
2
hv, vi
hv0 , v0 i
i=1 |xi |
wobei im letzten Schritt verwendet wurde, dass λi ≥ λj für i = 1, . . . j.
Also ist das Infimum der linken Seite von (1) über alle (n − j + 1)dimensionalen W ⊂ V grösser oder gleich λj . Anderseits, für W =
8
G.FELDER, LINEARE ALGEBRA II, FS 2013
W0 = span(uj , . . . , un ) gilt:
Pn
2
hf (v), vi
i=j λi |xi |
P
max
= max
= λj ,
n
2
x6=0
v∈W0 r{0} hv, vi
i=j |xi |
also wird das Minimum für W = W0 angenommen und ist gleich λj . Übungen.
(1) Sei V der Vektorraum aller Folgen (xi )i∈Z>0 reeller Zahlen mit
endlich vielen nicht verschwindenden
Gliedern xi .
P
(a) Zeigen Sie, dass hx, yi = ∞
x
y
i=1 i i ein Skalarprodukt definiert.
(b) Sei W = R mit dem Standardskalarprodukt.P
Dann gibt es
∞
zur Additionsabbildung f : V → W , x 7→
i=1 xi keine
adjungierte Abbildung.
(2) Verifizieren Sie die Eigenschaften (i)–(iv) von adjungierten Abbildungen.
(3) Sei


500 1 1 1
 1 1 1 1 

A=
 1 1 1 0 .
1 1 0 0
Ohne das charakteristische Polynom auszurechnen, zeigen Sie:
(a) Der grösste Eigenwert λ1 von A erfüllt
500 ≤ λ1 ≤ 512.
(b) Der zweitgrösste Eigenwert λ2 ist ≤ 6. (Verwenden Sie
das Courant min-max-Prinzip und betrachten Sie die Einschränkung des Rayleigh-Quotients auf dem Unterraum
{0} × R3 ).
(c) A hat einen negativen Eigenwert (Betrachten Sie den Vektor v = (0, 1, 0, −1)T ).
2. Normale Selbstabbildungen
2.1. Spektralsatz für normale Selbstabbildungen. Sei V ein endlichdimensionaler unitärer Vektorraum.
Definition 2.1. f ∈ End(V ) heisst normal wenn f ◦ f ∗ = f ∗ ◦ f . Eine
Matrix A ∈ M (n, n; C) heisst normal wenn AA∗ = A∗ A.
Es ist klar, dass selbstadjungierte Abbildungen normal sind. Diagonalmatrizen sind normal.
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT
9
Lemma 2.2. f ∈ End(V ) ist genau dann normal, wenn es selbstadjungierte Abbildungen f1 , f2 ∈ End(V ) gibt, so dass
f = f1 + if2 ,
f1 ◦ f2 = f2 ◦ f1 .
Beweis. Sind f1 , f2 selbstadjungiert mit f1 ◦ f2 = f2 ◦ f1 und setzt man
f = f1 + if2 so gilt f ∗ = f1∗ − if2∗ = f1 − if2 und
f1 ◦ f = f1 ◦ f1 + if1 ◦ f2 = f1 ◦ f1 + if1 ◦ f2 = f ◦ f1 .
Analog gilt f2 ◦ f = f ◦ f2 und also f ∗ ◦ f = f ∗ ◦ f . Umgekehrt: Ist f
eine normale Abbildung, so sind
1
1
f1 = (f + f ∗ ), f2 = (f − f ∗ )
2
2i
selbstadjungiert, und f = f1 + if2 . Aus f ◦ f ∗ = f ∗ ◦ f folgt, dass
f1 ◦ f2 = f2 ◦ f1 .
Lemma 2.3. Gilt f1 ◦ f2 = f2 ◦ f1 für zwei Selbsabbildungen eines Vektorraums V , so gilt f1 (Eλ (f2 )) ⊂ Eλ (f2 )) für jeden Eigenraum Eλ (f2 )
von f2 .
Beweis. Wenn v ∈ Eλ (f2 ) also wenn f2 (v) = λv, dann
f2 (f1 (v)) = f1 (f2 (v)) = f1 (λv) = λf1 (v),
also f1 (v) ∈ Eλ (f2 ).
Satz 2.4. (Spektralsatz für normale Selbstabbildungen)
Sei V ein endlichdimensionaler unitärer Vektorraum. Eine Selbstabbildung f ∈ End(V ) ist genau dann normal wenn V eine Orthonormalbasis von Eigenvektoren von f besitzt.
Beweis. Sei f normal und f1 , f2 wie im Lemma 2.2. Nach dem Spektralsatz für die selbstadjungierte Abbildung f2 ist V = Eλ1 (f2 ) ⊕ · · · ⊕
Eλr (f2 ), mit reellen Eigenwerten λj , und Eigenräume zu verschiedenen
Eigenwerten stehen senkrecht aufeinander. Nach Lemma 2.3 definiert
für jeden Eigenvektor λi die Einschränkung von f1 eine selbstadjungierte Selbstabbildung von Eλi (f2 ). Also, wieder nach dem Spektralsatz,
hat Eλi (f2 ) eine Orthonormalbasis von Eigenvektoren von f1 . Nimmt
man alle so erhaltene Basisvektoren, erhält man eine Orthonormalbasis
(u1 , . . . , un ) von V , die aus Eigenvektoren für beide f1 , f2 sind:
f1 (uj ) = aj uj ,
f2 (uj ) = bj uj ,
aj , bj ∈ R,
j = 1, . . . , n.
Es folgt: f (uj ) = (aj + ibj )uj für alle j. Also besteht die Basis aus
Eigenvektoren von f .
10
G.FELDER, LINEARE ALGEBRA II, FS 2013
Es habe umgekehrt f eine Orthonormalbasis von Eigenvektoren.
Dann sind die Darstellungsmatrizen D, D∗ von f und f ∗ bezüglich
dieser Basis Diagonalmatrizen




λ1
λ̄1
..
..
,
.
D=
D∗ = 
.
.
λn
λ̄n
Es folgt: DD∗ = D∗ D also f ◦ f ∗ = f ∗ ◦ f .
Ist V = Cn mit Standardskalarprodukt, so erhält man die Version
des Satzes für normale Matrizen:
Korollar 2.5. Ist A ∈ M (n, n; C) eine normale Matrix so gibt es eine
unitäre Matrix U und komplexe Zahlen λ1 , . . . , λn , so dass


λ1
..
 U ∗.
A=U
.
λn
Die λi sind die Eigenwerte und U hat als Spalten eine Orthonormalbasis von zugehörigen Eigenvektoren.
2.2. Spektralsatz für unitäre Abbildungen. Die unitären Abbildungen sind ein wichtiger Spezialfall von normalen Matrizen: f ∈
End(V ) heisst unitär wenn hf (v), f (w)i = hv, wi für alle v, w ∈ V
also wenn f ∗ ◦ f = id. Unitäre Abbildungen sind invertierbar da sie
injektiv sind: Ist f (v) = 0 so ist 0 = hf (v), f (v)i = hv, vi also v = 0.
Also gilt auch f ◦ f ∗ = id, insbesondere f ◦ f ∗ = f ∗ ◦ f und die Matrix
einer unitären Abbildung bezüglich einer beliebigen Orthonormalbasis
ist unitär.
Aus Satz 2.4 folgt:
Korollar 2.6. (Spektralsatz für unitäre Abbildungen) Unitäre Abbildungen sind diagonalisierbar mit einer orthohormierten Basis von Eigenvektoren. Die Eigenwerte haben Betrag 1.
Nur die letzte Aussage ist noch zu beweisen: Sei v ein Eigenvektor
zum Eigenwert λ ∈ C. Dann ist
hv, vi = hf (v), f (v)i = hλv, λvi = λλ̄hv, vi = |λ|2 hv, vi.
Da v 6= 0, folgt |λ|2 = 1. Die Version für unitäre Matrizen ist:
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT 11
Korollar 2.7. Zu jeder unitären n × n Matrix U gibt es eine unitäre
Matrix V und reelle Zahlen θ1 , . . . , θn , so dass
 iθ1

e
...
V ∗
U =V 
eiθn
Die Matrix V hat als Spalten eine Orthonormalbasis von Eigenvektoren zu den Eigenwerten eiθ1 , . . . , eiθn .
2.3. Normalform für reelle normale Selbstabbildungen. Sei V
ein endlichdimensionaler reeller Vektorraum mit Skalarprodukt h , i
(ein euklidischer Vektorraum). Im reellen Fall ist f genau dann diagonalisierbar mit einer Orthonormalbasis von Eigenvektoren wenn f
selbsadjungiert ist. Hat nämlich V eine Orthonormalbasis von Eigenvektoren von f , so ist die Darstellungsmatrix D von f bezüglich dieser
Basis diagonal; also gilt D = D∗ und f ist selbstadjungiert.
Reelle normalen Abbildungen, zu denen die orthogonalen Abbildungen gehören, sind im Allgemeinen nicht diagonalisierbar, aber ihre Darstellungsmatrix kann bezüglich einer geeigneten Orthonormalbasis in
eine einfache Form gebracht werden.
Satz 2.8. Sei V ein eindlichdimensionaler euklidischer Vektorraum,
f ∈ End(V ) sei normal, d.h. f ∗ ◦ f = f ◦ f ∗ . Dann gibt es eine Orthonormalbasis B von V und reelle Zahlen a1 , b1 , . . . , ar , br , c1 , . . . , cs
mit 2r + s = n, so dass die Darstellungsmatrix von f bezüglich B die
Kästchenform


a1 −b1
 b1

a1



..

.




ar −br




b
a


r
r


c1




.
..


cs
hat. Dabei sind a1 ±ib1 , . . . , ar ±ibr , c1 , . . . , cs die komplexen Nullstellen
des charakteristischen Polynoms von f .
Beweis. Durch die Wahl einer Orthonormalbasis können wir annehmen
dass V = Rn mit Standard-Skalarprodukt und f durch eine eine reelle
normale Matrix A gegeben ist:
AAT = AT A
12
G.FELDER, LINEARE ALGEBRA II, FS 2013
Komplexe Nullstellen von Polynomen mit reellen Koeffizienten sind
entweder reell oder kommen in Paaren komplex konjugierter Zahlen
vor. Nach dem Fundamentalsatz der Algebra hat also das charakteristische Polynom von A eine Faktorzerlegung
r
s
r
s
Y
Y
Y
Y
2
2
χA (t) =
(t − λj )(t − λ̄j ) (t − cj ) =
((t − aj ) + bj ) (t − cj )
j=1
j=1
j=1
j=1
mit cj ∈ R, λj = aj + ibj , bj 6= 0 und 2r + s = n. Betrachten man A
als komplexe normale Matrix so ist A über C diagonalisierbar mit aufeinander senkrecht stehenden Eigenräumen Eλj , Eλ̄j , Ecj . Die komplexe
Konjugation C : z 7→ z̄ = (z̄1 , . . . , z̄n )T auf Cn bildet Eλj nach Eλ̄j ab,
denn aus Az = λz folgt Az̄ = λ̄z̄ für eine reelle Matrix A. Zudem ist
C eine (R-lineare) bijektive Abbildung, mit inverser Abbildung C, die
hC(z), C(w)i =
n
X
z̄j wj = hz, wi
j=1
erfüllt. Also bildet C eine beliebige Orthonormalbasis von Eλj auf eine
Orthonormalbasis Eλ̄j ab. Um eine Orthonormalbasis von Eigenvektoren zu konstruieren, genügt es also Orthonormalbasen von Eλj und Ecj
zu wählen. Die Basis von Eλ̄j erhält man dann durch komplexe Konjugation aus der Basis von Eλj . Es folgt dass A, als komplexe Matrix
aufgefasst, eine Orthonormalbasis von Eigenvektoren der Form
(2)
(u1 , ū1 , . . . , ur , ūr , v1 , . . . , vs )
zu den (nicht notwendigerweise paarweise verschiedenen) Eigenwerten λ1 , λ̄1 , . . . , λr , λ̄r , c1 , . . . , cs besitzt. Die Eigenvektoren vj ∈ Ecj =
Ker(cj In − A) können reell gewählt werden, die uj sind aber in Cn .
Aus dieser Basis können wir leicht eine reelle Orthonormalbasis produzieren, indem wir Real- und Imaginärteil
1
Re uj = (uj + ūj ),
2
Im uj =
1
(uj − ūj )
2i
der komplexen Eigenvektoren uj = Re uj + iIm uj nach passender Umnormierung bilden. Es ist leicht aus der Orthonormalität von (2) zu
folgern, dass
√
√
√
√
( 2 Re u1 , 2 Im u1 , . . . 2 Re ur , 2 Im ur , v1 , . . . , vs )
eine Orthonormalbasis von Rn ist. Die Matrix von A bezüglich dieser Basis erhält man durch Vergleich von Real- und Imaginärteil der
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT 13
Eigenwertgleichung
A (Re uj + iIm uj ) = (aj + ibj )(Re uj + iIm uj ),
A Re uj = aj Re uj − bj Im uj ,
A Im uj = bj Re uj + aj Im uj ,
Avj = cj vj .
Aus diesen Gleichungen werden die Spalten der Darstellungsmatrix
bezüglich B abgelesen.
2.4. Orthogonale und schiefsymmetrische Matrizen. Orthogonalen Abbildungen f = (f ∗ )−1 und anti-selbstadjungierten Abbildungen f = −f ∗ eines Euklidischen Vektorraums sind Spezialfälle von normalen Selbstabbildungen. Wir formulieren die Resultate in der Version
für Matrizen.
Korollar 2.9. Sei O eine orthogonale n × n reelle Matrix: O−1 = OT .
Dann gibt es eine orthogonale Matrix V und reelle Zahlen θ1 , . . . , θr ,
so dass


cos θ1 − sin θ1

 sin θ1
cos θ1




...




cos θr − sin θr
 T

O=V 
V ,
sin θr
cos θr




c1




.
..


cs
wobei cj ∈ {1, −1} für j = 1, . . . , s.
Dies ist eine ummittelbare Folgerung von Satz 2.8 und der Bemerkung, dass A, als komplexe Matrix aufgefasst, unitär ist und deshalb
Eigenwerte mit Betrag 1 hat. Die reelle Nullstellen des charakteristischen Polynoms sind also cj = ±1 und die komplexen Nullstellen haben
die Form λj , λ̄j mit
λj = eiθj = cos θj + i sin θj .
Eine reelle n × n Matrix A heisstschiefsymmetrisch (oder anti-selbstadjungiert) falls AT = −A.
Korollar 2.10. Sei A eine schiefsymmetrische n × n reelle Matrix.
Dann gibt es eine orthogonale Matrix V und reelle Zahlen b1 , . . . , br , so
14
G.FELDER, LINEARE ALGEBRA II, FS 2013
dass


0 −b1
 b1
0


...


0 −br

A=V 
br
0


0


..

.





 T
V .





0
In diesem Fall ist iA eine selbstadjungierte komplexe Matrix, die
also reelle Eigenwerte hat. Also sind die Nullstelle des charakteristischen polynom entweder 0 oder Paare von komplex konjugierter rein
imaginärer Zahlen ±ib1 , . . . , ±ibr .
Übungen.
(1) Zeigen Sie: Ist A eine normale n × n Matrix, so auch a0 In +
a1 A · · · + ak Ak für alle a0 . . . , ak ∈ C. Welches sind ihre Eigenwerte und Eigenvektoren?
(2) Zeigen Sie: Die n × n Matrix A = (aij ) mit
(
1 j ≡ i + 1 mod n
aij =
0, sonst,
ist orthogonal. Bestimmen Sie θ1 , . . . , θr ∈ R, c1 , . . . , cs ∈ {±1}
für die Normalform von A.
(3) Jede orthogonale Matrix mit Determinante −1 hat einen Eigenvektor zum Eigenwert −1.
(4) Ist n ungerade, so gibt es zu jeder n × n orthogonalen Matrix
A mit Determinante 1 einen Vektor v 6= 0 mit Av = v.
3. Positiv definite Selbstabbildungen
Sei V ein endlichdimensionaler euklidischer oder unitärer Vektorraum.
3.1. Positiv (semi)definite Selbsabbildungen und Matrizen.
Definition 3.1. Eine selbsadjungierte Abbildung f ∈ End(V ) heisst
positiv semidefinit falls hf (v), vi ≥ 0 für alle v ∈ V . Sie heisst positiv
definit falls hf (v), vi > 0 für alle v ∈ V r {0}.
Eine symmetrische oder Hermitesche n × n Matrix A heisst positiv
(semi)definit falls die selbstadjungierte Abbildung x 7→ Ax, auf Cn
bzw. Rn , mit dem Standarskalarprodukt, positiv (semi)definit ist.
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT 15
Eine selbstadjungierte Abbildung f heisst negativ (semi)definit falls
−f positiv (semi)definit. Sie heisst (semi)definit falls sie positiv (semi)definit oder negativ (semi)definit ist.
Bemerkung 3.2. Wie wir bei der Diskussion des Rayleigh-Quotiens gesehen haben, ist hf (v), vi reell für jede selbstadjungierte Abbildung
f ∈ End(V ).
Bemerkung 3.3. Da das Standardskalarprodukt auf Cn oder Rn als
hx, yi = y ∗ x geschrieben werden kann, ist eine Matrix genau dann
positiv semidefinit bzw. positiv definit wenn
x∗ Ax ≥ 0 bzw. x∗ Ax > 0,
für alle x 6= 0 (x∗ = xT im reellen Fall).
Bemerkung 3.4. Reelle positiv semidefinite Matrizen beschreiben das
lokale Verhalten von glatten Funktionen in der Umgebung einer Minimalstelle: Ist ϕ : U → R eine zweimal stetig differenzierbare Funktion
in einer Umgebung U ⊂ Rn eines Punktes x0 so dass ϕ(x) ≥ ϕ(x0 ) für
alle x ∈ U , so gilt (Siehe z.B. K. Königsberger, Analysis II, Springer
2004, Abschn. 2.4)
1
ϕ(x) = ϕ(x0 ) + (x − x0 )T A(x − x0 ) + o(|x − x0 |2 )
2
wobei die Matrix
A=
∂ 2ϕ
(x0 )
∂xi ∂xj
der zweiten Ableitungen positiv semidefinit ist.
Lemma 3.5. Eine selbstadjungierte Abbildung f ∈ End(V ) ist genau
dann positiv definit, wenn alle Eigenwerte von f positiv sind. Sie ist
genau dann positiv semidefinit, wenn kein Eigenwert von f negativ ist.
Beweis. Nach Satz 1.13 für −f folgt für den minimalen Eigenwert
λmin = minv∈V r{0}
hf (v), vi
hv, vi
Also ist f genau dann positiv semidefinit wenn λmin ≥ 0. Wenn λmin > 0
dann ist hf (v), vi ≥ λmin hv, vi > 0 für alle v 6= 0 also ist f positiv
definit. Wenn λmin = 0, dann ist f positiv semidefinit aber nicht definit,
denn hf (v), vi = 0 für die Eigenvektoren v zum Eigenwert 0.
16
G.FELDER, LINEARE ALGEBRA II, FS 2013
3.2. Positiv definite Abbildungen und Skalarprodukte.
Satz 3.6. Sei f ∈ End(V ). Dann ist h : V × V → K,
h(v, w) = hf (v), wi
genau dann ein Skalarprodukt auf V wenn f eine selbstadjungierte positiv definite Abbildung ist. Zu jedem Skalarprodukt h auf V gibt es
eine eindeutige positiv definite selbstadjungierte Abbildung f , so dass
h(v, w) = hf (v), wi, für alle v, w ∈ V .
Beweis. Sei f positiv definit. Wir verifizieren die Axiome eines Skalarprodukts für h: (i) Aus der Linearität von f und von h , i im
ersten Argument folgt: h(λv + w, ui = hf (λv + w), ui = hλf (v) +
f (w), ui = λh(v, u)+h(w, u). (ii) Aus der Symmetrie/Hermiteschen Eigenschaft von h , i und der Selbstadjungiertheit von f folgt: h(v, w) =
hf (v), wi = hw, f (v)i = hf (w), vi = h(w, v). (iii) h(v, v) > 0 für alle
v 6= 0, da f positiv definit ist. Umgekehrt: Definiert h(v, w) = hf (v), wi
ein Skalarprodukt, so folgt aus (ii) dass f selbstadjungiert ist und aus
(iii) dass sie positiv definit ist.
Um die zweite Aussage zu beweisen, bemerken wir dass ein Skalarprodukt h eindeutig durch seine Gram-Matrix A = (aij ) mit aij = h(ui , uj )
bezüglich einer beliebigen Basis B = (u1 , . . . , un ) bestimmt ist. Nimmt
man eine für h , i Orthonormalbasis, so erfüllt die durch die Matrix
AT definierte Abbildung
f (uj ) =
n
X
aji ui
i=1
die geforderte Bedingung hf (v), wi = h(v, w) für Basis Vektoren v =
uj , w = uk und also, wegen der Linearität, für alle v, w.
Es folgt die Formulierung für Matrizen:
Korollar 3.7. Jede positiv definite Hermitesche/symmetrische n × n
Matrix A definiert via
h(x, y) = y ∗ Ax
ein Skalarprodukt auf Kn . Jedes Skalarprodukt auf Kn ist eindeutig von
dieser Form.
3.3. Cholesky-Zerlegung.
Satz 3.8. (Cholesky-Zerlegung) Sei A = A∗ positiv definit. Dann gibt
es eine invertierbare obere Dreiecksmatrix C, so dass
A = C ∗ C.
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT 17
Beweis. Das Gram–Schmidt-Verfahren ergibt aus der Standardbasis
(e1 , . . . , en ) eine bezüglich des Skalarprodukts h(x, y) = y ∗ Ax Orthonormalbasis (u1 , . . . , un ). Die für den Beweis wesentliche Tatsache ist,
dass (u1 , . . . , uj ) und (e1 , . . . , ej ) für jedes j denselben Unterraum erzeugen. Also gibt es eine invertierbare obere Dreiecksmarix C = (cij )
(des Basiswechsels), so dass
ej =
n
X
ckj uk , mit ckj = 0, für k > j.
k=1
Dann ist u∗j Auk = h(uk , uj ) = δjk , also
ajk =
e∗j Aek
=
n
X
c̄ij clk u∗i Aul
i,l=1
=
n
X
c̄ij cik .
i=1
Die rechte Seite ist der (j, k)-Eintrag von C ∗ C.
Bemerkung 3.9. Das Gram–Schmidt-Verfahren liefert eine Matrix C
mit positiven Einträgen in der Diagonale. Wir sehen in den Übung
dass mit dieser zusätzlichen Bedingung C eindeutig bestimmt ist.
Bemerkung 3.10. Die Cholesky-Zerlegung wird für die numerische Lösung von Gleichungssystemen mit positiv definiter Koeffizientenmatrix
angewendet. Man verwendet dabei, wie bei der LU-Zerlegung, dass
Dreiecksmatrizen schnell durch Rückwärts- und Vorwärtssubstitution
invertiert werden können. Hat man die Cholesky-Zerlegung von A =
C ∗ C, dann lässt sich das System
Ax = b
in zwei Schritten lösen: y = (C ∗ )−1 b, x = C −1 y.
Übungen.
(1) Eine Hermitesche 2 × 2 Matrix ist genau dann positiv definit,
wenn ihre Determinante und ihre Spur positiv sind.
(2) Positiv definite Abbildungen sind invertierbar mit positiv definiter inverser Abbildung.
(3) Linearkombinationen von positiv definiten Selbstabbildungen
von V mit positiven Koeffizienten sind positiv definit (positiv
definite Selbstabbildungen bilden einen ,,Kegel”).
(4) Zeigen Sie: Ist eine n × n Matrix A positiv semidefinit, so auch
BAB ∗ für jede n×n Matrix B. Für welche Matrizen B gilt diese
Aussage, wenn man ,,semidefinit” durch ,,definit” ersetzt?
(5) Sei A eine positiv definite komplexe Matrix. Zeigen Sie:
18
G.FELDER, LINEARE ALGEBRA II, FS 2013
(a) Ist A = C1∗ C1 = C2∗ C2 für obere Dreiecksmatrizen C1 , C2 ,
so gibt es eine unitäre Diagonalmatrix D so dass C1 =
DC2 .
(b) Es gibt genau eine obere Dreiecksmatrix C = (cij ), so dass
A = C ∗ C und cii > 0 für alle i = 1, . . . , n.
(6) Bestimmen Sie die Cholesky-Zerlegung einer
posi allgemeinen
α β
tiv definiten 2 × 2 Hermiteschen Matrix
.
β̄ γ
(7) (Polarzerlegung für normale Matrizen) Zu jeder normale Matrix
A ∈ M (n, n; C) gibt es eine selbstadjungierte positive Matrix
R und eine unitäre Matrix U so dass A = RU = U R. Ist A
invertierbar, so sind R und U eindeutig bestimmt.
4. Singulärwertzerlegung
Seien V, W endlichdimensionale Vektorräume über K = C oder R
mit Skalarlprodukt h , iV , bzw. h , iW .
4.1. Singulärwerte und Singulärvektoren.
Lemma 4.1. Sei f ∈ Hom(V, W ). Dann sind f ∗ ◦ f ∈ End(V ) und
f ∗ ◦ f ∈ End(W ) selbstadjungiert und positiv semidefinit.
Beweis. Da (f ∗ ◦ f )∗ = f ∗ ◦ f ∗∗ = f ∗ ◦ f , ist f ∗ ◦ f selbstadjungiert. Für
alle v ∈ V gilt, wegen der Positivitätseigenschaft des Skalarprodukts,
hf ∗ ◦ f (v), viV = hf (v), f (v)iW ≥ 0.
Die entsprechenden Aussagen für f ◦ f ∗ folgen durch Vertauschen der
Rollen von V mit W und f mit f ∗ .
Nach dem Spektralsatz sind also f ∗ ◦ f und f ◦ f ∗ diagonalisierbar
mit reellen Eigenvektoren und Orthonormalbasen von Eigenvektoren.
Definition 4.2.
√ Die Singulärwerte von f ∈ Hom(V, W ) sind die Quadratwurzeln λi der positiven Eigenwerte von f ∗ ◦ f ∈ End(V ). Die
Singulärwerte einer
√ m × n reellen oder komplexen Matrix A sind die
Quadratwurzeln λi der positiven Eigenwerte von A∗ A.
Beispiel 2. Sei A = diag(λ1 , . . . , λr , 0, . . . , 0) eine Diagonalmatrix von
Rang r mit komplexen Einträgen λj 6= 0 und 0. Dann ist A∗ A =
diag(λ1 λ̄1 , . . . , λr λ̄r , 0, . . . , 0) und die Singulärwerte sind |λ1 |, . . . , |λr |.
Satz 4.3. Sei f ∈ Hom(V, W ). Dann gibt es Orthonormalbasen B =
(u1 , . . . , un ) von V und B 0 = (v1 , . . . , vm ) von W und eindeutige positive
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT 19
Zahlen σ1 ≥ · · · ≥ σr > 0, so dass
(
σj vj , j = 1, . . . , r,
(3)
f (uj ) =
0,
j > r,
und
(
σj uj , j = 1, . . . , r,
f (vj ) =
0,
j > r.
∗
(4)
Die Zahlen σj sind die Singulärwerte von f . Die Basis B besteht aus
Eigenvektoren von f ∗ ◦ f zu den Eigenwerten σ12 , . . . , σr2 , 0, . . . , 0. Die
Basis B 0 besteht aus Eigenvektoren von f ◦ f ∗ zu den Eigenwerten
σ12 , . . . , σr2 , 0, . . . , 0.
Beweis. (a) Wir beweisen zuerst die Eindeutigkeit der σj und die letzten Aussagen über B, B 0 . Hat man Basen B, B 0 die (3) und (4) erfüllen,
so ist es klar dass f ∗ (f (uj )) = σj2 uj oder 0 und f (f ∗ (vj )) = σj2 vj oder
0. Also sind die Zahlen σj also die nach ihrer Grösse geordneten Quadratwurzeln der positiven Eigenwerten von f ∗ ◦ f eindeutig bestimmt.
(b) Existenz der Basen. Nach dem Spektralsatz für selbstadjiungierte Abbildungen hat V eine Orthonormalbasis B = (u1 , . . . , un ) von
Eigenvektoren von f ∗ ◦ f . Wir ordnen die Eigenvektoren so dass die
zugehörigen Eigenwerte λ1 ≥ · · · ≥ λr > 0 und λr+1 = · · · = λn = 0.
Die Singulärwerte sind also
p
p
σ1 = λ1 , . . . , σr = λr .
Dann gilt
hf (uj ), f (uk )i = hf ∗ ◦ f (uj ), uk i = λj huj , uk i = λj δjk .
Also bilden vj := σj−1 f (uj ) eine Orthonormalbasis von f (V ) ⊂ W . Wir
ergänzen sie zu einer Orthonormalbasis (v1 , . . . , vm ) von W . Nach Konstruktion, f (uj ) = σj vj für j = 1, . . . , r und, für j > r, hf (uj ), f (uj )i =
hf ∗ ◦ f (uj ), uj i = 0 also f (uj ) = 0. Dies zeigt (3). Wir verifizieren jetzt
(4). Für j = 1, . . . , r,
f ∗ (vj ) =
λj
1 ∗
f (f (uj )) = uj = σj uj .
σj
σj
Für j > r und alle k, hf ∗ (vj ), uk i = hvj , f (uk )i = 0, denn entweder
k ≤ r und f (uk ) = σk vk ⊥ vj oder k > r und f (uk ) = 0. Also ist f ∗ (vj )
für j > r orthogonal zu allen uk also = 0.
Pr
Bemerkung 4.4. Gleichung (3) kann als f (v) =
i=1 hv, ui iσi vi geschrieben werden
20
G.FELDER, LINEARE ALGEBRA II, FS 2013
Die Vektoren uj , vj heissen rechte bzw. linke Singulärvektoren. Sie
sind Eigenvektoren von f ∗ ◦ f bzw. f ◦ f ∗ zum Eigenwert σj2 oder, für
j > r, 0.
Bemerkung 4.5. Die Zahl r, die im Satz vorkommt, ist der Rang von
f.
Wie üblich formulieren wir den Satz auch in der Sprache der Matrizen. Eine (nicht notwendigerweise quadratische) Matrix D = (dij )
heisst Diagonalmatrix falls dij = 0 für alle i 6= j. Die Einträge djj
heissen Diagonaleinträge von D.
Satz 4.6. (Singulärwertzerlegung) Sei A ∈ M (m, n; K) mit K = C oder
R. Dann gibt es eine unitäre n×n Matrix U , eine unitäre m×m Matrix
V und eine Diagonalmatrix D mit Diagonaleinträgen σ1 ≥ · · · ≥ σr >
0, . . . , 0, so dass
A = V DU ∗
Die Matrizen V , U können im reellen Fall orthogonal gewählt werden.
Die Spalten von U sind eine Orthonormalbasis von rechten Singulärvektoren von A und die Spalten von V sind eine Orthonormalbasis von
linken Singulärvektoren von A
Beweis. Seien (uj ), (vj ) die Basen von Satz 4.3 für die Abbildung x 7→
Ax und seien U, V die unitären/orthogonalen Matrizen mit Spalten uj ,
bzw. vj . Dann können wir (3) in der Form
AU = V D
schreiben, wobei D die Diagonalmatrix mit Einträgen djj = σj für j ≤ r
und djj = 0 für j > r. Da U unitär ist, gilt dann auch A = V DU ∗ . Bemerkung 4.7. Die Bemerkung
4.4 zeigt, dass wir die SingulärwertP
zerlegung auch als A = ri=1 σi vi u∗i schreiben können.
Beispiel 3. Wir bestimmen die Singulärwertzerlegung von


0 1
A= 1 1 
1 0
Wir haben
A∗ A =
0 1 1
1 1 0


0 1
2
1
 1 1 =
.
1 2
1 0
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT 21
Diese Matrix hat Eigenwerte λ1 = 3, λ1 = 1 mit Orthonormalbasis von
Eigenvektoren
1
1
1
1
u1 = √
,
u2 = √
.
2 1
2 −1
√
Sie sind rechte Singulärvektoren zu den Singulärwerten σ1 = 3, σ2 =
1. Die zugehörigen linken Singulärvektoren sind v1 = σ1−1 Au1 , v2 =
σ2−1 Au2 , die wir wie im Beweis des Satzes zu einer Orthonormalbasis
(v1 , v2 , v3 ) von R3 ergänzen:
 




1
−1
1
1
1
1
v1 = √  2  ,
v2 = √  0  ,
v3 = √  −1  .
6
2
3
1
1
1
Wir haben also die Singulärwertzerlegung A = V DU ∗ mit

 √
 √1 √

−1
√1
1
1
3
0
6
2
3
√
√
−1 
2
2
, D =  0 1 .
U=
, V =  √26 0 √
1
3
√
√1
−
1
1
1
2
2
√
√
√
0 0
6
2
3
4.2. Geometrische Interpretation. Die Singulärwertzerlegung gibt
eine Beschreibung des Bilds der Einheitssphäre S = {v ∈ V | kvk =
1}. Wir nehmen an, dass f : V 7→ W injektiv ist. Der allgemeine Fall
wird in den Übungen betrachtet. Wir benützen die Basen B, B 0 um
Koordinaten
in V P
und W einzuführen: S besteht
Pm aus den Punkten
Pn
2
v = i=1 xi ui mit |xi | = 1. Dann ist f (v) = i=1 yi vi mit yi = σi xi
für i = 1, . . . , r und yi = 0 für i > r. Da f injektiv ist, ist der Rang
r = n = dim V . Also ist das Bild von S durch die Gleichung
y12
yn2
+
·
·
·
+
=1
σ12
σn2
im Unterraum f (V ) = span(v1 , . . . , vn ) beschrieben: Es ist also ein
Ellipsoid mit Halbachsen σ1 , . . . , σr .
4.3. Kleinste Quadrate. Ein Vektor x0 ∈ Kn ist genau dann eine
Lösung eines lösbaren Gleichungssystems Ax = b wenn kAx − bk2 für
x = x0 minimal ist unter allen x ∈ Kn . Solche Minima zu finden
ist selbst für nichtlösbare Systeme sinnvoll. Das Problem, Minima von
kAx − bk2 bei gegebenen m × n Matrix A und Vektor b ∈ Km zu bestimmen, heisst lineares Problem von kleinsten Quadraten (linear least
square problem). Solche Probleme treten in der Theorie der polynomialen Regression auf.
Wir lösen das Problem zuerst für m × n Diagonalmatrizen D mit
Diagonaleinträgen σ1 , . . . , σr , 0, . . . , 0, wobei σi > 0 für i = 1, . . . , r: In
22
G.FELDER, LINEARE ALGEBRA II, FS 2013
diesem Fall ist
kDx − bk2 =
r
X
|σj xj − bj |2 +
j=1
n
X
|bj |2 .
j=r+1
Es ist klar dass diese Funktion minimal für
x = (σj−1 b1 , . . . , σr−1 br , 0, . . . , 0)T
wird (die Minimalstelle ist nicht eindeutig: wir können die Nullen durch
beliebige Zahlen ersetzen, d.h. ein beliebiges Element des Kerns von D
addieren). Diese Lösung kann als
x = D+ b
wobei D+ (die “Pseudoinverse” von D) die n × m Diagonalmatrix mit
Diagonaleinträgen σ1−1 , . . . , σr−1 , 0, . . . , 0 bezeichnet.
Die Singulärwertzerlegung erlaubt uns den allgemeinen auf diesen
zurückzuführen:
Satz 4.8. Sei K = C oder R, A ∈ M (m, n; K), b ∈ K m . Sei A = V DU ∗
eine Singulärzerlegung von A. Dann wird die Funktion
x 7→ kAx − bk2
für x0 = A+ b minimal, wobei A+ = U ∗ D+ V .
Beweis. Die Funktion
x 7→ kAx − bk2 = kV ∗ DU x − bk2 = kV ∗ (DU x − V b)k2 = kDU x − V bk2
wird minimal für U x = D+ V b also für x = U ∗ D+ V b
Übungen.
(1)
(2)
(3)
(4)
(5)
√
2 √1
Berechnen Sie die Singulärwertzerlegung von
.
0
2
Sei v ∈ V r {0}. Welches sind die Singulärwerte und Singulärvektoren der Abbildung K 7→ V , die 1 nach v ∈ V abbildet?
Was ist das Bild f (S) der Einheitssphäre wenn f nicht injektiv
ist?
Eine positive reelle Zahl σ ist genau dann ein Singulärwert von
f ∈ Hom(V, W ), wenn es Vektoren v ∈ V r {0}, w ∈ W r {0}
gibt, so dass f (v) = σw, f ∗ (w) = σv.
Eine n × m Matrix A+ heisst pseudoinverse Matrix einer m × n
Matrix A wenn (a) die Funktion ϕb : Kn → R x 7→ kx − Abk2
minimal für x = A+ b ist: ϕb (A+ b) ≤ ϕb (x) für alle x ∈ Kn . (b)
A+ b ⊥ Ker(A) für alle b ∈ Rm . Zeigen Sie:
(a) Jede Matrix hat eine eindeutige pseudoinverse Matrix.
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT 23
(b) Sie wird durch die Formel in Satz 4.8 gegeben.
(c) Die Pseudoinverse einer invertierbaren Matrix ist die inverse Matrix
Herunterladen