Lösung zu Serie 18 - D-MATH

Werbung
Lineare Algebra
Prof. Richard Pink
D-MATH, HS 2014
Lösung zu Serie 18
1. Sei (V, h·, ·i) ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder
Sesquilinearform f : V × V → C eine eindeutige lineare Abbildung Tf : V → V
existiert mit
∀x, y ∈ V : f (x, y) = hTf x, yi .
Lösung: Sei B = (v1 , . . . , vn ) eine Orthonormalbasis von (V, h·, ·i). Falls eine
Abbildung Tf mit der gewünschten Eigenschaft existiert, so folgt
.
MBB (Tf ) = hvj , Tf vi i
= f (vi , vj )
1≤i,j≤n
1≤i,j≤n
Das zeigt die Eindeutigkeit von Tf . Definieren wir umgekehrt die Abbildung
Tf ∈ End(V ) als den eindeutigen Endomorphismus mit Darstellungsmatrix
MBB (Tf ) = f (vi , vj )
,
1≤i,j≤n
so gilt für alle Elemente x =
hTf x, yi =
P
i
ai vi und y =
DX
ai
X
i
=
X
=
X
P
k bk vk
f (vi , vj )vj ,
j
in V
X
bk vk
E
k
ai bk f (vi , vj )δjk
i,j,k
ai bj f (vi , vj )
i,j
=f
X
ai vi ,
i
X
bj vj
j
= f (x, y) .
Damit ist Tf die gewünschte Abbildung.
2. (a) Sei (V, h·, ·i) ein unitärer Vektorraum. Zeige die Polarisationsformel
hx, yi =
1
kx + yk2 − kx − yk2 − ikx + iyk2 + ikx − iyk2
4
für alle x, y ∈ V .
1
(b) Sei f : V → V eine lineare Abbildung. Zeige
f ist unitär
⇐⇒
∀v ∈ V : hf (v), f (v)i = hv, vi
Lösung:
(a) Für alle x, y ∈ V gilt
1
kx + yk2 − kx − yk2 − ikx + iyk2 + ikx − iyk2
4
1
hx, xi + hx, yi + hy, xi + hy, yi
=
4
− (hx, xi − hx, yi − hy, xi + hy, yi)
−i (hx, xi + hx, iyi + hiy, xi + hiy, iyi)
+i (hx, xi − hx, iyi − hiy, xi + hiy, iyi)
1
2hx, yi + 2hy, xi − 2ihx, iyi − 2ihiy, xi
=
| {z } | {z }
4
−2hx,yi
2hy,xi
= hx, yi.
(b) Die Richtung ’⇒’ folgt direkt aus der Definition einer unitären Abbildung.
Angenommen für f gilt
∀v ∈ V : hf (v), f (v)i = hv, vi,
dann folgt aus der Polarisationsformel
hf (v), f (w)i
1
= (||f (v) + f (w)||2 − ||f (v) − f (w)||2 + i||f (v) + if (w)||2 − i||f (v) − if (w)||2 )
4
1
= (||f (v + w)||2 − ||f (v − w)||2 + i||f (v + iw)||2 − i||f (v − iw)||2 )
4
1
= (||v + w||2 − ||v − w||2 + i||v + iw||2 − i||v − iw||2 )
4
= hv, wi
für alle v, w ∈ V , also ist f unitär.
3. Sei n ≥ 1 und sei ζ := e2πi/n . Zeige, dass die komplexe Matrix
1
A := √ ζ (k−1)(`−1)
n
1≤k,`≤n
unitär ist.
Lösung: Für alle a ∈ Z mit 0 < |a| < n gilt
n
X
ζ a(`−1) =
`=1
2
ζ an − 1
=0
ζa − 1
und für a = 0 gilt
n
X
ζ
a(`−1)
`=1
Wir erhalten also
=
n
X
1 = n.
`=1
n
X
ζ a(t−1) = nδa0
t=1
für alle a ∈ Z mit |a| < n.
√ Mit A∗ = AT = ζ −(m−1)(`−1) / n 1≤`,m≤n folgt
(AA∗ )km =
X 1
1
1 X (k−m)(`−1)
√ ζ (k−1)(`−1) √ ζ −(m−1)(`−1) =
ζ
= δkm
n
n
n
`
`
für alle k, m, also AA∗ = In .
4. Sei T : V → V ein Endomorphismus eines endlichdimensionalen unitären Vektorraums (V, h , i), sodass gilt
∀x, y ∈ V : hx, yi = 0 =⇒ hT (x), T (y)i = 0 .
Zeige, dass eine unitäre Abbildung S : V → V und ein c ∈ C existiert mit
T = c · S.
Lösung: Sei f := T ∗ T und sei x ∈ V \ {0} ein beliebiger Vektor. Dann gilt
∀y ∈ V : hx, yi = 0 =⇒ hf (x), yi = 0,
oder dazu äquivalent, dass f (x) orthogonal ist zu allen Vektoren, die orthogonal
zu x sind. Es folgt
f (x) ∈ (hxi⊥ )⊥ = hxi,
also f (x) = λx für ein λ ∈ C.
Damit ist jeder nicht-verschwindende Vektor aus V ein Eigenvektor von f , oder
äquivalent dazu, f bildet jeden eindimensionalen Unterraum wieder in sich ab.
Mit der Lösung zur Zwischenprüfung, Aufgabe 13, Implikation (c) ⇒ (b) folgt
f = b · idV für ein b ∈ C.
Die Abbildung f ist selbst-adjungiert und wegen
∀v ∈ V : hf (v), vi = hT (v), T (v)i ≥ 0
zudem positiv-semidefinit. Es folgt b ≥ 0. Im Fall b = 0 ist T = 0 und die
√
Aussage der Aufgabe
gilt mit c := 0 und S := idV . Im Fall b > 0, sei c := b
√
und S := T / b. Dann ist wegen S ∗ S = T ∗ T /b = f /b = idV die Abbildung S
unitär und es gilt T = cS.
5. Zeige je einmal mit und ohne den Spektralsatz, dass das charakteristische Polynom jeder hermiteschen Matrix reelle Koeffizienten hat.
Lösung: (mit Spektralsatz) Jede hermitesche Matrix A ist nach dem Spektralsatz ähnlich zu einer Diagonalmatrix D mit reellen Diagonaleinträgen. Das
3
charakteristische Polynom PA (X) von A ist invariant unter Ähnlichkeit. Folglich
ist es gleich dem charakteristischen Polynom der Matrix D, welche nur reelle
Einträge besitzt. Also hat PA (X) reelle Koeffizienten.
Lösung 2. (ohne Spektralsatz)
P
Für jedes komplexe Polynom ϕ(X)
=
ai X i definieren wir das komplex konP
jugierte Polynom durch ϕ(X) := ai X i . Diese Konstruktion hat die Grundeigenschaft ϕ · ψ = ϕ · ψ.
Für
P einei beliebige hermitesche Matrix A mit charakteristischen Polynom PA (X) =
i ai X gilt dann
PA (X) = det(XIn − A)
= det (XIn − A)∗
= det XIn − A∗ )
= det XIn − A)
= PA (X),
folglich ai = ai , also ai ∈ R für alle i.
6. Im Abschnitt 10.11 der Vorlesung wurde der folgende Satz präsentiert. Führe
seinen Beweis aus in Analogie zu dem entsprechenden Beweis im reellen Fall.
Satz: Für jede hermitesche n × n-Matrix A = ak`
k,`=1,...,n
sind äquivalent:
(a) Die Matrix A ist positiv definit.
(b) Alle Eigenwerte von A sind positiv.
(c) Es existiert eine invertierbare Matrix B mit A = B ∗ B.
(d) Es existiert eine invertierbare obere Dreiecksmatrix R mit A = R∗ R.
(Cholesky-Zerlegung)
(e) Es existiert eine invertierbare hermitesche Matrix C mit A = C ∗ C = C 2 .
(f) Die Determinante der Matrix Am := ak` k,`=1,...,m ist positiv für jedes
1 ≤ m ≤ n.
(Hauptminorenkriterium)
Lösung: (e)⇒(c) folgt mit B := C.
(d)⇒(c) folgt mit B := R.
(c)⇒(a): Sei B wie in (c); dann ist für alle x ∈ Cn mit x 6= 0 auch Bx 6= 0 und
folglich x∗ Ax = x∗ B ∗ Bx = (Bx)∗ (Bx) = kBxk2 > 0. Also ist A positiv definit.
(a)⇒(d): Ist A positiv definit, so ist γ : Cn × Cn → C, (x, y) 7→ x∗ Ay ein
Skalarprodukt. Auf dieses und die Standardbasis e1 , . . . , en von Cn wenden wir
das Gram-Schmidt-Orthogonalisierungsverfahren an und erhalten eine Orthonormalbasis b1 , . . . , bn bezüglich γ sowie Koeffizienten ak` ∈ C und a`` ∈ R>0 ,
so dass für alle 1 ≤ ` ≤ n gilt
4
e` =
`
X
ak` bk .
k=1
Mit ak` := 0 für alle 1 ≤ ` < k ≤ n ist dann R := (ak` )k,` eine invertierbare
obere Dreiecksmatrix. Für die Matrix B := (b1 , . . . , bn ) gilt dann
In = (e1 , . . . , en ) = (b1 , . . . , bn )R = BR.
Dass b1 , . . . , bn eine Orthonormalbasis bezüglich γ ist, bedeutet andererseits
B ∗ AB = b∗k Ab` k,` = δk` k,` = In .
Zusammen folgt daraus
R∗ R = R∗ In R = R∗ (B ∗ AB)R = (BR)∗ A(BR) = In∗ AIn = A.
(a)⇔(b): Nach dem Spektralsatz existiert eine unitäre Matrix Q mit
D := Q−1 AQ = Q∗ AQ = diag(λ1 , . . . , λn )
für gewisse λk ∈ R. Insbesondere ist A ähnlich zu D, und die λk sind genau die
Eigenwerte von A. Da Q invertierbar ist, ist jeder von Null verschiedene Vektor
in Cn gleich Qz für einen von Null verschiedenen Vektor z ∈ Cn . Für diesen gilt
dann weiter
X
X
(Qz)∗ A(Qz) = z ∗ Q∗ AQz = z ∗ Dz =
λk z k zk =
λk |zk |2 .
k
k
Dass A positiv definit ist, ist also äquivalent dazu, dass dieser Ausdruck immer
> 0 ist. Im Fall z = ek ist dieser Ausdruck gleich λk , also muss jedes λk > 0
sein; woraus die Implikation (a)⇒(b) folgt. Ist umgekehrt jedes λk > 0, so ist
die rechte Seite immer ≥ 0 und = 0 nur, wenn alle zk = 0 sind. Da wir dies
bereits ausgeschlossen haben, folgt die Implikation (a)⇐(b).
>0
(b)⇒(e): Seien Q und √
D = diag(λ
1 , . . . , λn ) wie soeben, wobei alle λk ∈ R
√
sind. Setze D0 := diag( λ1 , . . . , λn ) und C := QD0 Q∗ . Dann gilt
C ∗ = (QD0 Q∗ )∗ = (Q∗ )∗ (D0 )∗ Q∗ = QD0 Q∗ = C,
also ist C hermitesch. Weiter gilt
C 2 = (QD0 Q∗ )(QD0 Q∗ ) = QD0 (Q∗ Q)D0 Q∗ = QD0 In D0 Q∗ = QD0 D0 Q∗
= QDQ∗ = Q(Q∗ AQ)Q∗ = (QQ∗ )A(QQ∗ ) = In AIn = A.
(a)⇒(f): Betrachte die injektive lineare Abbildung ε : Cm → Cn , x 7→
die Sesquilinearform
x
0
und
Cm × Cm → C, (x, y) 7→ ε(x)∗ Aε(y).
Dass A hermitesch und positiv definit ist, impliziert, dass auch diese hermitesch und positiv definit ist. Aus der Definition von Am folgt aber ε(x)∗ Aε(y) =
5
x∗ Am y. Also ist Am hermitesch und positiv definit. Die bereits bewiesene Implikation (a)⇒(b) auf Am angewendet zeigt daher, dass alle Eigenwerte von
Am reell und positiv sind. Das Produkt dieser Eigenwerte ist aber det(Am ) und
somit ebenfalls reell positiv.
(f)⇒(a): Wir benutzen Induktion über n. Im Fall n = 0 ist nichts zu beweisen.
Sei also n > 0 und die Implikation bereits bewiesen für n − 1. Dann gilt die
Implikation insbesondere für An−1 . Da die Hauptminoren von An−1 genau die
Hauptminoren det(Am ) für 1 ≤ m ≤ n − 1 von A sind, ist also An−1 positiv
definit. Die bereits bewiesene Implikation (a)⇒(c) auf An−1 angewendet zeigt
daher, dass An−1 = B ∗ B ist für eine invertierbare (n − 1) × (n − 1)-Matrix B.
−1 Mit der n × n-Blockmatrix C := B0 10 gilt dann
−1 ∗
−1
−1 ∗
(B ) 0
An−1 ∗
B
0
(B ) An−1 B −1 ∗
∗
C AC =
·
·
=
0
∗
∗
∗
0 ∗
∗
∗
In−1 ∗
=
.
∗ ∗
Wegen (C ∗ AC)∗ = C ∗ A∗ (C ∗ )∗ = C ∗ AC ist diese Matrix wieder hermitesch.
Also gilt genauer
In−1 w
∗
C AC =
w∗ λ
für ein w ∈ Cn−1 sowie ein λ = λ ∈ C, also ein λ ∈ R. Mit D := In−1 −w1 folgt
dann
In−1 0
In−1 w
In−1 −w
∗
∗
E := D (C AC)D =
·
·
−w∗ 1
w∗ λ
0
1
In−1 0
=
0 µ
mit µ := λ − w∗ w ∈ R. Für dieses gilt dann
µ = det(E) = det(D∗ C ∗ ACD) = det(D∗ ) det(C ∗ ) det(A) det(C) det(D)
= det(D) det(C) det(A) det(C) det(D) = det(A) · | det(D)|2 · | det(C)|2 .
Da D und C invertierbar sind, ist det(D) · det(C) 6= 0 und somit | det(D)|2 ·
| det(C)|2 > 0. Andererseits bedeutet der Spezialfall m = n der Voraussetzung
(f), dass det(A) > 0 ist. Also ist µ > 0. Somit ist die Matrix E positiv definit,
zum Beispiel wegen der bereits bewiesenen Implikation (b)⇒(a). Da PositivDefinitheit unter Basiswechsel invariant ist, ist also auch A positiv definit, was
zu zeigen war.
7. Seien V und W endlichdimensionale unitäre Vektorräume und sei f : V → W
eine lineare Abbildung. Die Singulärwerte von f sind definiert als die Quadratwurzeln der positiven Eigenwerte von f ∗ ◦ f .
Zeige: Ein Element σ ∈ R>0 ist ein Singulärwert von f genau dann, wenn gilt:
∃ v ∈ V \ {0}, ∃ w ∈ W \ {0} : f (v) = σw ∧ f ∗ (w) = σv .
Lösung:
6
(⇒) Sei σ ein Singulärwert von f . Dann gibt es einen Vektor v ∈ V \ {0} mit
f ∗ (f (v)) = σ 2 v. Für w := f (v)/σ folgt also
f (v) = σw
f ∗ (w) = f ∗ (f (v))/σ = σv .
und
(⇐) Sei σ > 0 und seien v ∈ V \ {0} und w ∈ W \ {0} mit f (v) = σw und
∗
∗
2
2
∗
f ∗ (w)
√= σv. Wegen f f (v) = f (σw) = σ v ist σ ein Eigenwert von f f ,
also σ 2 = σ ein Singulärwert von f .
7
Herunterladen