Lineare Algebra Prof. Richard Pink D-MATH, HS 2014 Lösung zu Serie 18 1. Sei (V, h·, ·i) ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V × V → C eine eindeutige lineare Abbildung Tf : V → V existiert mit ∀x, y ∈ V : f (x, y) = hTf x, yi . Lösung: Sei B = (v1 , . . . , vn ) eine Orthonormalbasis von (V, h·, ·i). Falls eine Abbildung Tf mit der gewünschten Eigenschaft existiert, so folgt . MBB (Tf ) = hvj , Tf vi i = f (vi , vj ) 1≤i,j≤n 1≤i,j≤n Das zeigt die Eindeutigkeit von Tf . Definieren wir umgekehrt die Abbildung Tf ∈ End(V ) als den eindeutigen Endomorphismus mit Darstellungsmatrix MBB (Tf ) = f (vi , vj ) , 1≤i,j≤n so gilt für alle Elemente x = hTf x, yi = P i ai vi und y = DX ai X i = X = X P k bk vk f (vi , vj )vj , j in V X bk vk E k ai bk f (vi , vj )δjk i,j,k ai bj f (vi , vj ) i,j =f X ai vi , i X bj vj j = f (x, y) . Damit ist Tf die gewünschte Abbildung. 2. (a) Sei (V, h·, ·i) ein unitärer Vektorraum. Zeige die Polarisationsformel hx, yi = 1 kx + yk2 − kx − yk2 − ikx + iyk2 + ikx − iyk2 4 für alle x, y ∈ V . 1 (b) Sei f : V → V eine lineare Abbildung. Zeige f ist unitär ⇐⇒ ∀v ∈ V : hf (v), f (v)i = hv, vi Lösung: (a) Für alle x, y ∈ V gilt 1 kx + yk2 − kx − yk2 − ikx + iyk2 + ikx − iyk2 4 1 hx, xi + hx, yi + hy, xi + hy, yi = 4 − (hx, xi − hx, yi − hy, xi + hy, yi) −i (hx, xi + hx, iyi + hiy, xi + hiy, iyi) +i (hx, xi − hx, iyi − hiy, xi + hiy, iyi) 1 2hx, yi + 2hy, xi − 2ihx, iyi − 2ihiy, xi = | {z } | {z } 4 −2hx,yi 2hy,xi = hx, yi. (b) Die Richtung ’⇒’ folgt direkt aus der Definition einer unitären Abbildung. Angenommen für f gilt ∀v ∈ V : hf (v), f (v)i = hv, vi, dann folgt aus der Polarisationsformel hf (v), f (w)i 1 = (||f (v) + f (w)||2 − ||f (v) − f (w)||2 + i||f (v) + if (w)||2 − i||f (v) − if (w)||2 ) 4 1 = (||f (v + w)||2 − ||f (v − w)||2 + i||f (v + iw)||2 − i||f (v − iw)||2 ) 4 1 = (||v + w||2 − ||v − w||2 + i||v + iw||2 − i||v − iw||2 ) 4 = hv, wi für alle v, w ∈ V , also ist f unitär. 3. Sei n ≥ 1 und sei ζ := e2πi/n . Zeige, dass die komplexe Matrix 1 A := √ ζ (k−1)(`−1) n 1≤k,`≤n unitär ist. Lösung: Für alle a ∈ Z mit 0 < |a| < n gilt n X ζ a(`−1) = `=1 2 ζ an − 1 =0 ζa − 1 und für a = 0 gilt n X ζ a(`−1) `=1 Wir erhalten also = n X 1 = n. `=1 n X ζ a(t−1) = nδa0 t=1 für alle a ∈ Z mit |a| < n. √ Mit A∗ = AT = ζ −(m−1)(`−1) / n 1≤`,m≤n folgt (AA∗ )km = X 1 1 1 X (k−m)(`−1) √ ζ (k−1)(`−1) √ ζ −(m−1)(`−1) = ζ = δkm n n n ` ` für alle k, m, also AA∗ = In . 4. Sei T : V → V ein Endomorphismus eines endlichdimensionalen unitären Vektorraums (V, h , i), sodass gilt ∀x, y ∈ V : hx, yi = 0 =⇒ hT (x), T (y)i = 0 . Zeige, dass eine unitäre Abbildung S : V → V und ein c ∈ C existiert mit T = c · S. Lösung: Sei f := T ∗ T und sei x ∈ V \ {0} ein beliebiger Vektor. Dann gilt ∀y ∈ V : hx, yi = 0 =⇒ hf (x), yi = 0, oder dazu äquivalent, dass f (x) orthogonal ist zu allen Vektoren, die orthogonal zu x sind. Es folgt f (x) ∈ (hxi⊥ )⊥ = hxi, also f (x) = λx für ein λ ∈ C. Damit ist jeder nicht-verschwindende Vektor aus V ein Eigenvektor von f , oder äquivalent dazu, f bildet jeden eindimensionalen Unterraum wieder in sich ab. Mit der Lösung zur Zwischenprüfung, Aufgabe 13, Implikation (c) ⇒ (b) folgt f = b · idV für ein b ∈ C. Die Abbildung f ist selbst-adjungiert und wegen ∀v ∈ V : hf (v), vi = hT (v), T (v)i ≥ 0 zudem positiv-semidefinit. Es folgt b ≥ 0. Im Fall b = 0 ist T = 0 und die √ Aussage der Aufgabe gilt mit c := 0 und S := idV . Im Fall b > 0, sei c := b √ und S := T / b. Dann ist wegen S ∗ S = T ∗ T /b = f /b = idV die Abbildung S unitär und es gilt T = cS. 5. Zeige je einmal mit und ohne den Spektralsatz, dass das charakteristische Polynom jeder hermiteschen Matrix reelle Koeffizienten hat. Lösung: (mit Spektralsatz) Jede hermitesche Matrix A ist nach dem Spektralsatz ähnlich zu einer Diagonalmatrix D mit reellen Diagonaleinträgen. Das 3 charakteristische Polynom PA (X) von A ist invariant unter Ähnlichkeit. Folglich ist es gleich dem charakteristischen Polynom der Matrix D, welche nur reelle Einträge besitzt. Also hat PA (X) reelle Koeffizienten. Lösung 2. (ohne Spektralsatz) P Für jedes komplexe Polynom ϕ(X) = ai X i definieren wir das komplex konP jugierte Polynom durch ϕ(X) := ai X i . Diese Konstruktion hat die Grundeigenschaft ϕ · ψ = ϕ · ψ. Für P einei beliebige hermitesche Matrix A mit charakteristischen Polynom PA (X) = i ai X gilt dann PA (X) = det(XIn − A) = det (XIn − A)∗ = det XIn − A∗ ) = det XIn − A) = PA (X), folglich ai = ai , also ai ∈ R für alle i. 6. Im Abschnitt 10.11 der Vorlesung wurde der folgende Satz präsentiert. Führe seinen Beweis aus in Analogie zu dem entsprechenden Beweis im reellen Fall. Satz: Für jede hermitesche n × n-Matrix A = ak` k,`=1,...,n sind äquivalent: (a) Die Matrix A ist positiv definit. (b) Alle Eigenwerte von A sind positiv. (c) Es existiert eine invertierbare Matrix B mit A = B ∗ B. (d) Es existiert eine invertierbare obere Dreiecksmatrix R mit A = R∗ R. (Cholesky-Zerlegung) (e) Es existiert eine invertierbare hermitesche Matrix C mit A = C ∗ C = C 2 . (f) Die Determinante der Matrix Am := ak` k,`=1,...,m ist positiv für jedes 1 ≤ m ≤ n. (Hauptminorenkriterium) Lösung: (e)⇒(c) folgt mit B := C. (d)⇒(c) folgt mit B := R. (c)⇒(a): Sei B wie in (c); dann ist für alle x ∈ Cn mit x 6= 0 auch Bx 6= 0 und folglich x∗ Ax = x∗ B ∗ Bx = (Bx)∗ (Bx) = kBxk2 > 0. Also ist A positiv definit. (a)⇒(d): Ist A positiv definit, so ist γ : Cn × Cn → C, (x, y) 7→ x∗ Ay ein Skalarprodukt. Auf dieses und die Standardbasis e1 , . . . , en von Cn wenden wir das Gram-Schmidt-Orthogonalisierungsverfahren an und erhalten eine Orthonormalbasis b1 , . . . , bn bezüglich γ sowie Koeffizienten ak` ∈ C und a`` ∈ R>0 , so dass für alle 1 ≤ ` ≤ n gilt 4 e` = ` X ak` bk . k=1 Mit ak` := 0 für alle 1 ≤ ` < k ≤ n ist dann R := (ak` )k,` eine invertierbare obere Dreiecksmatrix. Für die Matrix B := (b1 , . . . , bn ) gilt dann In = (e1 , . . . , en ) = (b1 , . . . , bn )R = BR. Dass b1 , . . . , bn eine Orthonormalbasis bezüglich γ ist, bedeutet andererseits B ∗ AB = b∗k Ab` k,` = δk` k,` = In . Zusammen folgt daraus R∗ R = R∗ In R = R∗ (B ∗ AB)R = (BR)∗ A(BR) = In∗ AIn = A. (a)⇔(b): Nach dem Spektralsatz existiert eine unitäre Matrix Q mit D := Q−1 AQ = Q∗ AQ = diag(λ1 , . . . , λn ) für gewisse λk ∈ R. Insbesondere ist A ähnlich zu D, und die λk sind genau die Eigenwerte von A. Da Q invertierbar ist, ist jeder von Null verschiedene Vektor in Cn gleich Qz für einen von Null verschiedenen Vektor z ∈ Cn . Für diesen gilt dann weiter X X (Qz)∗ A(Qz) = z ∗ Q∗ AQz = z ∗ Dz = λk z k zk = λk |zk |2 . k k Dass A positiv definit ist, ist also äquivalent dazu, dass dieser Ausdruck immer > 0 ist. Im Fall z = ek ist dieser Ausdruck gleich λk , also muss jedes λk > 0 sein; woraus die Implikation (a)⇒(b) folgt. Ist umgekehrt jedes λk > 0, so ist die rechte Seite immer ≥ 0 und = 0 nur, wenn alle zk = 0 sind. Da wir dies bereits ausgeschlossen haben, folgt die Implikation (a)⇐(b). >0 (b)⇒(e): Seien Q und √ D = diag(λ 1 , . . . , λn ) wie soeben, wobei alle λk ∈ R √ sind. Setze D0 := diag( λ1 , . . . , λn ) und C := QD0 Q∗ . Dann gilt C ∗ = (QD0 Q∗ )∗ = (Q∗ )∗ (D0 )∗ Q∗ = QD0 Q∗ = C, also ist C hermitesch. Weiter gilt C 2 = (QD0 Q∗ )(QD0 Q∗ ) = QD0 (Q∗ Q)D0 Q∗ = QD0 In D0 Q∗ = QD0 D0 Q∗ = QDQ∗ = Q(Q∗ AQ)Q∗ = (QQ∗ )A(QQ∗ ) = In AIn = A. (a)⇒(f): Betrachte die injektive lineare Abbildung ε : Cm → Cn , x 7→ die Sesquilinearform x 0 und Cm × Cm → C, (x, y) 7→ ε(x)∗ Aε(y). Dass A hermitesch und positiv definit ist, impliziert, dass auch diese hermitesch und positiv definit ist. Aus der Definition von Am folgt aber ε(x)∗ Aε(y) = 5 x∗ Am y. Also ist Am hermitesch und positiv definit. Die bereits bewiesene Implikation (a)⇒(b) auf Am angewendet zeigt daher, dass alle Eigenwerte von Am reell und positiv sind. Das Produkt dieser Eigenwerte ist aber det(Am ) und somit ebenfalls reell positiv. (f)⇒(a): Wir benutzen Induktion über n. Im Fall n = 0 ist nichts zu beweisen. Sei also n > 0 und die Implikation bereits bewiesen für n − 1. Dann gilt die Implikation insbesondere für An−1 . Da die Hauptminoren von An−1 genau die Hauptminoren det(Am ) für 1 ≤ m ≤ n − 1 von A sind, ist also An−1 positiv definit. Die bereits bewiesene Implikation (a)⇒(c) auf An−1 angewendet zeigt daher, dass An−1 = B ∗ B ist für eine invertierbare (n − 1) × (n − 1)-Matrix B. −1 Mit der n × n-Blockmatrix C := B0 10 gilt dann −1 ∗ −1 −1 ∗ (B ) 0 An−1 ∗ B 0 (B ) An−1 B −1 ∗ ∗ C AC = · · = 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ In−1 ∗ = . ∗ ∗ Wegen (C ∗ AC)∗ = C ∗ A∗ (C ∗ )∗ = C ∗ AC ist diese Matrix wieder hermitesch. Also gilt genauer In−1 w ∗ C AC = w∗ λ für ein w ∈ Cn−1 sowie ein λ = λ ∈ C, also ein λ ∈ R. Mit D := In−1 −w1 folgt dann In−1 0 In−1 w In−1 −w ∗ ∗ E := D (C AC)D = · · −w∗ 1 w∗ λ 0 1 In−1 0 = 0 µ mit µ := λ − w∗ w ∈ R. Für dieses gilt dann µ = det(E) = det(D∗ C ∗ ACD) = det(D∗ ) det(C ∗ ) det(A) det(C) det(D) = det(D) det(C) det(A) det(C) det(D) = det(A) · | det(D)|2 · | det(C)|2 . Da D und C invertierbar sind, ist det(D) · det(C) 6= 0 und somit | det(D)|2 · | det(C)|2 > 0. Andererseits bedeutet der Spezialfall m = n der Voraussetzung (f), dass det(A) > 0 ist. Also ist µ > 0. Somit ist die Matrix E positiv definit, zum Beispiel wegen der bereits bewiesenen Implikation (b)⇒(a). Da PositivDefinitheit unter Basiswechsel invariant ist, ist also auch A positiv definit, was zu zeigen war. 7. Seien V und W endlichdimensionale unitäre Vektorräume und sei f : V → W eine lineare Abbildung. Die Singulärwerte von f sind definiert als die Quadratwurzeln der positiven Eigenwerte von f ∗ ◦ f . Zeige: Ein Element σ ∈ R>0 ist ein Singulärwert von f genau dann, wenn gilt: ∃ v ∈ V \ {0}, ∃ w ∈ W \ {0} : f (v) = σw ∧ f ∗ (w) = σv . Lösung: 6 (⇒) Sei σ ein Singulärwert von f . Dann gibt es einen Vektor v ∈ V \ {0} mit f ∗ (f (v)) = σ 2 v. Für w := f (v)/σ folgt also f (v) = σw f ∗ (w) = f ∗ (f (v))/σ = σv . und (⇐) Sei σ > 0 und seien v ∈ V \ {0} und w ∈ W \ {0} mit f (v) = σw und ∗ ∗ 2 2 ∗ f ∗ (w) √= σv. Wegen f f (v) = f (σw) = σ v ist σ ein Eigenwert von f f , also σ 2 = σ ein Singulärwert von f . 7