Lineare Algebra II Prof. Richard Pink D-MATH, FS 2015 Lösung zur Wiederholungsserie II 1. Zeige durch Kopfrechnen, dass die folgende reelle 2015 2344 1234 2124 4123 1990 A := 1230 2014 9095 1262 1776 1880 Matrix invertierbar ist: 1990 3026 1230 3907 Lösung: Die Determinante ist definiert durch eine universelle polynomiale Formel mit Koeffizienten in Z. Da alle Einträge von A in Z liegen, ist also auch det(A) ∈ Z. Weiter sind alle Diagonaleinträge von A ungerade, und alle übrigen Einträge gerade. Also ist A modulo 2 kongruent zu der Einheitsmatrix I4 . Die universelle Formel für die Determinante impliziert nun, dass det(A) modulo 2 kongruent ist zu det(I4 ) = 1. Also ist det(A) eine ungerade ganze Zahl, und deshalb sicher ungleich Null in R. Somit ist A als reelle Matrix invertierbar. 2. Betrachte beliebige Unterräume U1 und U2 eines endlich-dimensionalen euklidischen Vektorraums V . Welche Inklusionen und Gleichheiten gelten immer zwischen den Unterräumen U1⊥ ∩ U2⊥ , (U1 ∩ U2 )⊥ , U1⊥ + U2⊥ , (U1 + U2 )⊥ ? Lösung: Nach Definition der Begriffe ist U1⊥ ∩ U2⊥ = v ∈ V ∀u1 ∈ U1 : hu1 , vi = 0 ∩ v ∈ V ∀u2 ∈ U2 : hu2 , vi = 0 = v ∈ V ∀u1 ∈ U1 : hu1 , vi = 0 ∧ ∀u2 ∈ U2 : hu2 , vi = 0 ∗ = v ∈ V ∀u1 ∈ U1 ∀u2 ∈ U2 : hu1 + u2 , vi = hu1 , vi + hu2 , vi = 0 = v ∈ V ∀u ∈ U1 + U2 : hu, vi = 0 = (U1 + U2 )⊥ , ∗ wobei die Gleichung = gilt wegen der Additivität und weil man auch u1 = 0 oder u2 = 0 einsetzen kann. Wenden wir die so gefundene Gleichung auf die Unterräume Ui⊥ anstelle von Ui an, so erhalten wir U1 ∩ U2 = (U1⊥ )⊥ ∩ (U2⊥ )⊥ = (U1⊥ + U2⊥ )⊥ , und somit (U1 ∩ U2 )⊥ = U1⊥ + U2⊥ . 1 Weiter ist nach Konstruktion U1⊥ ∩ U2⊥ ⊂ U1⊥ + U2⊥ . Insgesamt haben wir also die Inklusion und die Gleichungen U1⊥ ∩ U2⊥ ⊂ U1⊥ + U2⊥ k k ⊥ (U1 + U2 ) ⊂ (U1 ∩ U2 )⊥ Hier sind die horizontalen Inklusionen im Allgemeinen keine Gleichheiten, zum Beispiel nicht, wenn U1 ein echter Teilraum von U2 ist. 3. Sei U ⊂ V ein Unterraum und betrachte die linearen Abbildungen i : U → V, u 7→ u und π : V → V /U, v 7→ v + U . Zeige: Die zu π duale lineare Abbildung π ∗ : (V /U )∗ → V ∗ ist ein Isomorphismus von (V /U )∗ auf den Kern der zu i dualen linearen Abbildung i∗ : V ∗ → U ∗ . Lösung: Wegen i∗ ◦ π ∗ = (π ◦ i)∗ = 0∗ = 0 ist Bild(π ∗ ) ⊂ Kern(i∗ ). Für jedes Element λ : V → K in Kern(i∗ ), gilt λ(v) = 0 für alle v ∈ U , also U ⊂ Kern(λ). Nach der universellen Eigenschaft der Quotientenabbildung π : V → V /U existiert daher eine eindeutige lineare Abbildung λ : V /U → K mit λ ◦ π = λ, also mit π ∗ (λ) = λ. Die Abbildung π : (V /U )∗ → Kern(i∗ ) ist somit surjektiv, wegen der Eindeutigkeitsaussage aber auch injektiv, also ein Isomorphismus. Aliter: Die Injektivität folgt alternativ aus der Surjektivität von π : V → V /U , siehe Aufgabe 17 der Wiederholungsserie I. 4. Betrachte eine lineare Abbildung von K-Vektorräumen f : V → W sowie einen Unterraum W 0 von W . Zeige: (a) Das Urbild f −1 (W 0 ) := {v ∈ V | f (v) ∈ W 0 } ist ein Unterraum von V . (b) Die Abbildung f induziert eine eindeutige injektive Abbildung f : V /f −1 (W 0 ) ,→ W/W 0 , sodass das folgende Diagramm kommutiert: f V V /f −1 (W 0 ) f / /W (c) Das Bild von f ist gleich (Bild(f ) + W 0 )/W 0 . 2 W/W 0 . Lösung: (a) Der Beweis der Aussage findet man in der Lösung zu Serie 8, Aufgabe 7. (b) Sei πW 0 : W → W/W 0 die Quotientenabbildung und sei g := πW 0 ◦f . Wegen Kern(πW 0 ) = W 0 ist Kern(g) = f −1 (W 0 ). Also folgt aus der universellen Eigenschaft des Quotientenvektorraums π : V → V /f −1 (W 0 ) angewendet auf g, dass eine eindeutige lineare Abbildung f : V /f −1 (W 0 ) → W/W 0 existiert mit f ◦ π = g, also mit f ◦ π = πW 0 ◦ f , also sodass das obige Diagram kommutiert. Wegen Kern(g) = f −1 (W 0 ) und Serie 22, Aufgabe 4 (b) ist f zudem injektiv. (c) Wegen der Surjektivität von π : V → V /f −1 (W 0 ) ist das Bild von f gleich dem Bild von f ◦ π, also wegen der Kommutativität des Diagrams gleich Bild(πW 0 ◦ f ) = {f (v) + W 0 | v ∈ V }. Für jedes w0 ∈ W 0 ist aber f (v) + W 0 = f (v) + w0 + W 0 ; somit ist dies auch gleich {f (v) + w0 + W 0 | v ∈ V, w0 ∈ W 0 } = {w̃ + W 0 | w̃ ∈ Bild(f ) + W 0 }. und letzteres ist nach Definition gleich (Bild(f ) + W 0 )/W 0 . 5. Sei V ein endlich-dimensionaler euklidischer Vektorraum, und seien v1 , . . . , vm und w1 , . . . , wm Vektoren in V , sodass für alle i, j gilt: hvi , vj i = hwi , wj i. Zeige, dass ein Endomorphismus f : V → V existiert mit f (vi ) = wi für alle i. Lösung: Betrachte zunächst eine beliebige Teilmenge I ⊂ {1, . . . , m}. Die Vektoren vi für alle i ∈ I sindlinear unabhängig genau dann, wenn ihre Gramsche Determinante det hvi , vj i i,j∈I ungleich Null ist. Nach Voraussetzung ist die se Determinante aber gleich det hwi , wj i i,j∈I , und somit ungleich Null genau dann, wenn die Vektoren wi für alle i ∈ I linear unabhängig sind. Unter allen Teilmengen mit den genannten äquivalenten Eigenschaften sei nun I eine maximale. Nach Umordnen der Vektoren v1 , . . . , vm und w1 , . . . , wm dürfen wir I = {1, . . . , n} annehmen für ein 0 ≤ n ≤ m. Dann ist (v1 , . . . , vn ) eine maximales linear unabhängiges Teilsystem von (v1 , . . . , vm ) und somit eine Basis des Unterraums V 0 := hv1 , . . . , vm i. Aus demselben Grund ist (w1 , . . . , wn ) eine maximales linear unabhängiges Teilsystem von (w1 , . . . , wm ) und somit eine Basis des Unterraums V 00 := hw1 , . . . , wm i. Betrachte den eindeutigen Isomorphismus f 0 : V 0 → V 00 mit f 0 (vi ) = wi für alle 1 ≤ i ≤ n. Behauptung: Für diesen gilt auch f 0 (v` ) = w` für alle 1 ≤ ` ≤ m. Betrachte dafür die Gramsche Matrix M := (gij )1≤i,j≤n := hvi , vj i 1≤i,j≤n und Pn bezeichne ihre Inverse mit M −1 = (g ij )1≤i,j≤n . Schreibe v` = i=1 ai vi mit eindeutigen ai ∈ R. Für jedes j = 1, . . . , n gilt dann hv` , vj i = n X i=1 3 ai gij , also nach Multiplikation mit g jk und anschliessendem Aufsummieren auch n n n X X X jk jk hv` , vj ig = ai gij g = ai (M M −1 )i,k = ak j=1 i,j=1 i für alle k = 1, . . . , n. Es gilt daher v` = n n X X hv` , vj ig jk vk . j=1 k=1 Da gleichzeitig M = hwi , wj i 1≤i,j≤n ist, zeigt man analog w` = n X n X hw` , wj ig jk wk . j=1 k=1 Zusammen folgt daraus unter Benutzung von hv` , vj i = hw` , wj i ! n X n X f 0 (v` ) = f hv` , vj ig jk vk = = j=1 k=1 n n XX hv` , vj ig jk f 0 (vk ) j=1 k=1 n n XX k=1 hw` , wj ig jk wk = w` , j=1 wie behauptet. Sei schliesslich f : V → V eine beliebige Fortsetzung von f 0 . Zum Beispiel wähle ein Komplement U 0 mit V = V 0 ⊕U 0 und setze f (v 0 +u0 ) := f 0 (v 0 ) für alle v 0 ∈ V 0 und alle u0 ∈ U 0 . Jede Fortsetzung hat die gewünschte Eigenschaft. 6. (Hermitesche Polynome) Sei C[x] der Vektorraum aller komplexen Polynome in einer Variablen x. (a) Zeige, dass Z ∞ (u, v) := 2 /2 u(x)v(x)e−x dx −∞ ein Skalarprodukt auf C[x] definiert. (b) Sei L : C[x] → C[x] der Endomorphismus gegeben durch L(u) := −uxx + xux , u ∈ C[x], mit ux := ∂u/∂x. Zeige, dass L selbstadjungiert bezüglich (·, ·) ist. (c) Bestimme rekursiv die Eigenwerte und Eigenvektoren von L. (Hinweis: Für jeden Eigenvektor u von L ist auch P u := −ux + xu ein Eigenvektor. Der Operator P heisst Erzeugungs-Operator für L.) 4 (d) Zeige, dass für jede natürliche Zahl n ein eindeutiges normiertes Polynom Hn existiert, welches ein Eigenvektor von L ist. Dieses heisst das n-te Hermitesche Polynom Hn . (e) Zeige für alle n die Formel n x2 /2 Hn (x) = (−1) e dn −x2 /2 e . dxn *(f) Berechne die Skalarprodukte (Hn , Hm ) für alle n, m ≥ 0. √ R∞ 2 (Hinweis: Verwende das Gauss-Integral −∞ e−x /2 dx = 2π) Lösung: (a) Aus der Analysis folgt, dass das Integral (u, v) für alle u, v ∈ C[x] endlich und somit wohldefiniert ist. Unter Verwendung der Grundeigenschaften des Integrals prüft man direkt, dass (·, ·) eine hermitesche Sesquilinearform ist. Sei u ∈ C[x] ein nicht-verschwindendes Polynom. Dann hat die zugehörige Polynomfunktion höchstens endlich viele Nullstellen, und dasselbe gilt für 2 die Funktion x 7→ |u(x)|2 e−x /2 . Da diese stetig und ≥ 0 ist, folgt ebenfalls aus der Analysis, dass ihr Integral Z ∞ 2 |u(x)|2 e−x /2 > 0 (u, u) = −∞ ist. Somit ist die Paarung (·, ·) positiv definit, also ein Skalarprodukt. (b) Behauptung (b1). Für alle u, v ∈ C[x] gilt (ux , v) = (xu, v) − (u, vx ). Beweis der Behauptung (b1). Aus partieller Integration folgt Z ∞ 2 ux (x)v(x)e−x /2 dx (ux , v) = −∞ Z ∞ ∞ −x2 /2 −x2 /2 = u(x)v(x)e − u(x) v(x)e dx. −∞ −∞ x 2 Da die Funktion x 7→ u(x)v(x)e−x /2 für x → ±∞ verschwindet, ist dieses gleich Z ∞ Z ∞ 2 −x2 /2 − u(x)vx (x)e dx+ u(x)v(x)xe−x /2 dx = −(u, vx )+(xu, v) . −∞ −∞ Für beliebige u, v ∈ C[x] folgt (L(u), v) = (−uxx + xux , v) = − (ux )x , v + (xux , v) (Beh.) = −(xux , v) + (ux , vx ) + (xux , v) = (ux , vx ) Durch Anwenden dieser Gleichung mit u und v vertauscht folgt weiter (ux , vx ) = (vx , ux ) = (L(v), u) = (u, L(v)), also ist L selbstadjungiert bezüglich (·, ·). 5 (c) Für alle n ≥ 0 definiere Polynome Hn ∈ C[x] rekursiv durch H0 := 1 Hn+1 := P Hn = −(Hn )x + xHn . (R) Behauptung. Für jedes n ≥ 0 ist Hn ein normiertes Polynom vom Grad n, das ein Eigenvektor von L zum Eigenwert n ist. Beweis. Das Polynom H0 = 1 hat Grad 0, ist normiert und ist wegen L(1) = 0 ein Eigenvektor von L zum Eigenwert 0. Die Aussage gilt also für n = 0. Angenommen die Aussage gilt für n ≥ 0. Mit ∂x = ∂/∂x gilt dann −∂x2 (Hn+1 ) = ∂x3 (Hn ) − 2∂x (Hn ) − x∂x2 (Hn ) = −∂x −∂x2 (Hn ) + x∂x (Hn ) − ∂x (Hn ) = −∂x (L(Hn )) − ∂x (Hn ) (IV) = −∂x (nHn ) − ∂x (Hn ) = (n + 1)(−∂x (Hn )) und x∂x (Hn+1 ) = −x∂x2 (Hn ) + xHn + x2 ∂x Hn = xL(Hn ) + xHn (IV) = (n + 1)xHn , also L(Hn+1 ) = −∂x2 + x∂x (Hn ) = (n + 1)Hn+1 . Somit ist Hn+1 ein Eigenvektor von L zum Eigenwert n + 1. Aus der Rekursion Hn+1 = −∂x (Hn ) + xHn und der Induktionsvoraussetzung folgt direkt, dass Hn+1 normiert vom Grad n + 1 ist. Also gilt die Aussage der Behauptung auch für n + 1. Da für jedes n das Polynom Hn normiert und vom Grad n ist, bildet die Menge {Hn }n≥0 eine Basis von C[x]. Wegen der Behauptung besitzt daher L genau die Eigenwerte Z≥0 , mit Eigenraum hHn i zum Eigenwert n ∈ Z≥0 . (d) Mit (c) ist jedes n ∈ Z≥0 ein Eigenwert von L mit zugehörigem eindimensionalen Eigenraum hHn i. Das Polynom Hn ist somit das eindeutige normierte Polynom, welches ein Eigenvektor von L zum Eigenwert n ist. (e) Wir verwenden Induktion über n. Für n = 0 gilt die Gleichung in der Aufgabe. Angenommen die Gleichung gilt für n ≥ 0. Aus der Rekursionsgleichung für Hn folgt Hn+1 = −∂x Hn + xHn 2 2 2 2 (IV) = −∂x (−1)n ex /2 ∂xn (e−x /2 ) + x (−1)n ex /2 ∂xn (e−x /2 ) 2 2 = (−1)n+1 ex /2 ∂xn+1 (e−x /2 ) , also gilt die Gleichung auch für n + 1. 6 (*f) Da L selbst-adjungiert ist, sind die Eigenräume zu verschiedenen Eigenwerten von L orthogonal. Es folgt (Hn , Hm ) = 0 für alle n 6= m. √ Behauptung. (Hn , Hn ) = 2π · n! Beweis. Für n = 0 ist die Gleichung äquivalent zu dem Gauss-Integral Z ∞ √ 2 e−x /2 dx = 2π , (H0 , H0 ) = −∞ siehe Analysis; also gilt die Aussage für n = 0. Angenommen die Aussage gilt für n ≥ 0. Aus der Rekursionsgleichung (R) und der Behauptung (b1) in Teilaufgabe (b) folgt (R) (Hn+1 , Hn+1 ) = − (Hn )x + xHn , Hn+1 = − (Hn )x , Hn+1 + xHn , Hn+1 n o (b1) = − xHn , Hn+1 − Hn , (Hn+1 )x + xHn , Hn+1 (R) = Hn , (−(Hn )x + xHn )x = Hn , −(Hn )xx + x(Hn )x + Hn , Hn ) = Hn , L(Hn ) + Hn , Hn = (n + 1) Hn , Hn √ = (n + 1) 2π · n! Also gilt die Aussage auch für n + 1. Ingesamt erhalten wir für alle n, m ≥ 0 somit Z ∞ √ 2 (Hn , Hm ) = δnm · Hn (x)2 e−x /2 dx = 2π · n! · δnm . −∞ Aliter: Um für n > 0 die Werte (Hn , Hn ) zu berechnen, kann man auch 2 wie folgt vorgehen. Durch Taylorentwicklung der Funktion ext−t /2 nach t und mit (e) erhält man die Potenzreihenentwicklung X tn 2 ext−t /2 = Hn (x) n! n≥0 mit Konvergenzradius ∞. Wegen der Orthogonalität der Hn für alle n gilt somit für jedes t ∈ R, xt−t2 /2 e xt−t2 /2 ,e ∞ X t2n = (Hn , Hn ). (n!)2 n=0 Für jedes t ∈ R ist die linke Seite Z Z ∞ 2xt−t2 −x2 /2 t2 xt−t2 /2 xt−t2 /2 e ,e = e dx = e −∞ =e t2 Z ∞ − 21 (x−2t)2 e ∞ e−x 2 +2xt−2t2 dx −∞ dx = e t2 −∞ Z ∞ e −∞ 7 − 12 x2 t2 dx = e √ ∞ X √ t2n 2π = 2π . n! n=0 Durch Vergleichen des Koeffizienten von tn erhalten wir somit Z ∞ √ 2 Hn (x)2 e−x /2 dx = 2π · n! (Hn , Hn ) = δnm · −∞ Die Hermiteschen Polynome sind wichtig für Anwendungen in der Physik. Sie tauchen zum Beispiel in der quantenmechanischen Beschreibung des harmonischen Oszillators auf, siehe: http://de.wikipedia.org/wiki/Harmonischer_Oszillator_(Quantenmechanik) 7. Sei M die Darstellungsmatrix der quadratischen Form q : R3 → R, (x1 , x2 , x3 )T 7→ x21 + 2x22 + 6x23 − 2x1 x3 + 4x2 x3 Zeige, dass M positiv definit ist und berechne ihre Cholesky-Zerlegung. Lösung: Die Matrix ist charakterisiert alle x ∈ R3 und somit gegeben durch 1 0 M= −1 durch die Gleichung q(x) = xT M x für 0 −1 2 2 . 2 6 Ihre Hauptminoren ergeben sich zu 1 0 det(1) = 1, det = 2, det(M ) = 6. 0 2 Da alle diese positiv sind, ist M positiv definit. Die Cholesky-Zerlegung von M ist nach Definition die Lösung der Matrixgleichung M = RT R durch eine reelle obere Dreiecksmatrix a11 a12 a13 R = 0 a22 a23 0 0 a33 mit Diagonaleinträgen > 0. Wir rechnen a11 a12 a13 a11 0 0 RT R = a12 a22 0 · 0 a22 a23 0 0 a33 a13 a23 a33 2 a11 a13 a11 a11 a12 = ∗ a212 + a222 a12 a13 + a22 a23 ∗ ∗ a213 + a223 + a233 wobei wir wegen der Symmetrie die Einträge unterhalb der Diagonalen ignorieren können. Durch sukzessives Auflösen erhalten wir √ a11 = 1 = 1, a12 = 0/a11 = 0, a13 = −1/a11 = −1, q √ a22 = 2 − a212 = 2, √ a23 = (2 − a12 a13 )/a22 = 2, q √ a33 = 6 − a213 − a223 = 3. 8 Also ist 1 √0 √ −1 2 √2 . R = 0 0 0 3 8. Entscheide, welche der folgenden reellen symmetrischen Matrizen positiv definit sind, und führe für diese die Matrixzerlegungen aus §9.15 der Vorlesung aus: 3 3 2 3 2 −1 −1 3 1 1 2 2 0 A := B := −1 2 1 2 1 −1 0 2 3 2 1 3 Lösung: Für beide Matrizen verwenden wir das Hauptminorenkriterium. Wegen 3 3 det A2 = det = −6 < 0 3 1 ist A nicht positiv definit. Für B berechnen wir det(B1 ) = det(2) = 6> 0, 2 1 det(B2 ) = det = 3 > 0, 1 2 det(B3 ) = det(B) = 4 > 0. Somit ist B positiv definit. Wir müssen noch eine invertierbare reelle obere Dreiecksmatrix R und eine invertierbare symmetrische reelle Matrix C finden mit B = RT R = C 2 . Um R zu finden, machen wir den Ansatz a11 a12 a13 R = 0 a22 a23 0 0 a33 mit reellen Koeffizienten aij , wobei die Diagonaleinträge > 0 sind. Durch sukzessives Auflösen der Matrixgleichung 2 a11 a11 a12 a11 a13 B = ∗ a212 + a222 a12 a13 + a22 a23 , ∗ ∗ a213 + a223 + a233 wobei wir wie in Aufgabe 8 wegen der Symmetrie von B die Einträge unterhalb der Diagonalen ignorieren können, erhalten wir √ 2, a11 = √ a12 = −1/a11 = −1/ 2, √ a13 = −1/a11 = −1/ 2, q p 2 − a212 = 3/2, a22 = p a23 = (−a12 a13 )/a22 = − 1/6, q p a33 = 2 − a213 − a223 = 4/3. 9 Also ist √ √ √ 2 −1/ 2 −1/ p 2 p R= 0 3/2 −p 1/6 . 0 0 4/3 Um C zu finden, diagonalisieren wir die Matrix B durch eine Orthonormalbasis. Das charakteristische Polynom von B ist charB (X) = X 3 − 6X 2 + 10X − 4 √ √ = (X − 2) · X − (2 + 2) · X − (2 − 2) √ √ Die Eigenräume zu den Eigenwerten 2 und 2 + 2 und 2 − 2 sind jeweils 0 −1 −1 0 0 Eig2 (B) = Kern(B − 2I3 ) = Kern −1 0 = 1 −1 0 0 −1 √ √ − 2 −1 −1 √ − 2 √ = 1 Eig2+√2 (B) = Kern(B − (2 + 2)I3 ) = Kern −1 − 2 0 √ 1 −1 0 − 2 √ √ 2 √ −1 −1 2 √ √ = Eig2− 2 (B) = Kern(B − (2 − 2)I3 ) = Kern −1 2 √0 1 . 1 −1 0 2 Da B symmetrisch ist, sind die Eigenräume zu unterschiedlichen Eigenwerten von B orthogonal. Also bilden die normalisierten Eigenvektoren √ √ 0 − 2 2 1 1 1 √ 1 , 1 , 1 2 2 2 −1 1 1 eine Orthonormalbasis von R3 , und die zugehörige Basiswechselmatrix √ √ 0√ −1/ 2 1/ 2 U := 1/√2 1/2 1/2 −1/ 2 1/2 1/2 ist orthogonal. Wir erhalten also die Diagonalisierung 2 0√ 0 0√ · U −1 . B = U · 0 2 + 2 0 0 2− 2 Setzen wir also √ 2 p 0 0 √ −1 C := U · 0 2+ 2 p 0 ·U √ 0 0 2− 2 10 so ist C symmetrisch und erfüllt C 2p = B, ist also die gesuchte Matrix. Es bleibt p √ √ √ C explizit zu berechnen. Sei α := 2 + 2. Dann ist 2 − 2 = 2/α und somit √ 2 0 0 C = U · 0 α √ 0 · U −1 0 0 2/α √ √ 0 −α/ 2 1/√ α = 1 α/2 1/(√2α) · U T −1 α/2 1/( 2α) √ √ √ 2 2 2 + α√2 1 − α / 2 1 − α / 2 √ √ √ √ 1 · = 1 − α2 /√2 1/√2 + √2α + α2 /2 1/√2 − √2α + α2 /2 . 2α 1 − α2 / 2 1/ 2 − 2α + α2 /2 1/ 2 + 2α + α2 /2 9. Sei A eine positiv-definite reelle symmetrische n × n-Matrix. (a) Ist A2 positiv definit? (b) Ist A−1 positiv definit? Lösung: Da A reell symmetrisch ist, existiert nach dem Spektralsatz eine orthogonale n × n-Matrix U , so dass D := U T AU eine Diagonalmatrix ist. Da die positiv-Definitheit unter diesem Basiswechsel invariant ist, ist auch D positiv definit. Also sind alle Diagonaleinträge von D positiv. Insbesondere ist D invertierbar, und sowohl D2 als auch D−1 sind Diagonalmatrizen mit allen Diagonaleinträgen positiv. Somit sind D2 und D−1 symmetrisch und positivdefinit. Schliesslich gilt dann A = U U T AU U T = U DU T , und somit sind auch A2 = U DU T U DU T = U D2 U T und A−1 = U D−1 U T symmetrisch und positiv definit. Beide Fragen sind daher zu beantworten mit ja. Aliter: Als positiv-definite reelle symmetrische Matrix ist A invertierbar. Für jeden Vektor 0 6= v ∈ Rn ist daher Av 6= 0 und somit v T A2 v = v T AT Av = (Av)T (Av) = kAvk2 > 0, wobei k k den Absolutbetrag zum Standardskalarprodukt auf Rn bezeichnet. Also ist A2 positiv definit. Für jeden Vektor 0 6= v ∈ Rn aber auch A−1 v 6= 0 und somit v T A−1 v = v T A−1 AA−1 v = (A−1 v)T A(A−1 v) = kA−1 vk2A > 0, wobei k kA den Absolutbetrag zu dem Skalarprodukt (v, w) 7→ v T Aw bezeichnet. Also ist A−1 positiv definit. 10. Zeige, dass jede symmetrische komplexe Matrix mit positive definitem Realteil invertierbar ist. Lösung: Schreibe die Matrix in der Form A + iB für reelle symmetrische n × n-Matrizen A und B. Dann ist A positiv definit. Nach einem Satz der Vorlesung existiert daher eine invertierbare reelle n×n-Matrix V mit A = V T V . 11 Dann ist auch (V −1 )T BV −1 reell symmetrisch. Nach dem Spektralsatz existiert darum eine orthogonale Matrix Q, so dass D := QT (V −1 )T BV −1 Q eine reelle Diagonalmatrix ist. Zusammen ist dann QT (V −1 )T (A + iB)V −1 Q = In + iD eine Diagonalmatrix mit Realteil In . Diese ist also invertierbar; und somit ist auch A + iB invertierbar. Aliter: Finde zuerst mit dem Spektralsatz eine orthogonale n × n-Matrix R, so dass RT AR eine Diagonalmatrix ist. Diese ist dann immer noch positiv definit; ihre Diagonaleinträge sind daher positiv. Sei D die aus den positiven Quadratwurzeln dieser Einträge gebildete Diagonalmatrix. Dann gilt RT AR = D2 und daher A = (R−1 )T DT DR−1 = V T V mit der invertierbaren Matrix V := DR−1 . Dann fahre fort wie oben. Aliter 2: Schreibe die Matrix in der Form A + iB für reelle symmetrische n × nMatrizen A und B. Dann ist A positiv definit, also invertierbar, und es existiert eine invertierbare symmetrische Matrix C mit A = C 2 . Folglich ist A + iB invertierbar genau dann wenn C −1 (A + iB)C −1 = In + iC −1 BC −1 = In + iB 0 invertierbar ist mit B 0 := C −1 BC −1 . Da B und C symmetrisch sind, sind es auch C −1 und B 0 . Folglich sind alle komplexen Eigenwerte von B 0 reell. Insbesondere ist −i kein Eigenwert von B 0 , und somit ist −iIn + B 0 invertierbar. Damit ist dann auch i(−iIn + B 0 ) = In + iB 0 invertierbar, und folglich auch A + iB, wie zu zeigen war. 11. Sei ε ∈ {+1, −1} und betrachte die reelle 5 × 5-Matrix 1 0 ε 0 1 0 1 0 1 0 ε 0 1 0 ε A := 0 1 0 1 0 1 0 ε 0 1. Bestimme eine orthogonale Matrix U , sodass U −1 AU Diagonalgestalt hat. Lösung: Wir erkennen, dass der (i, j)-te Eintrag in A nicht null ist genau dann, wenn i und j beide ungerade oder gerade sind. Bezeichnen wir mit (e1 , . . . , e5 ) die Standardbasis von R5 , dann hat A also in der Basis (e2 , e4 , e1 , e2 , e3 ) Blockdiagonalgestalt. Um dies als Matrixgleichung auszudrücken, 0 1 0 0 0 0 P := 1 0 0 0 0 1 0 0 0 sei 0 1 0 0 0 0 0 0 0 1 die Permutationsmatrix zur Permutation 1 7→ 3, 2 7→ 1, 3 7→ 4, 12 4 7→ 2, 5 7→ 5. Dann ist die Matrix B := 1 1 0 0 0 1 1 0 0 0 0 0 1 ε 1 0 0 ε 1 ε 0 0 1 ε 1 = P AP −1 eine Blockdiagonalmatrix. Wir diagonalisieren die einzelnen Matrixblöcke 1 ε 1 1 1 B1 := und B2 := ε 1 ε 1 1 1 ε 1 separat. Die Matrix B1 besitzt die orthogonalen Eigenvektoren (1, 1)T und (1, −1)T zu den jeweiligen Eigenwerten 2 und 0. Nach erhalten wir also die Normalisieren 1 T √1 T 2 √ Orthonormalbasis 2 (1, 1) , 2 (1, −1) von R aus Eigenvektoren von B1 . Das charakteristische Polynom der Matrix B2 ist charB2 (X) = (X − 1)3 − 3(X − 1) − 2 = X 2 (X − 3) Man berechnet die Eigenräume Eig3 (B2 ) = (1, −1, 1)T , Eig0 (B2 ) = (1, −ε, 0)T , (1, 0, −1)T . Da B2 symmetrisch ist, sind die Eigenräume zu den verschiedenen Eigenwerten orthogonal. Durch Anwenden des Gram-Schmidt-Verfahrens auf die Eigenvektoren zum Eigenwert 0, und durch Normalisierung des Eigenvektors zum Eigenwert 3, erhalten wir die Orthonormalbasis 1 1 1 √1 −1 , √1 −ε , 1 ε 2 3 2 1 0 −2 von R3 bestehend aus Eigenvektoren von B2 . Somit bilden die Vektoren 1 1 0 0 0 1 −1 0 0 0 1 , √1 0 , √1 1 , √1 1 , 1 1 √ 0 2 2 3 2 0 0 −1 −ε 2 ε 0 0 1 0 −2 eine Orthonormalbasis von R5 aus Eigenvektoren von B zu den jeweiligen Eigenwerten 2, 0, 2+ε, 0, 0. Da diese Vektoren orthonormal sind, ist die zugehörige Basiswechselmatrix 1 √ √1 0 0 0 2 2 −1 √1 √ 0 0 0 2 2 0 0 √1 √1 1/2 0 U := . 3 2 −ε ε/2 0 0 √13 √ 2 1 0 ε 0 0 √3 13 orthogonal, und nach Konstruktion gilt 2 0 0 0 0 0 0 B =U · 0 0 2+ε 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0−1 ·U . Wegen der Orthogonalität der Permutationsmatrix P ist somit 0 0 √13 √12 1/2 √1 √1 0 0 0 2 2 −ε ε/2 U := P −1 U = 0 0 √13 √ . 2 √1 √ −1 0 0 0 2 2 0 0 √13 0 ε orthogonal, und nach Konstruktion hat U −1 AU = U 0−1 (P AP −1 )U 0 = U 0−1 BU 0 Diagonalgestalt. 12. (Vergleiche Serie 16, Aufgabe 5) Sei V ein euklidischer Vektorraum der Dimension 0 < n < ∞, und sei f : V → V ein selbstadjungierter Endomorphismus mit Eigenwerten λ1 ≤ . . . ≤ λn . Zeige: hf (x), xi λ1 = min 0 6= x ∈ V , hx, xi hf (x), xi λn = max 0 6= x ∈ V . hx, xi Zeige allgemeiner das Min-Max-Prinzip: Für alle r = 1, . . . , n gilt hf (x), xi λr = min max W ⊆ V, dim W = r . x∈W r{0} hx, xi Lösung: Wir zeigen das allgemeinere Min-Max Prinzip. Da f selbstadjungiert ist, existiert eine Orthonormalbasis (v1 , . . . , vn ) von V aus Eigenvektoren von f zu den jeweiligen Eigenwerten λ1 , . . . , λn . Sei V 0 := hvr , . . . , vn i und sei W ⊂ V ein Unterraum der Dimension r. Wegen dim(V 0 ∩ W ) = dim V 0 + dim W − dim(V 0 + W ) ≥ r + (n − (r − 1)) − n =1 existiert ein nicht-verschwindendes Element x0 ∈ W ∩ V 0 . Schreiben wir x0 = Pn i=r ai vi für Koeffizienten ai ∈ R, so folgt P P P 2 h i ai λi vi , i ai vi i hf (x), xi hf (x0 ), x0 i i λ i ai P max ≥ = = ≥ λr , 2 x∈W r{0} hx, xi hx0 , x0 i hx0 , x0 i i ai 14 also, da W ⊂ V beliebig war, inf W ⊂V dim(W )=r hf (x), xi max x∈W r{0} hx, xi ≥ λr . Wir zeigen, dass das Infimum durch den Unterraum Vr := hv1 , . . . , vr i angenomP men wird. Für ein beliebiges Element x = ri=1 ai vi ∈ Vr r{0} mit Koeffizienten ai ∈ R gilt Pr Pr 2 λi a2i hf (x), xi i=1 λr ai i=1 P ≤ = λr = Pr r 2 2 hx, xi i=1 ai i=1 ai also hf (x), xi ≤ λr . x∈Vr r{0} hx, xi max Wegen dim(Vr ) = r gilt aber nach Definition des Infimum auch hf (x), xi hf (x), xi ≤ max . λr ≤ inf max W ⊂V x∈W r{0} hx, xi x∈Vr r{0} hx, xi dim(W )=r Also wird das Infimum durch Vr angenommen, und es gilt hf (x), xi hf (x), xi inf max = min = λr max W ⊂V W ⊂V x∈W r{0} hx, xi x∈W r{0} hx, xi dim(W )=r dim(W )=r 13. Seien V ein reeller Vektorraum der Dimension n und β eine nicht-ausgeartete symmetrische Bilinearform auf V mit der Signatur (p, q). Bestimme die maximale Dimension eines Unterraums U ⊂ V mit β|U ×U = 0. Lösung: Nach Voraussetzung ist n = p+q und es existiert eine geordnete Basis von V , bezüglich welcher die Darstellungsmatrix von β eine Diagonalmatrix ist mit p Diagonaleinträgen 1 und q Diagonaleinträgen −1. Schreibe diese Basis in der Form v1 , . . . , vp , w1 , . . . , wq mit β(vi , vi ) = 1 und β(wi , wi ) = −1 für alle i. Behauptung: Die gesuchte maximale Dimension ist m := min{p, q}. Betrachte zuerst einen beliebigen Unterraum U der Dimension > p. Setze U− := hw1 , . . . , wq i; aus der Dimensionsformel für Durchschnitte folgt dann dim(U ∩ U− ) = dim(U ) + dim(U− ) − dim(U + U− ) ≥ dim(U ) + dim(U− ) − dim(V ) > p + q − n = 0. Also existiert ein von Null verschiedener Vektor u ∈ U ∩ U− . Wegen u ∈ U− gilt für diesen β(u, u) < 0. Also ist β|U ×U 6= 0. Betrachte sodann einen beliebigen Unterraum U der Dimension > q. Setze U+ := hv1 , . . . , vp i und rechne dim(U ∩ U+ ) = dim(U ) + dim(U+ ) − dim(U + U+ ) ≥ dim(U ) + dim(U+ ) − dim(V ) > q + p − n = 0. 15 Also existiert ein von Null verschiedener Vektor u ∈ U ∩ U+ . Wegen u ∈ U+ gilt für diesen β(u, u) > 0. Also ist β|U ×U 6= 0. Insgesamt ist somit β|U ×U 6= 0 für jeden Unterraum U der Dimension > m. Die gesuchte maximale Dimension ist also ≤ m. Schliesslich setze ui := vi + wi für alle 1 ≤ i ≤ m. Dann gilt β(ui , ui ) = β(vi + wi , vi + wi ) = 1 + 0 + 0 − 1 = 0, und für alle 1 ≤ i, j ≤ m mit i 6= j gilt β(ui , uj ) = β(vi + wi , vj + wj ) = 0 + 0 + 0 + 0 = 0. Für beliebige Koeffizienten ai , bj ∈ R folgt dann X X m m m X m X β ai ui , bj uj = ai bj β(ui , uj ) = 0. i=1 j=1 i=1 j=1 Mit U := hu1 , . . . , um i gilt also β|U ×U = 0. Da die ui linear unabhängig sind, gilt weiter dim(U ) = m. Die gesuchte maximale Dimension ist also ≥ m. 14. Der Index einer reellen, symmetrischen n×n-Matrix A mit Eigenwerten λ1 , . . . , λk der jeweiligen Vielfachheiten m1 , . . . , mk ist definiert als X X Ind(A) := mi − mi , i:λi >0 i:λi <0 also als die Anzahl positiver minus die Anzahl negativer Eigenwerte von A, gezählt mit Vielfachheiten. Seien A und B zwei symmetrische n × n-Matrizen mit xT Ax ≤ xT Bx für alle x ∈ Rn . Zeige, dass Ind(A) ≤ Ind(B) ist. Lösung: Sei a bzw. a0 die Anzahl positiver bzw. negativer Eigenwerte von A, und sei b bzw. b0 die Anzahl positivier bzw. negativer Eigenwerte von B, jeweils gezählt mit Vielfachheiten. Sei U die Summe aller Eigenräume von A zu positiven Eigenwerten. Dann ist die Einschränkung LA |U positiv definit. Für alle x ∈ U r {0} gilt also xT Bx ≥ xT Ax > 0. Mit §9.14 der Zusammenfassung folgt b ≥ dim(U ) = a. Sei U 0 die Summe aller Eigenräume von B zu negativen Eigenwerten. Dann ist die Einschränkung LB |U 0 negativ definit. Für alle x ∈ U 0 r {0} gilt also xT Ax ≤ xT Bx < 0. Mit §9.14 der Zusammenfassung folgt a0 ≥ dim(U 0 ) = b0 . Beide Aussagen zusammen ergeben dann Ind(B) = b − b0 ≥ a − a0 = Ind(A). 15. Sei V ein endlich-dimensionaler reeller Vektorraum. (a) Zeige oder widerlege: Für jeden invertierbaren Endomorphismus f : V → V existiert ein euklidisches Skalarprodukt h , i auf V , bezüglich dem f orthogonal ist. 16 (b) Sei nun V = R3 und f = LA mit −5 4 4 A := 2 −3 −2 . −8 8 7 Finde eine 3×3-Matrix M , sodass (x, y) 7→ xT M y ein Skalarprodukt auf V ist, bezüglich welchem A orthogonal ist. Lösung: (a) Im Fall dim(V ) = 0 ist jeder Endomorphismus bezüglich dem eindeutigen Skalarprodukt auf V orthogonal; insbesondere gilt also die Aussage. Im Fall dim(V ) > 0 sei f : V → V die Linksmultiplikation mit einem Skalar λ ∈ R r {1, −1, 0}. Falls f orthogonal bezüglich einem Skalarprodukt h·, ·i ist, gilt für alle v ∈ V dann hv, vi = hf (v), f (v)i = λ2 hv, vi. Für einen Vektor v ∈ V r {0} ist wegen der Positiv-Definitheit von h·, ·i aber hv, vi > 0, folglich also λ ∈ {±1}, was ein Widerspruch ist. Die Aussage ist im Fall dim(V ) > 0 also falsch. (b) Ist h·, ·i ein Skalarprodukt, bezüglich welchem A orthogonal ist, sind die Eigenräume zu verschiedenen Eigenwerten von A orthogonal. Wir finden also zuerst die Eigenräume von A. Das charakteristische Polynom von A ist charA (X) = X 3 + X 2 − X − 1 = (X − 1) · (X + 1)2 . Weiter sind die Eigenräume zu den Eigenwerten 1 und −1 gleich 2 Eig1 (A) = Kern(A − I3 ) = −1 4 0 1 1 , 1 . Eig−1 (A) = Kern(A + I3 ) = 0 −1 Dann hat LA bezüglich der Basis 2 1 0 −1 , 1 , 1 B= 4 0 −1 die Darstellungsmatrix 1 0 0 MBB (LA ) = 0 −1 0 . 0 0 −1 17 Bezüglich dem Standardskalarprodukt auf R3 ist dies eine orthogonale Matrix. Definieren wir also ein Skalarprodukt h·, ·i auf R3 indem wir die Basis B als Orthonormalbasis deklarieren, so hat h·, ·i bezüglich B die Darstellungsmatrix I3 , und folglich ist LA orthogonal bezüglich h·, ·i. Wir müssen nur noch die Darstellungsmatrix M von h·, ·i bezüglich der Standardbasis b von R3 finden. Sei also 2 1 0 1 U := −1 1 4 0 −1 die Basiswechselmatrix MbB (idR3 ). Dann erfüllt die Darstellungsmatrix M = Mbb (h·, ·i) die Gleichung U T M U = I3 , und ist somit 26 −23 −19 21 17 . M = (U T )−1 U −1 = −23 −19 17 14 16. Seien R, S : R3 → R3 zwei nicht-triviale Drehungen um je eine Gerade durch den Ursprung. Beweise die Äquivalenz der folgenden beiden Aussagen: (a) R und S kommutieren, das heisst, es gilt RS = SR. (b) R und S haben entweder dieselbe Drehachse oder sind Rotationen um 180◦ bezüglich orthogonaler Drehachsen. Lösung: Jede nicht-triviale Drehung im R3 hat den Eigenwert 1 mit geometrischer Vielfachheit 1. Nach Voraussetzung gilt dies also für R und S. Seien vR , vS normierte Eigenvektoren von R bzw. S zum Eigenwert 1. ”(a) ⇒ (b)”: Angenommen R und S kommutieren. Dann ist nach Serie 12 Aufgabe 7a der Eigenvektor vR auch ein Eigenvektor von S zu einem Eigenwert λ ∈ R. Da S orthogonal ist, kann dieser Eigenwert nur λ = ±1 sein. Im Fall λ = 1 ist wegen der geometrischen Vielfachheit 1 des Eigenwertes 1 der Vektor vR ein Vielfaches von vS . Die Drehungen R und S haben also dieselbe Drehachse: hvR i = hvS i. Im Fall λ = −1 sind vR , vS Eigenvektoren von S zu den jeweiligen Eigenwerten −1 und 1, wegen der Orthogonalität von S sind sie also insbesondere orthogonal zueinander. Folglich haben R und S orthogonale Drehachsen. Weiter ist jetzt −1 ein Eigenwert von S, also hat S den Drehwinkel 180◦ . Schliesslich wiederholen wir die bisherigen Argumente mit vertauschten Rollen von R und S. Anwenden von Serie 12 Aufgabe 7a zeigt, dass der Eigenvektor vS von S ein Eigenvektor von R zu einem Eigenwert µ = ±1 ist. Im Fall µ = 1 wären die Drehachsen gleich, was jetzt schon ausgeschlossen ist. Also ist µ = −1, und somit hat auch R den Drehwinkel 180◦ . ”(b) ⇒ (a)”: 18 Haben R und S dieselbe Drehachse, gilt also Eig1 (R) = Eig1 (S), so haben R und S bezüglich einer Orthonormalbasis der Form b = (vR , v2 , v3 ) für Vektoren v2 , v3 ∈ R3 die Darstellungsmatrizen 1 1 cos α sin α , Mbb (S) = cos β sin β . Mbb (R) = − sin α cos α − sin β cos β mit jeweiligen Drehwinkeln α, β ∈ R. Durch direktes Rechnen folgt 1 cos(α + β) sin(α + β) = Mbb (S) · Mbb (R), Mbb (R) · Mbb (S) = − sin(α + β) cos(α + β) also R ◦ S = S ◦ R. Haben R und S orthogonale Drehachsen und beide den Drehwinkel 180◦ , dann ist −1 ein Eigenwert von R der Vielfachheit 2, also hvR i⊥ = Eig−1 (R). Es folgt vS ∈ hvR i⊥ = Eig−1 (R). Ebenso zeigt man vR ∈ hvS i⊥ = Eig−1 (S). Für ein nicht-verschwindenden Vektor b ∈ hvR , vS i⊥ folgt weiter b ∈ Eig−1 (R) und b ∈ Eig−1 (S). Also haben R und S beide bezüglich der Basis (vR , vS , b) Diagonalgestalt, und kommutieren miteinander. 17. Sei f ein Automorphismus eines endlich-dimensionalen unitären Vektorraums V . Zeige: Ist f selbstadjungiert, bzw. unitär, bzw. normal, so haben f ∗ und f −1 dieselbe Eigenschaft. ! Lösung: Nach Serie 15, Aufgabe 2d gilt stets (f −1 )∗ = (f ∗ )−1 . Zuerst sei f selbstadjungiert, nach Definition also f ∗ = f . Dann gilt (f ∗ )∗ = f ∗ ! und (f −1 )∗ = (f ∗ )−1 = f −1 ; somit sind f ∗ und f −1 selbstadjungiert. ! Sodann sei f unitär, nach Definition also f ∗ = f −1 . Dann gilt (f ∗ )∗ = (f −1 )∗ = ! (f ∗ )−1 und (f −1 )∗ = (f ∗ )−1 = (f −1 )−1 ; somit sind f ∗ und f −1 unitär. Schliesslich sei f normal, nach Definition also f ∗ ◦ f = f ◦ f ∗ . Wegen (f ∗ )∗ = f gilt dann (f ∗ )∗ ◦ f ∗ = f ◦ f ∗ = f ∗ ◦ f = f ∗ ◦ (f ∗ )∗ und ! ! (f −1 )∗ ◦f −1 = (f ∗ )−1 ◦f −1 = (f ◦f ∗ )−1 = (f ∗ ◦f )−1 = f −1 ◦(f ∗ )−1 = f −1 ◦(f −1 )∗ , somit sind f ∗ und f −1 normal. 18. Gegeben sei eine natürliche Zahl n. Beweise oder widerlege: (a) Für alle nilpotenten komplexen n × n-Matrizen A, B ist auch A + B nilpotent. (b) Für alle normalen komplexen n × n-Matrizen A, B ist auch A + B normal. 19 Lösung: Für n = 0 ist jede Matrix gleich der Nullmatrix und somit nilpotent und normal. Also gelten beide Aussagen für n = 0. Für n = 1 betrachte eine 1 × 1-Matrix A = (a) mit einem Skalar a ∈ C. Nach Definition ist A nilpotent genau dann, wenn eine Potenz Am die Nullmatrix ist. Das ist äquivalent zu am = 0, und da C ein Körper ist, zu a = 0. Eine 1 × 1Matrix ist also nilpotent genau dann, wenn sie die Nullmatrix ist. Da die Summe zweier Nullmatrizen die Nullmatrix ist, gilt die Aussage (a) im Fall n = 1. Weiter ist die Multiplikation von 1 × 1-Matrizen kommutativ. Insbesondere gilt A∗ A = AA∗ ; also ist jede komplexe 1 × 1-Matrix normal. Insbesondere gilt auch die Aussage (b) im Fall n = 1. Sei nun n = 2. Für (a) setze A := 00 10 und B := 01 00 . Dann gilt A2 = B 2 = 0; 2 also sind A und B nilpotent. Andererseits gilt (A + B)2 = 01 10 = 10 01 ; für m alle m ≥ 1 folgt daraus (A + B)2m = 10 01 = 10 01 6= 0. Also ist A + B nicht nilpotent; die Aussage (a) ist demnach falsch für n = 2. Für (b) setze A := 10 −10 und B := 0i 0i . Dann gilt A∗ = A und B ∗ = −B. Daraus folgt A∗ A = AA = AA∗ und B ∗ B = −BB = BB ∗ ; somit sind A und B normal. Andererseits ist 1 −i 1 i 2 2i ∗ (A + B) (A + B) = · = , −i −1 i −1 −2i 2 1 i 1 −i 2 −2i ∗ (A + B)(A + B) = · = . i −1 −i −1 2i 2 Da die rechten Seiten nicht gleich sind, ist also A+B nicht normal. Die Aussage (b) ist somit falsch für n = 2. Für n ≥ 2 beliebig wähle A und B wie im jeweiligen Gegenbeispiel für n = 2 und betrachte die n × n-Blockdiagonalmatrizen A O B O 0 0 A := und B := . O O O O Da eine Blockdiagonalmatrix nilpotent bzw. normal ist genau dann, wenn ihre Blockdiagonaleinträge es sind, bilden auch A0 und B 0 ein Gegenbeispiel. Fazit: Für n ≤ 1 sind beide Aussagen korrekt; für n ≥ 2 sind beide falsch. 19. Beweise oder widerlege: Jeder normale Endomorphismus eines endlich-dimensionalen unitären Vektorraums ist die Komposition eines selbstadjungierten mit einem unitären Endomorphismus. Lösung: Für jeden normalen Endomorphismus f : V → V eines endlichdimensionalen unitären Vektorraums V existiert eine Orthonormalbasis b, sodass Mbb (f ) eine Diagonalmatrix mit Diagonaleinträgen λ1 , . . . , λn ∈ C ist. Für i = 1, . . . , n schreibe λi = ri · eiϕi mit reellen Zahlen ri ∈ R≥0 und 0 ≤ ϕi < 2π. Dann ist der eindeutige Endomorphismus S (bzw. U ) mit der Darstellungsmatrix Mbb (S) = diag(r1 , . . . , rn ) bzw. Mbb (U ) = diag(eiϕ1 , . . . , diag(eiϕn ) 20 selbstadjungiert (bzw. unitär), und es gilt Mbb (S ◦ U ) = Mbb (S) · Mbb (U ) = diag(r1 eiϕ1 , . . . , rn eiϕn ) = Mbb (f ), also S ◦ U = f . Damit ist die Ausage bewiesen. 20. Wir betrachten ein korrekt ausgefüllte Sudokugitter als eine 9 × 9 Matrix S mit Einträgen in {1, 2, . . . , 9} ⊆ Z. Welche der folgenden Aussagen sind für alle, für manche, für kein S korrekt? (a) Die Zahl 45 ist ein Eigenwert von S. (b) Die Determinante von S ist durch 9 teilbar. (c) Der Vektor (1, . . . , 9)T ist ein Eigenvektor von S. *(d) Die Determinante von S ist positiv. Lösung: (a) Jede Zeile von S besteht aus den Zahlen 1 bis 9 in gewisser Reihenfolge, somit ist (1, . . . , 1)T ein Eigenvektor zum Eigenwert 1+2+. . .+9 = 45. Die Aussage ist also für alle S korrekt. (b) Da alle Einträge von S in Z liegen, gilt dasselbe auch für die Determinante. Die Aussage ist also wohldefiniert. Addieren wir die anderen Zeilen zur ersten, so steht in der ersten Zeile (45, 45, . . . , 45). Somit ist 45 ein Teiler von det(S). Die Aussage ist also für alle S korrekt. Bemerkung. Dividieren wir die erste Zeile durch 45 und addieren weiter alle anderen Spalten zur ersten, so erhalten wir die erste Spalte (9, 45, . . . , 45)T . Folglich ist die Determinante sogar durch 9 · 45 = 405 teilbar. (c) Die Summe jeder Spalte der Matrix Se := S/45 ist 1, und alle Einträge sind > 0, also ist Se eine Markovmatrix. Mit Aufgabe 16 der Wiederholungsserie I hat daher jeder komplexe Eigenwert von Se Betrag ≤ 1, also hat jeder komplexe Eigenwert von S Betrag ≤ 45. Angenommen v := (1, . . . , 9)T ist ein Eigenvektor von S zu einem Eigenwert λ, und sei (a1 , . . . , a9 ) die erste Zeile von S. Wegen ai ≥ 1 für alle i und aj > 1 für ein 1 ≤ j ≤ 9, folgt aus dem Vergleichen des ersten Eintrages von Sv = λv dann n X X T λ = (a1 , . . . , an ) · (1, . . . , 9) = iai > i = 45, i=1 i was ein Widerspruch ist. Also ist (1, . . . , 9)T kein Eigenvektor von S. Die Aussage ist also für kein S korrekt. (c) Falls S eine Sudokumatrix mit positiver Determinante ist, erhält man durch Vertauschen der zwei ersten Zeilen wieder eine Sudokumatrix, deren Determinante gleich − det(S), also negativ ist. Daher kann det(S) nicht immer positiv sein. Um zu überprüfen ob die Aussage manchmal oder nie gilt, müssen wir entscheiden ob eine Sudokumatrix mit positiver Determinante existiert. Wählen wir 21 zum Beispiel S := 1 4 7 2 5 8 3 6 9 2 5 8 3 6 9 4 7 1 3 6 9 4 7 1 5 8 2 4 7 1 5 8 2 6 9 3 5 8 2 6 9 3 7 1 4 6 9 3 7 1 4 8 2 5 7 1 4 8 2 5 9 3 6 8 2 5 9 3 6 1 4 7 9 3 6 1 4 7 2 5 8 , so folgt durch direktes Rechnen (für welches es sich anbietet einen Computer zu verwenden) det(S) = −316 · 5 = −215233605. Durch Vertauschen der ersten beiden Zeilen in S erhält man somit eine Sudokumatrix mit positiver Determinante. Die Aussage ist also manchmal wahr. Bemerkung. Nicht jede Sudokumatrix ist invertierbar. Zum Beispiel gilt 6 5 3 9 4 7 8 1 2 9 8 7 1 6 2 4 3 5 4 2 1 3 5 8 6 7 9 5 3 8 4 2 6 1 9 7 = 0, 5 9 1 3 8 6 2 7 4 det 1 9 6 7 8 3 2 5 4 8 6 5 2 1 9 7 4 3 3 1 9 6 7 4 5 2 8 7 4 2 8 3 5 9 6 1 siehe auch http://math.stackexchange.com/questions/873709/ . 21. Für welche reellen Zahlen a und b existiert eine reelle 2 × 2-Matrix A mit a 0 20 A = ? 0 b Lösung: Nimm an, es gebe eine solche Matrix A.Trigonalisiere sie über C, das u ∗ für gewisse u, v ∈ C. Dann heisst, wähle U ∈ GL2 (C) mit U −1 AU = 0 v 20 u ∗ −1 20 −1 20 ist U A U = (U AU ) = . Das charakteristische Polynom von 0 v 20 A ist also gleich (X − u20 )(X − v 20 ). Nach Voraussetzung ist es aber auch gleich (X − a)(X − b). Deshalb sind u20 , v 20 gleich a, b bis auf die Reihenfolge. Sind u, v ∈ R, so gilt u20 , v 20 ≥ 0, also auch a, b ≥ 0. Andernfalls ist u = v und somit a = b. Da aber b reell ist, folgt daraus a = b. Eine notwendige Bedingung für die Existenz von A ist also a, b ≥ 0 oder a = b. Wir zeigen, dass diese Bedingung auch hinreicht. Sind a, b ≥ 0, so tut es zum √ 20 a 0 Beispiel die Matrix A := 0 20√b . Sei nun also a = b < 0. Wir erinnern uns 22 an den Ringhomomorphismus k : C → Mat2×2 (R), x + iy 7→ x −y . y x Betrachte die Matrix p p cos(2π/40) − sin(2π/40) 20 2πi/40 A := k = |a| · e |a| · . sin(2π/40) cos(2π/40) 20 Wegen der Multiplikativität von k gilt dann 20 A = k p 20 2πi/40 20 |a|·e 40πi/40 = k |a|·e a 0 = k(−|a|) = k(a) = , 0 a wie gewünscht. Also ist die Bedingung hinreichend. 22. Für welche der erfüllt? 0 (a) X 3 = 1 2 folgenden Gleichungen existiert eine reelle Matrix X, die sie 0 0 0 0 3 0 3 5 0 (b) 2X 5 + X = 5 1 9 0 9 0 0 −1 6 4 (c) X + 2X + 10X = 1 0 3 4 0 4 (d) X = 0 3 0 0 0 −3 Lösung: (a) Ist X eine reelle Matrix mit 0 0 0 X 3 = 1 0 0 , 2 3 0 dann gilt X 9 = (X 3 )3 = 0 und somit ist X nilpotent. Dann hat aber X das charakteristische Polynom charX (t) = t3 (siehe Zusammenfassung §8.9) und folglich ist X 3 = 0, was ein Widerspruch ist. Also erfüllt keine reelle Matrix die Gleichung. (b) Betrachte die symmetrische Matrix 3 5 0 B := 5 1 9 . 0 9 0 23 Aus dem Spektralsatz für selbstadjungierte Endomorphismen folgt, dass eine eine invertierbare Matrix U und λ1 , λ2 , λ3 ∈ R existieren mit λ1 0 0 U −1 BU = 0 λ2 0 . 0 0 λ3 Da U invertierbar ist, ist die Gleichung 2X 5 + X = B äquivalent zu 2(U −1 XU )5 + U −1 XU = U −1 (2X 5 + X)U = U −1 BU, mit Y = U −1 XU also äquivalent zu λ1 0 0 2Y 5 + Y = 0 λ2 0 . 0 0 λ3 Machen wir den Ansatz µ1 0 0 Y = 0 µ2 0 0 0 µ3 mit Koeffizienten µ1 , µ2 , µ3 ∈ R, so ist die Gleichung 2Y 5 + Y = diag(λ1 , λ2 , λ3 ) äquivalent zu 2µ5i + µi = λi für i = 1, 2, 3. Da der höchste Grad im Polynom 2X 5 + X ungerade ist, ist die Abbildung R → R, x 7→ 2x5 + x surjektiv, und somit existiert für jedes λi ∈ R ein µi ∈ R5 mit 2µ5i + µi . Wählen wir ein solches für i = 1, 2, 3, so erfüllt Y = diag(µ1 , µ2 , µ3 ) die betrachtete Gleichung. Die Matrixgleichung der Aufgabe hat also eine Lösung. (c) Wir erinnern uns an den injektiven Ringhomomorphismus x −y κ : C → Mat2×2 (R), x + iy 7→ . y x Da jedes nicht-konstante komplexe Polynom eine komplexe Nullstelle besitzt, existiert ein z ∈ C mit z 6 + 2z 4 + 10z = i. Es folgt 6 4 κ(z) + 2κ(z) + 10κ(z) = 0 −1 , 1 0 also löst κ(z) die gegebene 3 (d) Die Matrix Y := 0 0 Matrixgleichung. 4 0 3 0 hat den Eigenwert −3 mit geometrischer 0 −3 0 Vielfachheit 1 und dem zugehörigen Eigenvektor v := 0. Angenommen es 1 4 existiert eine reelle Matrix X mit X = Y . Dann ist Y Xv = X 5 v = X(X 4 v) = XY v = −3Xv, 24 also liegt Xv im Eigenraum von Y zum Eigenwert −3, und somit ist Xv = λv für ein λ ∈ R. (Siehe auch Serie 12 Aufgabe 7a.) Es folgt −3v = Y v = X 4 v = λ4 v, also λ4 = −3 was unmöglich ist. Also besitzt die Gleichung keine Lösung. 23. Was sind die Möglichkeiten für den Rang einer reellen 7 × 7-Matrix mit Minimalpolynom X 2 ? Lösung: Der einzige normierte irreduzible Faktor des Minimalpolynoms ist X. Dies entspricht dem Eigenwert 0. Also ist die Jordannormalform der Matrix eine Blockdiagonalmatrix mit Blockdiagonaleinträgen der Form 0 1 0 ... 0 ... . . . . . . . . . ... . ... ... .. Nj := der Grösse j × j 0 . . .. 1 .. 0 ... ... ... 0 für gewisse j ≥ 1. Nach der Definition des Minimalpolynoms gilt A2 = 0. Für alle j ≥ 3 ist aber Nj2 6= 0; somit können nur Jordanblöcke der Form N1 und N2 auftreten. Nach der Minimalität des Minimalpolynoms ist andererseits A 6= 0. Wegen N1 = 0 und N2 6= 0 muss daher mindestens ein Block der Form N2 in der Jordannormalform von A auftreten. Die Anzahl der Jordanblöcke der Form N2 ist also eine Zahl a ≥ 1. Die Anzahl der Jordanblöcke der Form N1 ist dann gleich 7 − 2a ≥ 0. Die möglichen Werte sind also a = 1, 2, 3. Der Rang der Matrix ist nun gleich a · Rang(N2 ) + (7 − 2a) · Rang(N1 ) = a · 1 + (7 − 2a) · 0 = a. Die Möglichkeiten für den Rang sind also genau 1, 2, 3. 24. Sei K ein Körper. Bestimme alle natürlichen Zahlen n, so dass die JordanNormalform jedes Endomorphismus eines n-dimensionalen K-Vektorraums durch das charakteristische Polynom zusammen mit dem Minimalpolynom bereits eindeutig bestimmt ist. Lösung: Für jedes n ≥ 4 betrachte 0 0 0 Ax := 0 0 .. . die n × n-Blockdiagonalmatrix 1 0 0 0 ··· 0 0 0 0 ··· 0 0 x 0 ··· 0 0 0 0 ··· 0 0 0 0 ··· .. .. .. .. . . . . . . . Für jedes x ∈ {0, 1} ist sie in Jordanscher Normalform, und zwar mit 1 + x Jordanblöcken der Form 00 10 sowie n − 2 − 2x Jordanblöcken der Form (0). In beiden Fällen ist das charakteristische Polynom gleich X n und das Minimalpolynom gleich X 2 , die Jordan-Normalformen sind jedoch nicht äquivalent. Die zu 25 den Matrizen A0 und A1 assoziierten Endomorphismen bilden also Gegenbeispiele zu der gewünschten Eigenschaft. Die Eigenschaft ist also für jedes n ≥ 4 verletzt. Wir zeigen nun, dass für jedes n ≤ 3 die gewünschte Eigenschaft erfüllt ist. Sei also f ein beliebiger Endomorphismus eines K-Vektorraums der Dimension n ≤ 3. Durch Induktion können wir voraussetzen, dass die Aussage bereits für jeden Endomorphismus eines K-Vektorraums der Dimension < n gilt. Besitzt der Endomorphismus mehrere Haupträume, so entspricht die Hauptraumzerlegung der Zerlegung des charakteristischen Polynoms wie des Minimalpolynoms in Potenzen verschiedener normierter irreduzibler Faktoren, welche jeweils das charakteristische Polynom bzw. das Minimalpolynom des von f induzierten Endomorphismus des Hauptraums sind. Nach Induktionsvoraussetzung ist die Jordannormalform dann in jedem Hauptraum schon durch das charakteristische und das Minimal-Polynom bestimmt, also ist sie insgesamt durch das charakteristische und das Minimal-Polynom bestimmt, wie gewünscht. Wir können also annehmen, dass der Endomorphismus höchstens einen Hauptraum, sagen wir zum normierten irreduziblen Polynom p(X) ∈ K[X], besitzt. Das Minimalpolynom von f ist dann gleich p(X)r für ein r ≥ 0. Ist r = 0, so muss 0 = p(f )0 = idV sein, also V = 0. In diesem Fall gibt es überhaupt nur einen Endomorphismus; der ist schon in Jordannormalform und hängt von nichts mehr ab; also ist die fragliche Bedingung in diesem Fall erfüllt. Ist r = 1, so ist die Begleitmatrix von p(X) die einzige Möglichkeit für die Jordanblöcke von f . Die Anzahl dieser Blöcke ist dann auch durch n = dim(V ) bestimmt; die fragliche Bedingung ist somit auch in diesem Fall erfüllt. Ist r ≥ 2, so gibt es wegen 3 ≥ n = dim(V ) ≥ deg(p(X)r ) = r · deg(p(X)) nur die Möglichkeiten (r, n) ∈ {(2, 2), (2, 3), (3, 3)} mit deg(p(X)) = 1. Im Fall (r, n) = (2, 2) gibt es genau einen Jordanblock der Grösse 2 × 2 und sonst keinen, also ist die Jordannormalform eindeutig bestimmt. Im Fall (r, n) = (2, 3) gibt es je einen Jordanblock der Grössen 2 × 2 und 1 × 1 und sonst keine, also die Jordannormalform ebenfalls eindeutig bestimmt. Im Fall (r, n) = (3, 3) gibt es genau einen Jordanblock der Grösse 3 × 3 und sonst keinen, also ist die Jordannormalform ebenfalls eindeutig bestimmt. Fazit: Die natürlichen Zahlen mit der gewünschten Eigenschaft sind, unabhängig vom Körper K, genau die Zahlen 0, 1, 2, 3. 25. Wir betrachten alle reellen symmetrischen 3×3-Matrizen, welche −1 1 1 0 , v2 := 0 , v3 := 1 v1 := 1 1 1 als Eigenvektoren besitzen. (a) Was lässt sich über die Eigenwerte λi zu vi aussagen? (b) Gib eine Parametrisierung der Menge aller dieser Matrizen. 26 Lösung: (a) Alle Eigenwerte einer symmetrischen Matrix sind reell, und die Eigenräume zu verschiedenen Eigenwerte sind orthogonal. Da v2 und v3 nicht orthogonal zueinander sind, muss somit λ2 = λ3 gelten. Wir behaupten, dass dies die einzigen Einschränkungen an die Eigenwerte sind. Genauer zeigen wir, dass für alle λ, µ ∈ R eine symmetrische Matrix mit Eigenvektoren v1 , v2 , v3 zu den jeweiligen Eigenwerten λ, µ, µ existiert. Da die Vektoren v1 , v2 , v3 eine Basis von R3 bilden, ist die Matrix durch diese Eigenwerte dann auch eindeutig bestimmt. Die Eindeutigkeit hilft uns bei der Konstruktion und gibt uns gleichzeitig die Lösung von (b). Zunächst überführen wir die gegebene Basis in eine Orthonormalbasis. Sei dafür v20 , v30 eine Orthonormalbasis des Erzeugnisses hv2 , v3 i, also zum Beispiel 0 1 1 v20 := 1 , v30 := √ 0 , 2 1 0 und sei v10 = √12 (−1, 0, 1)T die Normalisierung von v1 . Dann bilden die Vektoren (v10 , v20 , v30 ) eine Orthonormalbasis von R3 ; folglich ist die Matrix −1 √0 1 1 U=√ 0 2 0 2 1 0 1 orthogonal. Somit ist für λ Aλ,µ = U · 0 0 jedes λ, µ ∈ R die Matrix λ+µ 0 −λ + m 0 0 1 2µ 0 µ 0 · U −1 = 0 2 −λ + µ 0 λ+µ 0 µ symmetrisch und besitzt die Eigenvektoren v1 , v2 , v3 zu den jeweiligen Eigenwerten λ, µ, µ. (b) Nach obiger Rechnung ist es die Menge aller Matrizen λ+µ 0 −λ + m 1 0 2µ 0 2 −λ + µ 0 λ+µ für alle λ, µ ∈ R. 1 4 0 0 −1 −3 0 0 0 2 1 26. Seien A = 0 0 0 1 3 0 0 −1 −2 0 8 6 0 −12 −9 0 und B = 0 0 9 1 6 1 6 4 0 0 0 0 3 0 0 −8 0 −4 0 0 0 . 12 6 Bestimme die Jordansche Normalform von A und von B, sowie zugehörige Jordan-Basen von R5 . 27 Lösung: (A) Wir bestimmen die Jordansche Normalform von A, indem wir die Jordansche Normalform der einzelnen Blöcke 2 1 0 1 4 3 1 A1 := , A2 := 1 −1 −3 −1 −2 1 bestimmen. (A1) Die Matrix A1 hat das characteristische Polynom charA1 (X) = X 2 + 2X + 1 = (X + 1)2 , also ist −1 der einzige Eigenwert von A1 . Wegen A1 + I2 = −12 −24 6= 0 hat A1 genau einen Jordanblock zum Eigenwert −1 der Grösse 2×2. Sei v1 ein beliebiger Vektor der nicht in Kern(A1 + I2 ) liegt, also zum Beispiel v1 := (1, 0)T . Dann bildet (A1 v1 , v1 ) = (2, −1)T , (1, 0)T eine Jordanbasis von R2 zu A1 . (A2) Das charakteristische Polynom von A2 ist charA2 (A) = X 3 − 6X 2 + 12X − 8 = (X − 2)3 , also ist 2 der einzige Eigenwert. Wir haben 0 1 0 1 1 1 1 1 , (A2 − 2I3 )2 = 0 0 0 A2 − 2I3 = 1 −1 −2 −1 −1 −1 −1 und (A−2I3 )k = 0 für alle k ≥ 3. Die Matrix A2 hat also einen 3×3-Jordanblock zum Eigenwert 2. Sei w1 ∈ R3 r Kern((A − 2I3 )2 ) beliebig, also zum Beispiel sei w1 := (1, 0, 0)T . Dann ist (A2 − I3 )2 w1 , (A2 − I3 )w1 , w1 = (1, 0, −1)T , (0, 1, −1)T , (1, 0, 0)T eine Jordanbasis von A2 . Wir schliessen, dass A die Jordansche −1 1 0 −1 0 0 0 0 0 0 Normalform 0 0 2 0 0 besitzt mit der zugehörigen Jordanbasis 2 1 0 −1 0 0 0 , 0 , 1 , 0 0 0 0 0 −1 28 0 0 1 2 0 0 0 0 1 2 0 0 0 , 1 −1 0 0 1 . 0 0 (B) Durch Spaltenentwicklung entlang der dritten Spalte erhalten wir das charakteristische Polynom X −8 −6 0 0 0 12 X −9 0 0 0 0 X −3 0 0 charB (X) = det 0 −9 −6 0 X + 8 −12 −6 −4 0 4 X −6 X − 8 −6 0 0 12 X +9 0 0 = (X − 3) · det −9 −6 X + 8 −12 −6 −4 4 X −6 X − 8 −6 X + 8 −12 = (X − 3) · det · det 12 X +9 4 X −6 = (X − 3) · (X 2 + X) · (X 2 + 2X) = (X − 3)(X + 1)(X + 2)X 2 . Folglich hat B die Eigenwerte −2, −1, 0 und 3. Da die Eigenwerte −2, −1 und 3 mit geometrischer Vielfachheit 1 auftreten, haben die zugehörigen Jordan-Blöcke Grösse 1. Es genügt deshalb, die zugehörige Eigenvektoren bzw. Eigenräume zu bestimmen. Wir erhalten Eig−2 (B) = h(0, 0, 0, 2, 1)T i Eig−1 (B) = h(2, −3, 0, 0, 0)T i Eig3 (B) = h(0, 0, 1, 0, 0)T i Wir betrachten die Eigenwert 0. Wir haben −8 −6 0 12 9 0 0 9 B2 = 0 0 0 0 0 0 0 0 0 0 0 0 0 16 −24 8 −12 und Kern(B) = span (0, 0, 0, 3, 2)T . HauX (B) = Kern(B 2 ) = span (3, −4, 0, 0, 0)T , (0, 0, 0, 3, 2)T . Sei w ∈ Kern(B 2 ) r Kern(B) beliebig, sei zum Beispiel w := (3, −4, 0, 0, 0)T . Dann bildet (Bw, w) = (0, 0, 0, 3, 2)T , (3, −4, 0, 0, 0)T eine Jordanbasis des Hauptraums HauX (B). Wir schliessen, dass B die Jordansche Normalform −2 0 0 0 0 0 −1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 3 29 mit der zugehörigen Jordanbasis 0 2 0 −3 0 , 0 , 2 0 1 0 0 0 0 , 3 2 3 −4 0 , 0 0 0 0 1 0 0 besitzt. 27. Seien f und g Endomorphismen eines endlich-dimensionalen Vektorraums V . Zeige, dass die Endomorphismen f g und gf dasselbe charakteristische Polynom haben. Lösung: Wähle eine geordnete Basis (v1 , . . . , vr ) von Kern(f ) und erweitere sie zu einer geordneten Basis B := (v1 , . . . , vn ) von V . Die Vektoren wi := f (vi ) für alle r < i ≤ n bilden dann eine geordnete Basis von Bild(f ). Erweitere diese zu einer geordneten Basis B 0 := (w1 , . . . , wn ) von V . Die zugehörige Darstellungsmatrix von f ist dann die folgende Blockmatrix mit s := n − r: O O MB 0 B (f ) = . O Is Schreibe die Darstellungsmatrix von g bezüglich der vertauschten Basen ebenfalls in Blockform: A B . MBB 0 (g) = C D Die zusammengesetzten Endomorphismen haben dann die Darstellungsmatrizen O O A B O B · . MBB (gf ) = MBB 0 (g) · MB 0 B (f ) = = C D O Is O D MB 0 B 0 (f g) = MB 0 B (f ) · MBB 0 (g) = O O O Is A B O O · = . C D C D Die charakteristische Polynome dieser Blockdreiecksmatrizen hängen von den Einträgen ausserhalb der Blockdiagonale, also von B bzw. C, nicht ab. Sie sind also beide gleich dem charakteristischen Polynom der Blockmatrix O O , O D und somit sind sie untereinander gleich. Aliter: Wegen der Funktorialität von Altr und wegen Spur(F ◦G) = Spur(G◦F ) für alle Endomorphismen F, G eines endlich-dimensionalen Vektorraums gilt Spur(Altr (f ◦ g)) = Spur(Altr (f ) ◦ Altr (g)) = Spur(Altr (g) ◦ Altr (f )) = Spur(Altr (g ◦ f )) 30 für alle r ≥ 0, also mit n = dim(V ) und Serie 23 Aufgabe 1 somit charf ◦g (X) = n X (−1)r Spur(Altr (f ◦ g))X n−r r=0 = n X (−1)r Spur(Altr (g ◦ f ))X n−r r=0 = charg◦f (X) . 28. Betrachte zwei K-Vektorräume V , W sowie einen Unterraum V 0 ⊂ V . (a) Konstruiere einen natürliche injektiven Homomorphismus V 0 ⊗K W ,→ V ⊗K W. Identifiziere V 0 ⊗K W mit seinem Bild. (b) Konstruiere einen natürlichen Isomorphismus (V ⊗K W )/(V 0 ⊗K W ) ∼ = (V /V 0 ) ⊗K W. Lösung: Nach Definition von V ⊗K W ist die Abbildung V × W → V ⊗K W , (v, w) 7→ v ⊗ w bilinear. Somit ist auch ihre Einschränkung V 0 × W → V ⊗K W bilinear. Nach Definition von V 0 ⊗K W existiert also eine eindeutige lineare Abbildung i, für die das folgende Diagramm kommutiert: (v, w) _ v ⊗0 w V0×W V 0 ⊗K W / i / V ×W V ⊗K W (v, w) _ v⊗w Dabei bezeichnen wir das Bild eines Paars (v, w) ∈ V 0 × W in V 0 ⊗K W mit v ⊗0 w, zur Unterscheidung von seinem Bild v ⊗ w in V ⊗K W . Die Abbildung i ist natürlich, das heisst, sie hängt von keiner Wahl ab. Nun wählen wir aber eine Basis B 0 von V 0 und erweitern sie zu einer Basis B von V . Ausserdem wählen wir eine Basis C von W . Dann bilden die Elemente b ⊗ c für alle (b, c) ∈ B × C eine Basis von V ⊗K W . Andererseits bilden die Elemente b ⊗0 c für alle (b, c) ∈ B 0 × C eine Basis von V 0 ⊗K W . Für diese gilt aber nach Konstruktion i(b ⊗0 c) = b ⊗ c; somit bildet i eine Basis von V 0 ⊗K W bijektiv auf eine Teilmenge einer Basis von V ⊗K W ab. Daher ist i injektiv, und (a) ist gegeigt. Aliter: Die Inklusionsabbildung ι : V 0 ,→ V , v 0 7→ v ist linear. Also haben wir eine eindeutige lineare Abbildung i := ι ⊗ idW : V 0 ⊗K W → V ⊗K W mit i(v ⊗0 w) = v ⊗ w für alle (v, w) ∈ V 0 × W . Fahre weiter wie oben. (b) Die kanonische Abbildung π : V V /V 0 , v 7→ v + V 0 ist linear. Also haben wir eine eindeutige lineare Abbildung ρ := π ⊗ idW : V ⊗K W → (V /V 0 ) ⊗K W mit ρ(v ⊗ w) = (v + V 0 ) ⊗ w für alle (v, w) ∈ V × W . 31 Wähle Basen B 0 , B, C wie oben. Dann bilden die Elemente π(b) = b+V 0 für alle b ∈ B 00 := B r B 0 eine Basis von V /V 0 . Somit bilden die Elemente (b + V 0 ) ⊗ c für alle (b, c) ∈ B 00 × C eine Basis von (V /V 0 ) ⊗K W . Der Klarheit wegen setze B̃ := {b ⊗ c | (b, c) ∈ B × C}, B̃ 0 := {b ⊗ c | (b, c) ∈ B 0 × C}, B̃ 00 := {b ⊗ c | (b, c) ∈ B 00 × C}. Dann ist B̃ eine Basis von V ⊗K W und B̃ 0 eine Basis des Unterraums V 0 ⊗K W , · und es gilt B̃ = B̃ 0 ∪ B̃ 00 . Nach Konstruktion gilt für alle (b, c) ∈ B × C ( (b + V 0 ) ⊗ c falls b ∈ B 00 , ρ(b ⊗ c) = 0 falls b ∈ B 0 , da dann π(b) = 0 ist. Also bildet ρ die Basis B̃ 0 von V 0 ⊗K W auf 0, aber die Basis B̃ 00 eines Komplements bijektiv auf eine Basis von (V /V 0 ) ⊗K W ab. Deshalb ist ρ surjektiv mit Kern V 0 ⊗K W . Nach Serie 22 Aufgabe 4d induziert ρ somit den gewünschten Isomorphismus. Da schliesslich ρ von keiner Wahl abhängt, sind ρ und der so gefundene Isomorphismus natürlich. 29. Seien V ein endlichdimensionaler Vektorraum und p eine natürliche Zahl. Ein Vp V der Form v1 ∧ . . . ∧ vp für Vektoren v1 , . . . , vpV∈ V heisst rein. Element von Betrachte ein beliebiges nicht-verschwindendes Element α ∈ p V . Zeige: Der Kern der Abbildung ^p+1 fα : V → V, v 7→ v ∧ α hat Dimension ≤ p, und es gilt Gleichheit genau dann, wenn α rein ist. Lösung: Sei (e1 , . . . , en ) eine Basis von V , sodass (e1 , . . . , ek ) eine Basis von Kern(fα ) ist für ein 0 ≤ k ≤ n. Die induzierte Basis von Λp V besteht dann aus ei1 ∧ . . . ∧ eip für alle 1 ≤ i1 < . . . < ip ≤ n. Folglich existieren eindeutige Koeffizienten αi1 ,...,ip ∈ R mit α= X αi1 ...ip ei1 ∧ . . . ∧ eip . 1≤i1 <...<ip ≤n Für jedes j ∈ {1, . . . , n} sind die Vektoren e j ∧ e i1 ∧ . . . ∧ e ip für alle 1 ≤ i1 < . . . < ip ≤ n mit j ∈ / {i1 , . . . , ip } bis auf Vorzeichen Teil der von (e1 , . . . , en ) induzierten Basis von ∧p+1 V , also insbesondere linear unabhängig. Für jedes j ∈ {1, . . . , k} gilt X 0 = ej ∧ α = αi1 ...ip ej ∧ ei1 ∧ . . . ∧ eip , 1≤i1 <...<ip ≤n j ∈{i / 1 ,...,ip } 32 mit der linearen Unabhängigkeit von {ej ∧ ei1 ∧ . . . ∧ eip }j ∈{i / 1 ,...,ip } also αi1 ...ip = 0 für alle 1 ≤ i1 < . . . < ip ≤ n mit j ∈ / {i1 , . . . , ip }. Kontrapositiv gesagt bedeutet dies j ∈ {i1 , . . . , ip } für alle 1 ≤ i1 < . . . < ip ≤ n mit αi1 ...ip 6= 0. Da j ∈ {1, . . . , k} beliebig war, gilt also {1, . . . , k} ⊂ {i1 , . . . , ip } für alle 1 ≤ i1 < . . . < ip ≤ n mit αi1 ...ip 6= 0. Wegen α 6= 0 gibt es mindestens ein solches αi1 ...ip 6= 0, und für dieses folgt dim Kern(fα ) = k ≤ p, die erste zu beweisende Aussage. Andererseits haben wir jetzt α = e1 ∧ . . . ∧ ek ∧ η für ein η ∈ Λp−k V r {0}. Ist k = p, dann ist η ∈ Λ0 V = K ein Skalar, also α = (ηv1 ) ∧ . . . ∧ vp rein. Sei schliesslich umgekehrt α = v1 ∧ . . . ∧ vp ∈ ∧p V ein nicht-verschwindendes reines Element. Nach Serie 25, Aufgabe 2 c sind die Vektoren v1 , . . . , vp dann linear unabhängig. Nach Serie 25, Aufgabe 3 ist weiter Kern(fα ) = hv1 , . . . , vp i, also gilt dim Kern(fα ) = p, was zu zeigen war. 30. Betrachte eine 4 × 2-Matrix M = (mij )1≤i≤4, 1≤j≤2 und bezeichne ihre 2 × 2mi1 mi2 Minoren mit Mij := det m für alle 1 ≤ i < j ≤ 4. j1 mj2 Existiert eine reelle 4 × 2-Matrix M mit (M12 , M13 , M14 , M23 , M24 , M34 ) gleich (a) (2, 3, 4, 5, 6, 7) ? (b) (3, 4, 5, 6, 7, 8) ? (c) (1, 5, 3, 3, 2, 1) ? (Hinweis: Rechne in Λ2 R4 !) Lösung: Sei (e1 , e2 , e3 , e4 ) die Standardbasis von R4 . Ist M = (v1 v2 ) mit v1 , v2 ∈ R4 eine 4×2-Matrix mit Minoren 2×2-Minoren Mij für 1 ≤ i < j ≤ 4, so folgt aus direktem Nachrechnen X v1 ∧ v2 = Mij ei ∧ ej . 1≤i<j≤4 Umgekehrt ist jedes reine äussere Produkt α ∈ ∧2 R4 von dieser Form. Wir müssen also prüfen ob die Elemente (a) α1 := 2e1 ∧ e2 + 3e1 ∧ e3 + 4e1 ∧ e4 + 5e2 ∧ e3 + 6e2 ∧ e4 + 7e3 ∧ e4 (b) α2 := 3e1 ∧ e2 + 4e1 ∧ e3 + 5e1 ∧ e4 + 6e2 ∧ e3 + 7e2 ∧ e4 + 8e3 ∧ e4 (c) α3 := 1e1 ∧ e2 + 5e1 ∧ e3 + 3e1 ∧ e4 + 3e2 ∧ e3 + 2e2 ∧ e4 + 1e3 ∧ e4 33 rein sind. Nach Serie 25, Aufgabe 5b ist ein Element α ∈ ∧2 R4 rein genau dann, wenn α2 = 0 ist. Wir rechnen α1 ∧ α1 = 2 · 2 · 7 · (e1 ∧ e2 ) ∧ (e3 ∧ e4 ) + 3 · 6 · (e1 ∧ e3 ) ∧ (e2 ∧ e4 ) + 4 · 5 · (e1 ∧ e4 ) ∧ (e2 ∧ e3 ) = 2 · 2 · 7 − 3 · 6 + 4 · 5 e1 ∧ e2 ∧ e3 ∧ e4 = 32 · e1 ∧ e2 ∧ e3 ∧ e4 6= 0 α2 ∧ α2 = 2 · 3 · 8 − 4 · 7 + 5 · 6 e1 ∧ e2 ∧ e3 ∧ e4 = 52 · e1 ∧ e2 ∧ e3 ∧ e4 6= 0 α3 ∧ α3 = 2 · (1 − 10 + 9) · e1 ∧ e2 ∧ e3 ∧ e4 = 0 . Also existiert eine 4 × 2-Matrix mit den angegeben Minoren im Fall (c), aber nicht in den Fällen (a) und (b). 31. Zeige: Für je zwei K-Vektorräume V und W und für jedes k ≥ 0 gibt es einen natürlichen Isomorphismus ^i ^j ^k V ⊗ W ∼ (V W ) . = i+j=k Lösung: Seien ιV : V → V W, v 7→ (v, 0) und ιW : W → V W, w 7→ (0, w) die natürlichen Inklusionen. Für jedes i + j = k betrachte die Abbildung ×j ^k (ι×i V ,ιW ) κ ϕij : V × W −−−−−→ V W )k −−→ (V W ), i j wobei κ die universelle alternierende Abbildung bezeichnet. Da κ alternierend ist, gilt für alle v1 , . . . , vi ∈ V und w1 , . . . , wj ∈ W ϕij (v1 , . . . , vi , w1 , . . . , wj ) = sgn(σ)ϕij (vσ(1) , . . . , vσ(i) , w1 , . . . , wj ) = sgn(τ )ϕij (v1 , . . . , vi , wτ (1) , . . . , wτ (j) , für alle σ ∈ Si und τ ∈ Sj . Durch Anwenden der universellen Eigenschaft von (∧i V, κV ) und (∧j W, κW ) erhalten wir eine Abbildung ψij : ^i V × ^j W −→ ^k (V W ) mit ϕij = ψij ◦ (κV , κW ). Aus der Multilinearität von ϕij folgt durch direktes Nachprüfen, dass ψij bilinear ist. Mit der universellen Eigenschaft des Tensorproduktes (∧i V ⊗ ∧j W, t ) erhält man somit eine Abbildung ηij : ^i V ⊗ ^j W −→ ^k (V W ) mit ψij = ηij ◦ t. Betrachte die induzierte Abbildung E= ηij i+j=k : i+j=k ^i V ⊗ 34 ^j W −→ ^k (V W ) . Wir zeigen die Abbildung E ist ein Isomorphismus. Sei B eine geordnete Basis von V und sei B 0 eine geordnete Basis von W . Dann ist für jedes i ^i b1 ∧ . . . ∧ bi für alle b` ∈ B mit b1 < . . . < bi eine Basis von V, und für jedes j b01 ∧ . . . ∧ b0j für alle b0` ∈ B 0 mit b01 < . . . < b0j eine Basis von ^j W. Somit ist (b1 ∧ . . . ∧ bi ) ⊗ (b01 ∧ . . . ∧ b0j ) für alle b` ∈ B mit b1 < . . . < bi und für alle b0` ∈ B 0 mit b01 < . . . < b0j V V 0 0 eine Basis von i V ⊗ j W . Wenn inclij : ∧i V ⊗∧j W → i0 +j 0 =k ∧i V ⊗ ∧j W die natürliche Inklusion bezeichnet, ist also 0 0 für alle i + j = k, inclij (b1 ∧ . . . ∧ bi ) ⊗ (b1 ∧ . . . ∧ bj ) für alle b` ∈ B mit b1 < . . . < bi , für alle b0` ∈ B 0 mit b01 < . . . < b0j V Vj i V ⊗ W . eine Basis von i+j=k Andererseits ist B 00 := (b, 0) b ∈ B ∪ (0, b0 ) b0 ∈ B 0 zusammen mit der Ordnung (b1 , 0) < (b2 , 0) ⇔ b1 < b2 (b, 0) < (0, b0 ) (0, b01 ) < (0, b02 ) ⇔ b01 < b02 für alle b1 , b2 ∈ B für alle b ∈ B, b0 ∈ B 0 für alle b01 , b02 ∈ B 0 eine geordnete Basis von V ⊕ W , also (b1 , 0) ∧ . . . ∧ (bi , 0) ∧ (0, b01 ) ∧ . . . ∧ (0, b0j ) für alle i + j = k, für alle b` ∈ B mit b1 < . . . < bi , für alle b0` ∈ B 0 mit b01 < . . . < b0j V eine Basis von k (V W ). Wir zeigen, dass E die eine gewählte Basis bijektiv auf die andere abbildet: Für alle i + j = k und für alle b1 , . . . , bi ∈ B mit b1 < · · · < bi und für alle b01 , . . . , bj ∈ B 0 mit b01 < . . . < b0j gilt E inclij (b1 ∧ . . . ∧ bi ) ⊗ (b01 ∧ . . . ∧ b0j ) = ηij (b1 ∧ . . . ∧ bi ) ⊗ (b01 ∧ . . . ∧ b0j ) = ηij ◦ t b1 ∧ . . . ∧ bi , b01 ∧ . . . ∧ b0j = ψij b1 ∧ . . . ∧ bi , b01 ∧ . . . ∧ b0j = ψij ◦ (κV , κW )(b1 , . . . , bi , b01 , . . . , b0j = ϕij b1 , . . . , bi , b01 , . . . , b0j = κ (b1 , 0), . . . , (bi , 0), (0, b01 ), . . . , (0, b0j ) = (b1 , 0) ∧ . . . ∧ (bi , 0) ∧ (0, b01 ) ∧ . . . ∧ (0, b0j ) . 35 Also bildet E die Basis von i+j=k (∧i V ⊗ ∧j W ) bijektiv auf die Basis von ∧k (V W ) ab, ist also ein Isomorphismus. 36