Lösung - D-MATH

Werbung
Lineare Algebra II
Prof. Richard Pink
D-MATH, FS 2015
Lösung zur Wiederholungsserie II
1. Zeige durch Kopfrechnen, dass die folgende reelle

2015 2344 1234
2124 4123 1990
A := 
1230 2014 9095
1262 1776 1880
Matrix invertierbar ist:

1990
3026

1230
3907
Lösung: Die Determinante ist definiert durch eine universelle polynomiale
Formel mit Koeffizienten in Z. Da alle Einträge von A in Z liegen, ist also auch
det(A) ∈ Z. Weiter sind alle Diagonaleinträge von A ungerade, und alle übrigen
Einträge gerade. Also ist A modulo 2 kongruent zu der Einheitsmatrix I4 . Die
universelle Formel für die Determinante impliziert nun, dass det(A) modulo 2
kongruent ist zu det(I4 ) = 1. Also ist det(A) eine ungerade ganze Zahl, und
deshalb sicher ungleich Null in R. Somit ist A als reelle Matrix invertierbar.
2. Betrachte beliebige Unterräume U1 und U2 eines endlich-dimensionalen euklidischen Vektorraums V . Welche Inklusionen und Gleichheiten gelten immer
zwischen den Unterräumen
U1⊥ ∩ U2⊥ ,
(U1 ∩ U2 )⊥ ,
U1⊥ + U2⊥ ,
(U1 + U2 )⊥ ?
Lösung: Nach Definition der Begriffe ist
U1⊥ ∩ U2⊥ = v ∈ V ∀u1 ∈ U1 : hu1 , vi = 0 ∩ v ∈ V ∀u2 ∈ U2 : hu2 , vi = 0
= v ∈ V ∀u1 ∈ U1 : hu1 , vi = 0 ∧ ∀u2 ∈ U2 : hu2 , vi = 0
∗
= v ∈ V ∀u1 ∈ U1 ∀u2 ∈ U2 : hu1 + u2 , vi = hu1 , vi + hu2 , vi = 0
= v ∈ V ∀u ∈ U1 + U2 : hu, vi = 0
= (U1 + U2 )⊥ ,
∗
wobei die Gleichung = gilt wegen der Additivität und weil man auch u1 = 0
oder u2 = 0 einsetzen kann.
Wenden wir die so gefundene Gleichung auf die Unterräume Ui⊥ anstelle von Ui
an, so erhalten wir
U1 ∩ U2 = (U1⊥ )⊥ ∩ (U2⊥ )⊥ = (U1⊥ + U2⊥ )⊥ ,
und somit
(U1 ∩ U2 )⊥ = U1⊥ + U2⊥ .
1
Weiter ist nach Konstruktion
U1⊥ ∩ U2⊥ ⊂ U1⊥ + U2⊥ .
Insgesamt haben wir also die Inklusion und die Gleichungen
U1⊥ ∩ U2⊥ ⊂ U1⊥ + U2⊥
k
k
⊥
(U1 + U2 )
⊂ (U1 ∩ U2 )⊥
Hier sind die horizontalen Inklusionen im Allgemeinen keine Gleichheiten, zum
Beispiel nicht, wenn U1 ein echter Teilraum von U2 ist.
3. Sei U ⊂ V ein Unterraum und betrachte die linearen Abbildungen
i : U → V, u 7→ u
und
π : V → V /U, v 7→ v + U .
Zeige: Die zu π duale lineare Abbildung π ∗ : (V /U )∗ → V ∗ ist ein Isomorphismus
von (V /U )∗ auf den Kern der zu i dualen linearen Abbildung i∗ : V ∗ → U ∗ .
Lösung: Wegen i∗ ◦ π ∗ = (π ◦ i)∗ = 0∗ = 0 ist Bild(π ∗ ) ⊂ Kern(i∗ ).
Für jedes Element λ : V → K in Kern(i∗ ), gilt λ(v) = 0 für alle v ∈ U ,
also U ⊂ Kern(λ). Nach der universellen Eigenschaft der Quotientenabbildung
π : V → V /U existiert daher eine eindeutige lineare Abbildung λ : V /U → K
mit λ ◦ π = λ, also mit π ∗ (λ) = λ. Die Abbildung
π : (V /U )∗ → Kern(i∗ )
ist somit surjektiv, wegen der Eindeutigkeitsaussage aber auch injektiv, also ein
Isomorphismus.
Aliter: Die Injektivität folgt alternativ aus der Surjektivität von π : V → V /U ,
siehe Aufgabe 17 der Wiederholungsserie I.
4. Betrachte eine lineare Abbildung von K-Vektorräumen f : V → W sowie einen
Unterraum W 0 von W . Zeige:
(a) Das Urbild f −1 (W 0 ) := {v ∈ V | f (v) ∈ W 0 } ist ein Unterraum von V .
(b) Die Abbildung f induziert eine eindeutige injektive Abbildung
f : V /f −1 (W 0 ) ,→ W/W 0 ,
sodass das folgende Diagramm kommutiert:
f
V
V /f −1 (W 0 )
f
/
/W
(c) Das Bild von f ist gleich (Bild(f ) + W 0 )/W 0 .
2
W/W 0 .
Lösung:
(a) Der Beweis der Aussage findet man in der Lösung zu Serie 8, Aufgabe 7.
(b) Sei πW 0 : W → W/W 0 die Quotientenabbildung und sei g := πW 0 ◦f . Wegen
Kern(πW 0 ) = W 0 ist Kern(g) = f −1 (W 0 ). Also folgt aus der universellen
Eigenschaft des Quotientenvektorraums π : V → V /f −1 (W 0 ) angewendet
auf g, dass eine eindeutige lineare Abbildung
f : V /f −1 (W 0 ) → W/W 0
existiert mit f ◦ π = g, also mit f ◦ π = πW 0 ◦ f , also sodass das obige
Diagram kommutiert. Wegen Kern(g) = f −1 (W 0 ) und Serie 22, Aufgabe 4
(b) ist f zudem injektiv.
(c) Wegen der Surjektivität von π : V → V /f −1 (W 0 ) ist das Bild von f gleich
dem Bild von f ◦ π, also wegen der Kommutativität des Diagrams gleich
Bild(πW 0 ◦ f ) = {f (v) + W 0 | v ∈ V }.
Für jedes w0 ∈ W 0 ist aber f (v) + W 0 = f (v) + w0 + W 0 ; somit ist dies auch
gleich
{f (v) + w0 + W 0 | v ∈ V, w0 ∈ W 0 } = {w̃ + W 0 | w̃ ∈ Bild(f ) + W 0 }.
und letzteres ist nach Definition gleich (Bild(f ) + W 0 )/W 0 .
5. Sei V ein endlich-dimensionaler euklidischer Vektorraum, und seien v1 , . . . , vm
und w1 , . . . , wm Vektoren in V , sodass für alle i, j gilt:
hvi , vj i = hwi , wj i.
Zeige, dass ein Endomorphismus f : V → V existiert mit f (vi ) = wi für alle i.
Lösung: Betrachte zunächst eine beliebige Teilmenge I ⊂ {1, . . . , m}. Die Vektoren vi für alle i ∈ I sindlinear unabhängig genau dann, wenn ihre Gramsche
Determinante det hvi , vj i i,j∈I ungleich Null ist. Nach Voraussetzung ist die
se Determinante aber gleich det hwi , wj i i,j∈I , und somit ungleich Null genau
dann, wenn die Vektoren wi für alle i ∈ I linear unabhängig sind.
Unter allen Teilmengen mit den genannten äquivalenten Eigenschaften sei nun I
eine maximale. Nach Umordnen der Vektoren v1 , . . . , vm und w1 , . . . , wm dürfen
wir I = {1, . . . , n} annehmen für ein 0 ≤ n ≤ m. Dann ist (v1 , . . . , vn ) eine
maximales linear unabhängiges Teilsystem von (v1 , . . . , vm ) und somit eine Basis
des Unterraums V 0 := hv1 , . . . , vm i. Aus demselben Grund ist (w1 , . . . , wn ) eine
maximales linear unabhängiges Teilsystem von (w1 , . . . , wm ) und somit eine
Basis des Unterraums V 00 := hw1 , . . . , wm i.
Betrachte den eindeutigen Isomorphismus f 0 : V 0 → V 00 mit f 0 (vi ) = wi für alle
1 ≤ i ≤ n. Behauptung: Für diesen gilt auch f 0 (v` ) = w` für alle 1 ≤ ` ≤ m.
Betrachte dafür die Gramsche Matrix M := (gij )1≤i,j≤n := hvi , vj i 1≤i,j≤n und
Pn
bezeichne ihre Inverse mit M −1 = (g ij )1≤i,j≤n . Schreibe v` =
i=1 ai vi mit
eindeutigen ai ∈ R. Für jedes j = 1, . . . , n gilt dann
hv` , vj i =
n
X
i=1
3
ai gij ,
also nach Multiplikation mit g jk und anschliessendem Aufsummieren auch
n
n
n
X
X
X
jk
jk
hv` , vj ig =
ai gij g =
ai (M M −1 )i,k = ak
j=1
i,j=1
i
für alle k = 1, . . . , n. Es gilt daher
v` =
n
n X
X
hv` , vj ig jk vk .
j=1
k=1
Da gleichzeitig M = hwi , wj i 1≤i,j≤n ist, zeigt man analog
w` =
n X
n
X
hw` , wj ig jk wk .
j=1
k=1
Zusammen folgt daraus unter Benutzung von hv` , vj i = hw` , wj i
!
n X
n
X
f 0 (v` ) = f
hv` , vj ig jk vk
=
=
j=1
k=1
n
n
XX
hv` , vj ig jk f 0 (vk )
j=1
k=1
n
n
XX
k=1
hw` , wj ig jk wk = w` ,
j=1
wie behauptet.
Sei schliesslich f : V → V eine beliebige Fortsetzung von f 0 . Zum Beispiel wähle
ein Komplement U 0 mit V = V 0 ⊕U 0 und setze f (v 0 +u0 ) := f 0 (v 0 ) für alle v 0 ∈ V 0
und alle u0 ∈ U 0 . Jede Fortsetzung hat die gewünschte Eigenschaft.
6. (Hermitesche Polynome) Sei C[x] der Vektorraum aller komplexen Polynome in
einer Variablen x.
(a) Zeige, dass
Z
∞
(u, v) :=
2 /2
u(x)v(x)e−x
dx
−∞
ein Skalarprodukt auf C[x] definiert.
(b) Sei L : C[x] → C[x] der Endomorphismus gegeben durch
L(u) := −uxx + xux ,
u ∈ C[x],
mit ux := ∂u/∂x. Zeige, dass L selbstadjungiert bezüglich (·, ·) ist.
(c) Bestimme rekursiv die Eigenwerte und Eigenvektoren von L. (Hinweis:
Für jeden Eigenvektor u von L ist auch P u := −ux + xu ein Eigenvektor.
Der Operator P heisst Erzeugungs-Operator für L.)
4
(d) Zeige, dass für jede natürliche Zahl n ein eindeutiges normiertes Polynom Hn existiert, welches ein Eigenvektor von L ist. Dieses heisst das n-te
Hermitesche Polynom Hn .
(e) Zeige für alle n die Formel
n x2 /2
Hn (x) = (−1) e
dn −x2 /2
e
.
dxn
*(f) Berechne die Skalarprodukte (Hn , Hm ) für alle n, m ≥ 0.
√
R∞
2
(Hinweis: Verwende das Gauss-Integral −∞ e−x /2 dx = 2π)
Lösung:
(a) Aus der Analysis folgt, dass das Integral (u, v) für alle u, v ∈ C[x] endlich
und somit wohldefiniert ist. Unter Verwendung der Grundeigenschaften des
Integrals prüft man direkt, dass (·, ·) eine hermitesche Sesquilinearform ist.
Sei u ∈ C[x] ein nicht-verschwindendes Polynom. Dann hat die zugehörige
Polynomfunktion höchstens endlich viele Nullstellen, und dasselbe gilt für
2
die Funktion x 7→ |u(x)|2 e−x /2 . Da diese stetig und ≥ 0 ist, folgt ebenfalls
aus der Analysis, dass ihr Integral
Z ∞
2
|u(x)|2 e−x /2 > 0
(u, u) =
−∞
ist. Somit ist die Paarung (·, ·) positiv definit, also ein Skalarprodukt.
(b) Behauptung (b1). Für alle u, v ∈ C[x] gilt (ux , v) = (xu, v) − (u, vx ).
Beweis der Behauptung (b1). Aus partieller Integration folgt
Z ∞
2
ux (x)v(x)e−x /2 dx
(ux , v) =
−∞
Z ∞
∞
−x2 /2 −x2 /2
= u(x)v(x)e
−
u(x) v(x)e
dx.
−∞
−∞
x
2
Da die Funktion x 7→ u(x)v(x)e−x /2 für x → ±∞ verschwindet, ist dieses
gleich
Z ∞
Z ∞
2
−x2 /2
−
u(x)vx (x)e
dx+
u(x)v(x)xe−x /2 dx = −(u, vx )+(xu, v) .
−∞
−∞
Für beliebige u, v ∈ C[x] folgt
(L(u), v) = (−uxx + xux , v)
= − (ux )x , v + (xux , v)
(Beh.)
= −(xux , v) + (ux , vx ) + (xux , v)
= (ux , vx )
Durch Anwenden dieser Gleichung mit u und v vertauscht folgt weiter
(ux , vx ) = (vx , ux ) = (L(v), u) = (u, L(v)),
also ist L selbstadjungiert bezüglich (·, ·).
5
(c) Für alle n ≥ 0 definiere Polynome Hn ∈ C[x] rekursiv durch
H0 := 1
Hn+1 := P Hn = −(Hn )x + xHn .
(R)
Behauptung. Für jedes n ≥ 0 ist Hn ein normiertes Polynom vom Grad n,
das ein Eigenvektor von L zum Eigenwert n ist.
Beweis. Das Polynom H0 = 1 hat Grad 0, ist normiert und ist wegen
L(1) = 0 ein Eigenvektor von L zum Eigenwert 0. Die Aussage gilt also
für n = 0.
Angenommen die Aussage gilt für n ≥ 0. Mit ∂x = ∂/∂x gilt dann
−∂x2 (Hn+1 ) = ∂x3 (Hn ) − 2∂x (Hn ) − x∂x2 (Hn )
= −∂x −∂x2 (Hn ) + x∂x (Hn ) − ∂x (Hn )
= −∂x (L(Hn )) − ∂x (Hn )
(IV)
= −∂x (nHn ) − ∂x (Hn )
= (n + 1)(−∂x (Hn ))
und
x∂x (Hn+1 ) = −x∂x2 (Hn ) + xHn + x2 ∂x Hn
= xL(Hn ) + xHn
(IV)
= (n + 1)xHn ,
also
L(Hn+1 ) = −∂x2 + x∂x (Hn ) = (n + 1)Hn+1 .
Somit ist Hn+1 ein Eigenvektor von L zum Eigenwert n + 1. Aus der Rekursion Hn+1 = −∂x (Hn ) + xHn und der Induktionsvoraussetzung folgt
direkt, dass Hn+1 normiert vom Grad n + 1 ist. Also gilt die Aussage der
Behauptung auch für n + 1.
Da für jedes n das Polynom Hn normiert und vom Grad n ist, bildet
die Menge {Hn }n≥0 eine Basis von C[x]. Wegen der Behauptung besitzt
daher L genau die Eigenwerte Z≥0 , mit Eigenraum hHn i zum Eigenwert
n ∈ Z≥0 .
(d) Mit (c) ist jedes n ∈ Z≥0 ein Eigenwert von L mit zugehörigem eindimensionalen Eigenraum hHn i. Das Polynom Hn ist somit das eindeutige normierte Polynom, welches ein Eigenvektor von L zum Eigenwert n ist.
(e) Wir verwenden Induktion über n. Für n = 0 gilt die Gleichung in der
Aufgabe. Angenommen die Gleichung gilt für n ≥ 0. Aus der Rekursionsgleichung für Hn folgt
Hn+1 = −∂x Hn + xHn
2
2
2
2
(IV)
= −∂x (−1)n ex /2 ∂xn (e−x /2 ) + x (−1)n ex /2 ∂xn (e−x /2 )
2
2
= (−1)n+1 ex /2 ∂xn+1 (e−x /2 ) ,
also gilt die Gleichung auch für n + 1.
6
(*f) Da L selbst-adjungiert ist, sind die Eigenräume zu verschiedenen Eigenwerten von L orthogonal. Es folgt (Hn , Hm ) = 0 für alle n 6= m.
√
Behauptung. (Hn , Hn ) = 2π · n!
Beweis. Für n = 0 ist die Gleichung äquivalent zu dem Gauss-Integral
Z ∞
√
2
e−x /2 dx = 2π ,
(H0 , H0 ) =
−∞
siehe Analysis; also gilt die Aussage für n = 0. Angenommen die Aussage
gilt für n ≥ 0. Aus der Rekursionsgleichung (R) und der Behauptung (b1)
in Teilaufgabe (b) folgt
(R)
(Hn+1 , Hn+1 ) = − (Hn )x + xHn , Hn+1
= − (Hn )x , Hn+1 + xHn , Hn+1
n
o
(b1)
= − xHn , Hn+1 − Hn , (Hn+1 )x + xHn , Hn+1
(R)
= Hn , (−(Hn )x + xHn )x
= Hn , −(Hn )xx + x(Hn )x + Hn , Hn )
= Hn , L(Hn ) + Hn , Hn
= (n + 1) Hn , Hn
√
= (n + 1) 2π · n!
Also gilt die Aussage auch für n + 1.
Ingesamt erhalten wir für alle n, m ≥ 0 somit
Z ∞
√
2
(Hn , Hm ) = δnm ·
Hn (x)2 e−x /2 dx = 2π · n! · δnm .
−∞
Aliter: Um für n > 0 die Werte (Hn , Hn ) zu berechnen, kann man auch
2
wie folgt vorgehen. Durch Taylorentwicklung der Funktion ext−t /2 nach t
und mit (e) erhält man die Potenzreihenentwicklung
X
tn
2
ext−t /2 =
Hn (x)
n!
n≥0
mit Konvergenzradius ∞. Wegen der Orthogonalität der Hn für alle n gilt
somit für jedes t ∈ R,
xt−t2 /2
e
xt−t2 /2
,e
∞
X
t2n
=
(Hn , Hn ).
(n!)2
n=0
Für jedes t ∈ R ist die linke Seite
Z
Z ∞
2xt−t2 −x2 /2
t2
xt−t2 /2 xt−t2 /2
e
,e
=
e
dx = e
−∞
=e
t2
Z
∞
− 21 (x−2t)2
e
∞
e−x
2 +2xt−2t2
dx
−∞
dx = e
t2
−∞
Z
∞
e
−∞
7
− 12 x2
t2
dx = e
√
∞
X
√ t2n
2π =
2π
.
n!
n=0
Durch Vergleichen des Koeffizienten von tn erhalten wir somit
Z ∞
√
2
Hn (x)2 e−x /2 dx = 2π · n!
(Hn , Hn ) = δnm ·
−∞
Die Hermiteschen Polynome sind wichtig für Anwendungen in der Physik. Sie
tauchen zum Beispiel in der quantenmechanischen Beschreibung des harmonischen Oszillators auf, siehe:
http://de.wikipedia.org/wiki/Harmonischer_Oszillator_(Quantenmechanik)
7. Sei M die Darstellungsmatrix der quadratischen Form
q : R3 → R, (x1 , x2 , x3 )T 7→ x21 + 2x22 + 6x23 − 2x1 x3 + 4x2 x3
Zeige, dass M positiv definit ist und berechne ihre Cholesky-Zerlegung.
Lösung: Die Matrix ist charakterisiert
alle x ∈ R3 und somit gegeben durch

1

0
M=
−1
durch die Gleichung q(x) = xT M x für

0 −1
2
2 .
2
6
Ihre Hauptminoren ergeben sich zu
1 0
det(1) = 1, det
= 2, det(M ) = 6.
0 2
Da alle diese positiv sind, ist M positiv definit. Die Cholesky-Zerlegung von M
ist nach Definition die Lösung der Matrixgleichung M = RT R durch eine reelle
obere Dreiecksmatrix


a11 a12 a13
R =  0 a22 a23 
0
0 a33
mit Diagonaleinträgen > 0. Wir rechnen
 


a11 a12 a13
a11 0
0
RT R = a12 a22 0  ·  0 a22 a23 
0
0 a33
a13 a23 a33

 2
a11 a13
a11 a11 a12
=  ∗ a212 + a222 a12 a13 + a22 a23 
∗
∗
a213 + a223 + a233
wobei wir wegen der Symmetrie die Einträge unterhalb der Diagonalen ignorieren können. Durch sukzessives Auflösen erhalten wir
√
a11 =
1 = 1,
a12 = 0/a11 = 0,
a13 = −1/a11 = −1,
q
√
a22 =
2 − a212 = 2,
√
a23 = (2 − a12 a13 )/a22 = 2,
q
√
a33 =
6 − a213 − a223 = 3.
8
Also ist


1 √0 √
−1
2 √2  .
R =  0
0
0
3
8. Entscheide, welche der folgenden reellen symmetrischen Matrizen positiv definit
sind, und führe für diese die Matrixzerlegungen aus §9.15 der Vorlesung aus:




3 3 2 3
2 −1 −1
3 1 1 2

2
0 
A := 
B :=  −1
2 1 2 1
−1
0
2
3 2 1 3
Lösung: Für beide Matrizen verwenden wir das Hauptminorenkriterium. Wegen
3 3
det A2 = det
= −6 < 0
3 1
ist A nicht positiv definit. Für B berechnen wir
det(B1 ) = det(2)
= 6> 0,
2 1
det(B2 ) = det
= 3 > 0,
1 2
det(B3 ) = det(B) = 4 > 0.
Somit ist B positiv definit. Wir müssen noch eine invertierbare reelle obere
Dreiecksmatrix R und eine invertierbare symmetrische reelle Matrix C finden
mit B = RT R = C 2 .
Um R zu finden, machen wir den Ansatz


a11 a12 a13
R =  0 a22 a23 
0
0 a33
mit reellen Koeffizienten aij , wobei die Diagonaleinträge > 0 sind. Durch sukzessives Auflösen der Matrixgleichung

 2
a11 a11 a12
a11 a13
B =  ∗ a212 + a222 a12 a13 + a22 a23  ,
∗
∗
a213 + a223 + a233
wobei wir wie in Aufgabe 8 wegen der Symmetrie von B die Einträge unterhalb
der Diagonalen ignorieren können, erhalten wir
√
2,
a11 =
√
a12 = −1/a11 = −1/ 2,
√
a13 = −1/a11 = −1/ 2,
q
p
2 − a212 = 3/2,
a22 =
p
a23 = (−a12 a13 )/a22 = − 1/6,
q
p
a33 =
2 − a213 − a223 = 4/3.
9
Also ist
√
√ 
√
2 −1/
2
−1/
p 2
p
R= 0
3/2 −p 1/6 .
0
0
4/3
Um C zu finden, diagonalisieren wir die Matrix B durch eine Orthonormalbasis.
Das charakteristische Polynom von B ist
charB (X) = X 3 − 6X 2 + 10X − 4
√ √ = (X − 2) · X − (2 + 2) · X − (2 − 2)
√
√
Die Eigenräume zu den Eigenwerten 2 und 2 + 2 und 2 − 2 sind jeweils


 
0 −1 −1
0 

0
Eig2 (B) = Kern(B − 2I3 ) = Kern −1 0
= 1
−1 0
0
−1
 √

 √ 
−
2
−1
−1
√
− 2 √
=  1 
Eig2+√2 (B) = Kern(B − (2 + 2)I3 ) = Kern  −1 − 2
0
√
1
−1
0
− 2

√ 
√
2 √
−1 −1
2 √
√



=
Eig2− 2 (B) = Kern(B − (2 − 2)I3 ) = Kern −1
2 √0
1  .
1
−1 0
2
Da B symmetrisch ist, sind die Eigenräume zu unterschiedlichen Eigenwerten
von B orthogonal. Also bilden die normalisierten Eigenvektoren
 
 √ 
√ 
0
− 2
2
1
1
1
√  1 ,  1  ,  1 
2
2
2 −1
1
1
eine Orthonormalbasis von R3 , und die zugehörige Basiswechselmatrix
√
√ 

0√ −1/ 2 1/ 2
U :=  1/√2
1/2
1/2 
−1/ 2
1/2
1/2
ist orthogonal. Wir erhalten also die Diagonalisierung


2
0√
0
0√  · U −1 .
B = U · 0 2 + 2
0
0
2− 2
Setzen wir also
√

2 p 0
0
√

 −1
C := U ·  0
2+ 2 p 0
·U
√
0
0
2− 2
10
so ist C symmetrisch und erfüllt C 2p
= B, ist also die gesuchte
Matrix. Es bleibt
p
√
√
√
C explizit zu berechnen. Sei α := 2 + 2. Dann ist 2 − 2 = 2/α und
somit
√

2 0
0
C = U ·  0 α √ 0  · U −1
0 0
2/α
√

√ 
0 −α/ 2 1/√ α
= 1
α/2
1/(√2α) · U T
−1
α/2
1/( 2α)
√
√
 √

2
2
2 + α√2
1
−
α
/
2
1
−
α
/
2
√
√
√
√
1 
·
=
1 − α2 /√2 1/√2 + √2α + α2 /2 1/√2 − √2α + α2 /2  .
2α
1 − α2 / 2 1/ 2 − 2α + α2 /2 1/ 2 + 2α + α2 /2
9. Sei A eine positiv-definite reelle symmetrische n × n-Matrix.
(a) Ist A2 positiv definit?
(b) Ist A−1 positiv definit?
Lösung: Da A reell symmetrisch ist, existiert nach dem Spektralsatz eine
orthogonale n × n-Matrix U , so dass D := U T AU eine Diagonalmatrix ist.
Da die positiv-Definitheit unter diesem Basiswechsel invariant ist, ist auch D
positiv definit. Also sind alle Diagonaleinträge von D positiv. Insbesondere ist
D invertierbar, und sowohl D2 als auch D−1 sind Diagonalmatrizen mit allen
Diagonaleinträgen positiv. Somit sind D2 und D−1 symmetrisch und positivdefinit. Schliesslich gilt dann A = U U T AU U T = U DU T , und somit sind auch
A2 = U DU T U DU T = U D2 U T und A−1 = U D−1 U T symmetrisch und positiv
definit. Beide Fragen sind daher zu beantworten mit ja.
Aliter: Als positiv-definite reelle symmetrische Matrix ist A invertierbar. Für
jeden Vektor 0 6= v ∈ Rn ist daher Av 6= 0 und somit
v T A2 v = v T AT Av = (Av)T (Av) = kAvk2 > 0,
wobei k k den Absolutbetrag zum Standardskalarprodukt auf Rn bezeichnet.
Also ist A2 positiv definit. Für jeden Vektor 0 6= v ∈ Rn aber auch A−1 v 6= 0
und somit
v T A−1 v = v T A−1 AA−1 v = (A−1 v)T A(A−1 v) = kA−1 vk2A > 0,
wobei k kA den Absolutbetrag zu dem Skalarprodukt (v, w) 7→ v T Aw bezeichnet.
Also ist A−1 positiv definit.
10. Zeige, dass jede symmetrische komplexe Matrix mit positive definitem Realteil
invertierbar ist.
Lösung: Schreibe die Matrix in der Form A + iB für reelle symmetrische
n × n-Matrizen A und B. Dann ist A positiv definit. Nach einem Satz der
Vorlesung existiert daher eine invertierbare reelle n×n-Matrix V mit A = V T V .
11
Dann ist auch (V −1 )T BV −1 reell symmetrisch. Nach dem Spektralsatz existiert
darum eine orthogonale Matrix Q, so dass D := QT (V −1 )T BV −1 Q eine reelle
Diagonalmatrix ist. Zusammen ist dann QT (V −1 )T (A + iB)V −1 Q = In + iD
eine Diagonalmatrix mit Realteil In . Diese ist also invertierbar; und somit ist
auch A + iB invertierbar.
Aliter: Finde zuerst mit dem Spektralsatz eine orthogonale n × n-Matrix R, so
dass RT AR eine Diagonalmatrix ist. Diese ist dann immer noch positiv definit;
ihre Diagonaleinträge sind daher positiv. Sei D die aus den positiven Quadratwurzeln dieser Einträge gebildete Diagonalmatrix. Dann gilt RT AR = D2 und
daher A = (R−1 )T DT DR−1 = V T V mit der invertierbaren Matrix V := DR−1 .
Dann fahre fort wie oben.
Aliter 2: Schreibe die Matrix in der Form A + iB für reelle symmetrische n × nMatrizen A und B. Dann ist A positiv definit, also invertierbar, und es existiert
eine invertierbare symmetrische Matrix C mit A = C 2 . Folglich ist A + iB
invertierbar genau dann wenn C −1 (A + iB)C −1 = In + iC −1 BC −1 = In + iB 0
invertierbar ist mit B 0 := C −1 BC −1 . Da B und C symmetrisch sind, sind es auch
C −1 und B 0 . Folglich sind alle komplexen Eigenwerte von B 0 reell. Insbesondere
ist −i kein Eigenwert von B 0 , und somit ist −iIn + B 0 invertierbar. Damit ist
dann auch i(−iIn + B 0 ) = In + iB 0 invertierbar, und folglich auch A + iB, wie
zu zeigen war.
11. Sei ε ∈ {+1, −1} und betrachte die reelle 5 × 5-Matrix


1 0 ε 0 1
0 1 0 1 0 



ε
0
1
0
ε
A := 


0 1 0 1 0 
1 0 ε 0 1.
Bestimme eine orthogonale Matrix U , sodass U −1 AU Diagonalgestalt hat.
Lösung: Wir erkennen, dass der (i, j)-te Eintrag in A nicht null ist genau dann,
wenn i und j beide ungerade oder gerade sind. Bezeichnen wir mit (e1 , . . . , e5 )
die Standardbasis von R5 , dann hat A also in der Basis (e2 , e4 , e1 , e2 , e3 ) Blockdiagonalgestalt.
Um dies als Matrixgleichung auszudrücken,

0 1 0
 0 0 0

P := 
 1 0 0
 0 0 1
0 0 0
sei
0
1
0
0
0
0
0
0
0
1






die Permutationsmatrix zur Permutation
1 7→ 3,
2 7→ 1,
3 7→ 4,
12
4 7→ 2,
5 7→ 5.
Dann ist die Matrix



B := 


1
1
0
0
0
1
1
0
0
0
0
0
1
ε
1
0
0
ε
1
ε
0
0
1
ε
1



 = P AP −1


eine Blockdiagonalmatrix. Wir diagonalisieren die einzelnen Matrixblöcke


1 ε 1
1 1
B1 :=
und B2 := ε 1 ε
1 1
1 ε 1
separat.
Die Matrix B1 besitzt die orthogonalen Eigenvektoren (1, 1)T und (1, −1)T zu
den jeweiligen Eigenwerten 2 und 0. Nach
erhalten wir also die
Normalisieren
1
T √1
T
2
√
Orthonormalbasis 2 (1, 1) , 2 (1, −1) von R aus Eigenvektoren von B1 .
Das charakteristische Polynom der Matrix B2 ist
charB2 (X) = (X − 1)3 − 3(X − 1) − 2 = X 2 (X − 3)
Man berechnet die Eigenräume
Eig3 (B2 ) = (1, −1, 1)T ,
Eig0 (B2 ) = (1, −ε, 0)T , (1, 0, −1)T .
Da B2 symmetrisch ist, sind die Eigenräume zu den verschiedenen Eigenwerten orthogonal. Durch Anwenden des Gram-Schmidt-Verfahrens auf die Eigenvektoren zum Eigenwert 0, und durch Normalisierung des Eigenvektors zum
Eigenwert 3, erhalten wir die Orthonormalbasis
 
 
 

1
1
1
 √1 −1 , √1 −ε , 1  ε
2
3
2
1
0
−2
von R3 bestehend aus Eigenvektoren von B2 . Somit bilden die Vektoren
 
 
 
 
 
1
1
0
0
0
1
−1
 0
 0
 0
 
 
 
 
1  
 , √1  0 , √1  1 , √1  1 , 1  1
√ 
0




 
2
2
3
2
0
 0
−1
−ε 2  ε
0
0
1
0
−2
eine Orthonormalbasis von R5 aus Eigenvektoren von B zu den jeweiligen Eigenwerten 2, 0, 2+ε, 0, 0. Da diese Vektoren orthonormal sind, ist die zugehörige
Basiswechselmatrix
 1

√
√1
0
0
0
2
2
−1
 √1 √
0 0
0 
 2

2
 0 0 √1 √1 1/2 
0
U := 
.
3
2


−ε
ε/2
 0 0 √13 √

2
1
0
ε
0 0 √3
13
orthogonal, und nach Konstruktion gilt

2 0
0
 0 0
0

0 
B =U · 0 0 2+ε
 0 0
0
0 0
0
0
0
0
0
0
0
0
0
0
0


 0−1
·U .


Wegen der Orthogonalität der Permutationsmatrix P ist somit


0 0 √13 √12 1/2
 √1 √1
0 0
0 

 2
2


−ε
ε/2
U := P −1 U =  0 0 √13 √
.
2

 √1 √
−1
0 0
0 
 2
2
0 0 √13
0
ε
orthogonal, und nach Konstruktion hat
U −1 AU = U 0−1 (P AP −1 )U 0 = U 0−1 BU 0
Diagonalgestalt.
12. (Vergleiche Serie 16, Aufgabe 5) Sei V ein euklidischer Vektorraum der Dimension 0 < n < ∞, und sei f : V → V ein selbstadjungierter Endomorphismus
mit Eigenwerten λ1 ≤ . . . ≤ λn . Zeige:
hf (x), xi λ1 = min
0 6= x ∈ V ,
hx, xi hf (x), xi λn = max
0 6= x ∈ V .
hx, xi Zeige allgemeiner das Min-Max-Prinzip: Für alle r = 1, . . . , n gilt
hf (x), xi λr = min
max
W ⊆ V, dim W = r .
x∈W r{0} hx, xi Lösung: Wir zeigen das allgemeinere Min-Max Prinzip. Da f selbstadjungiert
ist, existiert eine Orthonormalbasis (v1 , . . . , vn ) von V aus Eigenvektoren von f
zu den jeweiligen Eigenwerten λ1 , . . . , λn .
Sei V 0 := hvr , . . . , vn i und sei W ⊂ V ein Unterraum der Dimension r. Wegen
dim(V 0 ∩ W ) = dim V 0 + dim W − dim(V 0 + W )
≥ r + (n − (r − 1)) − n
=1
existiert
ein nicht-verschwindendes Element x0 ∈ W ∩ V 0 . Schreiben wir x0 =
Pn
i=r ai vi für Koeffizienten ai ∈ R, so folgt
P
P
P
2
h i ai λi vi , i ai vi i
hf (x), xi
hf (x0 ), x0 i
i λ i ai
P
max
≥
=
=
≥ λr ,
2
x∈W r{0} hx, xi
hx0 , x0 i
hx0 , x0 i
i ai
14
also, da W ⊂ V beliebig war,
inf
W ⊂V
dim(W )=r
hf (x), xi
max
x∈W r{0} hx, xi
≥ λr .
Wir zeigen, dass das Infimum durch den Unterraum
Vr := hv1 , . . . , vr i angenomP
men wird. Für ein beliebiges Element x = ri=1 ai vi ∈ Vr r{0} mit Koeffizienten
ai ∈ R gilt
Pr
Pr
2
λi a2i
hf (x), xi
i=1 λr ai
i=1
P
≤
= λr
= Pr
r
2
2
hx, xi
i=1 ai
i=1 ai
also
hf (x), xi
≤ λr .
x∈Vr r{0} hx, xi
max
Wegen dim(Vr ) = r gilt aber nach Definition des Infimum auch
hf (x), xi
hf (x), xi
≤ max
.
λr ≤ inf
max
W ⊂V
x∈W r{0} hx, xi
x∈Vr r{0} hx, xi
dim(W )=r
Also wird das Infimum durch Vr angenommen, und es gilt
hf (x), xi
hf (x), xi
inf
max
= min
= λr
max
W ⊂V
W ⊂V
x∈W r{0} hx, xi
x∈W r{0} hx, xi
dim(W )=r
dim(W )=r
13. Seien V ein reeller Vektorraum der Dimension n und β eine nicht-ausgeartete
symmetrische Bilinearform auf V mit der Signatur (p, q). Bestimme die maximale Dimension eines Unterraums U ⊂ V mit β|U ×U = 0.
Lösung: Nach Voraussetzung ist n = p+q und es existiert eine geordnete Basis
von V , bezüglich welcher die Darstellungsmatrix von β eine Diagonalmatrix ist
mit p Diagonaleinträgen 1 und q Diagonaleinträgen −1. Schreibe diese Basis in
der Form v1 , . . . , vp , w1 , . . . , wq mit β(vi , vi ) = 1 und β(wi , wi ) = −1 für alle i.
Behauptung: Die gesuchte maximale Dimension ist m := min{p, q}.
Betrachte zuerst einen beliebigen Unterraum U der Dimension > p. Setze U− :=
hw1 , . . . , wq i; aus der Dimensionsformel für Durchschnitte folgt dann
dim(U ∩ U− ) = dim(U ) + dim(U− ) − dim(U + U− )
≥ dim(U ) + dim(U− ) − dim(V )
> p + q − n = 0.
Also existiert ein von Null verschiedener Vektor u ∈ U ∩ U− . Wegen u ∈ U− gilt
für diesen β(u, u) < 0. Also ist β|U ×U 6= 0.
Betrachte sodann einen beliebigen Unterraum U der Dimension > q. Setze
U+ := hv1 , . . . , vp i und rechne
dim(U ∩ U+ ) = dim(U ) + dim(U+ ) − dim(U + U+ )
≥ dim(U ) + dim(U+ ) − dim(V )
> q + p − n = 0.
15
Also existiert ein von Null verschiedener Vektor u ∈ U ∩ U+ . Wegen u ∈ U+ gilt
für diesen β(u, u) > 0. Also ist β|U ×U 6= 0.
Insgesamt ist somit β|U ×U 6= 0 für jeden Unterraum U der Dimension > m. Die
gesuchte maximale Dimension ist also ≤ m.
Schliesslich setze ui := vi + wi für alle 1 ≤ i ≤ m. Dann gilt
β(ui , ui ) = β(vi + wi , vi + wi ) = 1 + 0 + 0 − 1 = 0,
und für alle 1 ≤ i, j ≤ m mit i 6= j gilt
β(ui , uj ) = β(vi + wi , vj + wj ) = 0 + 0 + 0 + 0 = 0.
Für beliebige Koeffizienten ai , bj ∈ R folgt dann
X
X
m
m
m X
m
X
β
ai ui ,
bj uj =
ai bj β(ui , uj ) = 0.
i=1
j=1
i=1 j=1
Mit U := hu1 , . . . , um i gilt also β|U ×U = 0. Da die ui linear unabhängig sind,
gilt weiter dim(U ) = m. Die gesuchte maximale Dimension ist also ≥ m.
14. Der Index einer reellen, symmetrischen n×n-Matrix A mit Eigenwerten λ1 , . . . , λk
der jeweiligen Vielfachheiten m1 , . . . , mk ist definiert als
X
X
Ind(A) :=
mi −
mi ,
i:λi >0
i:λi <0
also als die Anzahl positiver minus die Anzahl negativer Eigenwerte von A,
gezählt mit Vielfachheiten.
Seien A und B zwei symmetrische n × n-Matrizen mit
xT Ax ≤ xT Bx
für alle x ∈ Rn . Zeige, dass Ind(A) ≤ Ind(B) ist.
Lösung: Sei a bzw. a0 die Anzahl positiver bzw. negativer Eigenwerte von A,
und sei b bzw. b0 die Anzahl positivier bzw. negativer Eigenwerte von B, jeweils
gezählt mit Vielfachheiten.
Sei U die Summe aller Eigenräume von A zu positiven Eigenwerten. Dann ist
die Einschränkung LA |U positiv definit. Für alle x ∈ U r {0} gilt also xT Bx ≥
xT Ax > 0. Mit §9.14 der Zusammenfassung folgt b ≥ dim(U ) = a.
Sei U 0 die Summe aller Eigenräume von B zu negativen Eigenwerten. Dann
ist die Einschränkung LB |U 0 negativ definit. Für alle x ∈ U 0 r {0} gilt also
xT Ax ≤ xT Bx < 0. Mit §9.14 der Zusammenfassung folgt a0 ≥ dim(U 0 ) = b0 .
Beide Aussagen zusammen ergeben dann Ind(B) = b − b0 ≥ a − a0 = Ind(A).
15. Sei V ein endlich-dimensionaler reeller Vektorraum.
(a) Zeige oder widerlege: Für jeden invertierbaren Endomorphismus f : V →
V existiert ein euklidisches Skalarprodukt h , i auf V , bezüglich dem f
orthogonal ist.
16
(b) Sei nun V = R3 und f = LA mit


−5
4
4
A :=  2 −3 −2  .
−8
8
7
Finde eine 3×3-Matrix M , sodass (x, y) 7→ xT M y ein Skalarprodukt auf V
ist, bezüglich welchem A orthogonal ist.
Lösung:
(a) Im Fall dim(V ) = 0 ist jeder Endomorphismus bezüglich dem eindeutigen
Skalarprodukt auf V orthogonal; insbesondere gilt also die Aussage.
Im Fall dim(V ) > 0 sei f : V → V die Linksmultiplikation mit einem Skalar
λ ∈ R r {1, −1, 0}. Falls f orthogonal bezüglich einem Skalarprodukt h·, ·i
ist, gilt für alle v ∈ V dann
hv, vi = hf (v), f (v)i = λ2 hv, vi.
Für einen Vektor v ∈ V r {0} ist wegen der Positiv-Definitheit von h·, ·i
aber hv, vi > 0, folglich also λ ∈ {±1}, was ein Widerspruch ist. Die
Aussage ist im Fall dim(V ) > 0 also falsch.
(b) Ist h·, ·i ein Skalarprodukt, bezüglich welchem A orthogonal ist, sind die
Eigenräume zu verschiedenen Eigenwerten von A orthogonal. Wir finden
also zuerst die Eigenräume von A.
Das charakteristische Polynom von A ist
charA (X) = X 3 + X 2 − X − 1 = (X − 1) · (X + 1)2 .
Weiter sind die Eigenräume zu den Eigenwerten 1 und −1 gleich
 
2 Eig1 (A) = Kern(A − I3 ) = −1
4
   
0 1



1 ,
1 .
Eig−1 (A) = Kern(A + I3 ) =
0
−1
Dann hat LA bezüglich der Basis
     
2
1
0






−1 , 1 ,
1 
B=
4
0
−1
die Darstellungsmatrix


1 0
0
MBB (LA ) = 0 −1 0  .
0 0 −1
17
Bezüglich dem Standardskalarprodukt auf R3 ist dies eine orthogonale Matrix. Definieren wir also ein Skalarprodukt h·, ·i auf R3 indem wir die Basis
B als Orthonormalbasis deklarieren, so hat h·, ·i bezüglich B die Darstellungsmatrix I3 , und folglich ist LA orthogonal bezüglich h·, ·i. Wir müssen
nur noch die Darstellungsmatrix M von h·, ·i bezüglich der Standardbasis
b von R3 finden. Sei also


2 1
0
1 
U :=  −1 1
4 0 −1
die Basiswechselmatrix MbB (idR3 ). Dann erfüllt die Darstellungsmatrix
M = Mbb (h·, ·i) die Gleichung U T M U = I3 , und ist somit


26 −23 −19
21
17  .
M = (U T )−1 U −1 =  −23
−19
17
14
16. Seien R, S : R3 → R3 zwei nicht-triviale Drehungen um je eine Gerade durch
den Ursprung. Beweise die Äquivalenz der folgenden beiden Aussagen:
(a) R und S kommutieren, das heisst, es gilt RS = SR.
(b) R und S haben entweder dieselbe Drehachse oder sind Rotationen um 180◦
bezüglich orthogonaler Drehachsen.
Lösung: Jede nicht-triviale Drehung im R3 hat den Eigenwert 1 mit geometrischer Vielfachheit 1. Nach Voraussetzung gilt dies also für R und S. Seien
vR , vS normierte Eigenvektoren von R bzw. S zum Eigenwert 1.
”(a) ⇒ (b)”:
Angenommen R und S kommutieren. Dann ist nach Serie 12 Aufgabe 7a der
Eigenvektor vR auch ein Eigenvektor von S zu einem Eigenwert λ ∈ R. Da S
orthogonal ist, kann dieser Eigenwert nur λ = ±1 sein.
Im Fall λ = 1 ist wegen der geometrischen Vielfachheit 1 des Eigenwertes 1 der
Vektor vR ein Vielfaches von vS . Die Drehungen R und S haben also dieselbe
Drehachse: hvR i = hvS i.
Im Fall λ = −1 sind vR , vS Eigenvektoren von S zu den jeweiligen Eigenwerten
−1 und 1, wegen der Orthogonalität von S sind sie also insbesondere orthogonal
zueinander. Folglich haben R und S orthogonale Drehachsen. Weiter ist jetzt −1
ein Eigenwert von S, also hat S den Drehwinkel 180◦ . Schliesslich wiederholen
wir die bisherigen Argumente mit vertauschten Rollen von R und S. Anwenden
von Serie 12 Aufgabe 7a zeigt, dass der Eigenvektor vS von S ein Eigenvektor
von R zu einem Eigenwert µ = ±1 ist. Im Fall µ = 1 wären die Drehachsen
gleich, was jetzt schon ausgeschlossen ist. Also ist µ = −1, und somit hat auch
R den Drehwinkel 180◦ .
”(b) ⇒ (a)”:
18
Haben R und S dieselbe Drehachse, gilt also Eig1 (R) = Eig1 (S), so haben R
und S bezüglich einer Orthonormalbasis der Form b = (vR , v2 , v3 ) für Vektoren
v2 , v3 ∈ R3 die Darstellungsmatrizen




1
1
cos α sin α  , Mbb (S) = 
cos β sin β  .
Mbb (R) = 
− sin α cos α
− sin β cos β
mit jeweiligen Drehwinkeln α, β ∈ R. Durch direktes Rechnen folgt


1
cos(α + β) sin(α + β)  = Mbb (S) · Mbb (R),
Mbb (R) · Mbb (S) = 
− sin(α + β) cos(α + β)
also R ◦ S = S ◦ R.
Haben R und S orthogonale Drehachsen und beide den Drehwinkel 180◦ , dann
ist −1 ein Eigenwert von R der Vielfachheit 2, also hvR i⊥ = Eig−1 (R). Es folgt
vS ∈ hvR i⊥ = Eig−1 (R). Ebenso zeigt man vR ∈ hvS i⊥ = Eig−1 (S).
Für ein nicht-verschwindenden Vektor b ∈ hvR , vS i⊥ folgt weiter b ∈ Eig−1 (R)
und b ∈ Eig−1 (S). Also haben R und S beide bezüglich der Basis (vR , vS , b)
Diagonalgestalt, und kommutieren miteinander.
17. Sei f ein Automorphismus eines endlich-dimensionalen unitären Vektorraums V .
Zeige: Ist f selbstadjungiert, bzw. unitär, bzw. normal, so haben f ∗ und f −1
dieselbe Eigenschaft.
!
Lösung: Nach Serie 15, Aufgabe 2d gilt stets (f −1 )∗ = (f ∗ )−1 .
Zuerst sei f selbstadjungiert, nach Definition also f ∗ = f . Dann gilt (f ∗ )∗ = f ∗
!
und (f −1 )∗ = (f ∗ )−1 = f −1 ; somit sind f ∗ und f −1 selbstadjungiert.
!
Sodann sei f unitär, nach Definition also f ∗ = f −1 . Dann gilt (f ∗ )∗ = (f −1 )∗ =
!
(f ∗ )−1 und (f −1 )∗ = (f ∗ )−1 = (f −1 )−1 ; somit sind f ∗ und f −1 unitär.
Schliesslich sei f normal, nach Definition also f ∗ ◦ f = f ◦ f ∗ . Wegen (f ∗ )∗ = f
gilt dann
(f ∗ )∗ ◦ f ∗ = f ◦ f ∗ = f ∗ ◦ f = f ∗ ◦ (f ∗ )∗
und
!
!
(f −1 )∗ ◦f −1 = (f ∗ )−1 ◦f −1 = (f ◦f ∗ )−1 = (f ∗ ◦f )−1 = f −1 ◦(f ∗ )−1 = f −1 ◦(f −1 )∗ ,
somit sind f ∗ und f −1 normal.
18. Gegeben sei eine natürliche Zahl n. Beweise oder widerlege:
(a) Für alle nilpotenten komplexen n × n-Matrizen A, B ist auch A + B nilpotent.
(b) Für alle normalen komplexen n × n-Matrizen A, B ist auch A + B normal.
19
Lösung: Für n = 0 ist jede Matrix gleich der Nullmatrix und somit nilpotent
und normal. Also gelten beide Aussagen für n = 0.
Für n = 1 betrachte eine 1 × 1-Matrix A = (a) mit einem Skalar a ∈ C. Nach
Definition ist A nilpotent genau dann, wenn eine Potenz Am die Nullmatrix ist.
Das ist äquivalent zu am = 0, und da C ein Körper ist, zu a = 0. Eine 1 × 1Matrix ist also nilpotent genau dann, wenn sie die Nullmatrix ist. Da die Summe
zweier Nullmatrizen die Nullmatrix ist, gilt die Aussage (a) im Fall n = 1.
Weiter ist die Multiplikation von 1 × 1-Matrizen kommutativ. Insbesondere gilt
A∗ A = AA∗ ; also ist jede komplexe 1 × 1-Matrix normal. Insbesondere gilt auch
die Aussage (b) im Fall n = 1.
Sei nun n = 2. Für (a) setze A := 00 10 und B := 01 00 . Dann gilt A2 = B 2 = 0;
2
also sind A und B nilpotent. Andererseits gilt (A + B)2 = 01 10 = 10 01 ; für
m
alle m ≥ 1 folgt daraus (A + B)2m = 10 01 = 10 01 6= 0. Also ist A + B nicht
nilpotent; die Aussage (a) ist demnach falsch für n = 2.
Für (b) setze A := 10 −10 und B := 0i 0i . Dann gilt A∗ = A und B ∗ = −B.
Daraus folgt A∗ A = AA = AA∗ und B ∗ B = −BB = BB ∗ ; somit sind A und B
normal. Andererseits ist
1 −i
1
i
2 2i
∗
(A + B) (A + B) =
·
=
,
−i −1
i −1
−2i 2
1
i
1 −i
2 −2i
∗
(A + B)(A + B) =
·
=
.
i −1
−i −1
2i
2
Da die rechten Seiten nicht gleich sind, ist also A+B nicht normal. Die Aussage
(b) ist somit falsch für n = 2.
Für n ≥ 2 beliebig wähle A und B wie im jeweiligen Gegenbeispiel für n = 2
und betrachte die n × n-Blockdiagonalmatrizen
A O
B O
0
0
A :=
und
B :=
.
O O
O O
Da eine Blockdiagonalmatrix nilpotent bzw. normal ist genau dann, wenn ihre
Blockdiagonaleinträge es sind, bilden auch A0 und B 0 ein Gegenbeispiel.
Fazit: Für n ≤ 1 sind beide Aussagen korrekt; für n ≥ 2 sind beide falsch.
19. Beweise oder widerlege: Jeder normale Endomorphismus eines endlich-dimensionalen unitären Vektorraums ist die Komposition eines selbstadjungierten mit
einem unitären Endomorphismus.
Lösung: Für jeden normalen Endomorphismus f : V → V eines endlichdimensionalen unitären Vektorraums V existiert eine Orthonormalbasis b, sodass Mbb (f ) eine Diagonalmatrix mit Diagonaleinträgen λ1 , . . . , λn ∈ C ist.
Für i = 1, . . . , n schreibe λi = ri · eiϕi mit reellen Zahlen ri ∈ R≥0 und
0 ≤ ϕi < 2π. Dann ist der eindeutige Endomorphismus S (bzw. U ) mit der
Darstellungsmatrix
Mbb (S) = diag(r1 , . . . , rn ) bzw. Mbb (U ) = diag(eiϕ1 , . . . , diag(eiϕn )
20
selbstadjungiert (bzw. unitär), und es gilt
Mbb (S ◦ U ) = Mbb (S) · Mbb (U ) = diag(r1 eiϕ1 , . . . , rn eiϕn ) = Mbb (f ),
also S ◦ U = f . Damit ist die Ausage bewiesen.
20. Wir betrachten ein korrekt ausgefüllte Sudokugitter als eine 9 × 9 Matrix S mit
Einträgen in {1, 2, . . . , 9} ⊆ Z. Welche der folgenden Aussagen sind für alle, für
manche, für kein S korrekt?
(a) Die Zahl 45 ist ein Eigenwert von S.
(b) Die Determinante von S ist durch 9 teilbar.
(c) Der Vektor (1, . . . , 9)T ist ein Eigenvektor von S.
*(d) Die Determinante von S ist positiv.
Lösung: (a) Jede Zeile von S besteht aus den Zahlen 1 bis 9 in gewisser
Reihenfolge, somit ist (1, . . . , 1)T ein Eigenvektor zum Eigenwert 1+2+. . .+9 =
45. Die Aussage ist also für alle S korrekt.
(b) Da alle Einträge von S in Z liegen, gilt dasselbe auch für die Determinante.
Die Aussage ist also wohldefiniert. Addieren wir die anderen Zeilen zur ersten,
so steht in der ersten Zeile (45, 45, . . . , 45). Somit ist 45 ein Teiler von det(S).
Die Aussage ist also für alle S korrekt.
Bemerkung. Dividieren wir die erste Zeile durch 45 und addieren weiter alle
anderen Spalten zur ersten, so erhalten wir die erste Spalte (9, 45, . . . , 45)T .
Folglich ist die Determinante sogar durch 9 · 45 = 405 teilbar.
(c) Die Summe jeder Spalte der Matrix Se := S/45 ist 1, und alle Einträge sind
> 0, also ist Se eine Markovmatrix. Mit Aufgabe 16 der Wiederholungsserie I
hat daher jeder komplexe Eigenwert von Se Betrag ≤ 1, also hat jeder komplexe
Eigenwert von S Betrag ≤ 45.
Angenommen v := (1, . . . , 9)T ist ein Eigenvektor von S zu einem Eigenwert λ,
und sei (a1 , . . . , a9 ) die erste Zeile von S. Wegen ai ≥ 1 für alle i und aj > 1
für ein 1 ≤ j ≤ 9, folgt aus dem Vergleichen des ersten Eintrages von Sv = λv
dann
n
X
X
T
λ = (a1 , . . . , an ) · (1, . . . , 9) =
iai >
i = 45,
i=1
i
was ein Widerspruch ist. Also ist (1, . . . , 9)T kein Eigenvektor von S. Die Aussage ist also für kein S korrekt.
(c) Falls S eine Sudokumatrix mit positiver Determinante ist, erhält man durch
Vertauschen der zwei ersten Zeilen wieder eine Sudokumatrix, deren Determinante gleich − det(S), also negativ ist. Daher kann det(S) nicht immer positiv
sein.
Um zu überprüfen ob die Aussage manchmal oder nie gilt, müssen wir entscheiden ob eine Sudokumatrix mit positiver Determinante existiert. Wählen wir
21
zum Beispiel







S := 






1
4
7
2
5
8
3
6
9
2
5
8
3
6
9
4
7
1
3
6
9
4
7
1
5
8
2
4
7
1
5
8
2
6
9
3
5
8
2
6
9
3
7
1
4
6
9
3
7
1
4
8
2
5
7
1
4
8
2
5
9
3
6
8
2
5
9
3
6
1
4
7
9
3
6
1
4
7
2
5
8







,






so folgt durch direktes Rechnen (für welches es sich anbietet einen Computer
zu verwenden)
det(S) = −316 · 5 = −215233605.
Durch Vertauschen der ersten beiden Zeilen in S erhält man somit eine Sudokumatrix mit positiver Determinante. Die Aussage ist also manchmal wahr.
Bemerkung. Nicht jede Sudokumatrix ist invertierbar. Zum Beispiel gilt


6 5 3 9 4 7 8 1 2
 9 8 7 1 6 2 4 3 5 


 4 2 1 3 5 8 6 7 9 


 5 3 8 4 2 6 1 9 7 


 = 0,
5
9
1
3
8
6
2
7
4
det 


 1 9 6 7 8 3 2 5 4 


 8 6 5 2 1 9 7 4 3 


 3 1 9 6 7 4 5 2 8 
7 4 2 8 3 5 9 6 1
siehe auch http://math.stackexchange.com/questions/873709/ .
21. Für welche reellen Zahlen a und b existiert eine reelle 2 × 2-Matrix A mit
a 0
20
A =
?
0 b
Lösung: Nimm an, es gebe eine solche Matrix
A.Trigonalisiere sie über C, das
u ∗
für gewisse u, v ∈ C. Dann
heisst, wähle U ∈ GL2 (C) mit U −1 AU =
0
v
20
u
∗
−1 20
−1
20
ist U A U = (U AU ) =
. Das charakteristische Polynom von
0 v 20
A ist also gleich (X − u20 )(X − v 20 ). Nach Voraussetzung ist es aber auch gleich
(X − a)(X − b). Deshalb sind u20 , v 20 gleich a, b bis auf die Reihenfolge.
Sind u, v ∈ R, so gilt u20 , v 20 ≥ 0, also auch a, b ≥ 0. Andernfalls ist u = v und
somit a = b. Da aber b reell ist, folgt daraus a = b. Eine notwendige Bedingung
für die Existenz von A ist also a, b ≥ 0 oder a = b.
Wir zeigen, dass diese Bedingung
auch hinreicht. Sind a, b ≥ 0, so tut es zum
√
20
a 0 Beispiel die Matrix A := 0 20√b . Sei nun also a = b < 0. Wir erinnern uns
22
an den Ringhomomorphismus
k : C → Mat2×2 (R), x + iy 7→
x −y
.
y x
Betrachte die Matrix
p
p
cos(2π/40) − sin(2π/40)
20
2πi/40
A := k
=
|a| · e
|a| ·
.
sin(2π/40)
cos(2π/40)
20
Wegen der Multiplikativität von k gilt dann
20
A
= k
p
20
2πi/40 20
|a|·e
40πi/40
= k |a|·e
a 0
= k(−|a|) = k(a) =
,
0 a
wie gewünscht. Also ist die Bedingung hinreichend.
22. Für welche der
erfüllt?

0
(a) X 3 = 1
2
folgenden Gleichungen existiert eine reelle Matrix X, die sie

0 0
0 0
3 0


3 5 0
(b) 2X 5 + X = 5 1 9
0 9 0
0 −1
6
4
(c) X + 2X + 10X =
1 0


3 4 0
4

(d) X = 0 3 0 
0 0 −3
Lösung: (a) Ist X eine reelle Matrix mit


0 0 0
X 3 = 1 0 0 ,
2 3 0
dann gilt X 9 = (X 3 )3 = 0 und somit ist X nilpotent. Dann hat aber X das
charakteristische Polynom charX (t) = t3 (siehe Zusammenfassung §8.9) und
folglich ist X 3 = 0, was ein Widerspruch ist. Also erfüllt keine reelle Matrix die
Gleichung.
(b) Betrachte die symmetrische Matrix


3 5 0
B := 5 1 9 .
0 9 0
23
Aus dem Spektralsatz für selbstadjungierte Endomorphismen folgt, dass eine
eine invertierbare Matrix U und λ1 , λ2 , λ3 ∈ R existieren mit


λ1 0 0
U −1 BU =  0 λ2 0  .
0 0 λ3
Da U invertierbar ist, ist die Gleichung 2X 5 + X = B äquivalent zu
2(U −1 XU )5 + U −1 XU = U −1 (2X 5 + X)U = U −1 BU,
mit Y = U −1 XU also äquivalent zu


λ1 0 0
2Y 5 + Y =  0 λ2 0  .
0 0 λ3
Machen wir den Ansatz


µ1 0 0
Y =  0 µ2 0 
0 0 µ3
mit Koeffizienten µ1 , µ2 , µ3 ∈ R, so ist die Gleichung 2Y 5 + Y = diag(λ1 , λ2 , λ3 )
äquivalent zu
2µ5i + µi = λi
für i = 1, 2, 3. Da der höchste Grad im Polynom 2X 5 + X ungerade ist, ist
die Abbildung R → R, x 7→ 2x5 + x surjektiv, und somit existiert für jedes
λi ∈ R ein µi ∈ R5 mit 2µ5i + µi . Wählen wir ein solches für i = 1, 2, 3, so
erfüllt Y = diag(µ1 , µ2 , µ3 ) die betrachtete Gleichung. Die Matrixgleichung der
Aufgabe hat also eine Lösung.
(c) Wir erinnern uns an den injektiven Ringhomomorphismus
x −y
κ : C → Mat2×2 (R), x + iy 7→
.
y x
Da jedes nicht-konstante komplexe Polynom eine komplexe Nullstelle besitzt,
existiert ein z ∈ C mit
z 6 + 2z 4 + 10z = i.
Es folgt
6
4
κ(z) + 2κ(z) + 10κ(z) =
0 −1
,
1 0
also löst κ(z) die gegebene

3
(d) Die Matrix Y := 0
0
Matrixgleichung.

4 0
3 0  hat den Eigenwert −3 mit geometrischer
0 −3
 
0

Vielfachheit 1 und dem zugehörigen Eigenvektor v := 0. Angenommen es
1
4
existiert eine reelle Matrix X mit X = Y . Dann ist
Y Xv = X 5 v = X(X 4 v) = XY v = −3Xv,
24
also liegt Xv im Eigenraum von Y zum Eigenwert −3, und somit ist Xv = λv
für ein λ ∈ R. (Siehe auch Serie 12 Aufgabe 7a.) Es folgt
−3v = Y v = X 4 v = λ4 v,
also λ4 = −3 was unmöglich ist. Also besitzt die Gleichung keine Lösung.
23. Was sind die Möglichkeiten für den Rang einer reellen 7 × 7-Matrix mit Minimalpolynom X 2 ?
Lösung: Der einzige normierte irreduzible Faktor des Minimalpolynoms ist X.
Dies entspricht dem Eigenwert 0. Also ist die Jordannormalform der Matrix
eine Blockdiagonalmatrix mit Blockdiagonaleinträgen der Form


0 1 0 ... 0
 ... . . . . . . . . . ... 
 .
... ... 
..
Nj := 
der Grösse j × j
0 
 .

.
.. 1 
 ..
0 ... ... ... 0
für gewisse j ≥ 1. Nach der Definition des Minimalpolynoms gilt A2 = 0. Für
alle j ≥ 3 ist aber Nj2 6= 0; somit können nur Jordanblöcke der Form N1 und N2
auftreten. Nach der Minimalität des Minimalpolynoms ist andererseits A 6= 0.
Wegen N1 = 0 und N2 6= 0 muss daher mindestens ein Block der Form N2 in der
Jordannormalform von A auftreten. Die Anzahl der Jordanblöcke der Form N2
ist also eine Zahl a ≥ 1. Die Anzahl der Jordanblöcke der Form N1 ist dann
gleich 7 − 2a ≥ 0. Die möglichen Werte sind also a = 1, 2, 3. Der Rang der
Matrix ist nun gleich
a · Rang(N2 ) + (7 − 2a) · Rang(N1 ) = a · 1 + (7 − 2a) · 0 = a.
Die Möglichkeiten für den Rang sind also genau 1, 2, 3.
24. Sei K ein Körper. Bestimme alle natürlichen Zahlen n, so dass die JordanNormalform jedes Endomorphismus eines n-dimensionalen K-Vektorraums durch
das charakteristische Polynom zusammen mit dem Minimalpolynom bereits eindeutig bestimmt ist.
Lösung: Für jedes n ≥ 4 betrachte

0
 0
 0

Ax :=  0

 0
..
.
die n × n-Blockdiagonalmatrix

1 0 0 0 ···
0 0 0 0 ··· 
0 0 x 0 ··· 

0 0 0 0 ··· 

0 0 0 0 ··· 
.. .. .. .. . .
. . . . .
Für jedes x ∈ {0, 1} ist sie in Jordanscher Normalform, und zwar mit 1 + x
Jordanblöcken der Form 00 10 sowie n − 2 − 2x Jordanblöcken der Form (0). In
beiden Fällen ist das charakteristische Polynom gleich X n und das Minimalpolynom gleich X 2 , die Jordan-Normalformen sind jedoch nicht äquivalent. Die zu
25
den Matrizen A0 und A1 assoziierten Endomorphismen bilden also Gegenbeispiele zu der gewünschten Eigenschaft. Die Eigenschaft ist also für jedes n ≥ 4
verletzt.
Wir zeigen nun, dass für jedes n ≤ 3 die gewünschte Eigenschaft erfüllt ist.
Sei also f ein beliebiger Endomorphismus eines K-Vektorraums der Dimension
n ≤ 3. Durch Induktion können wir voraussetzen, dass die Aussage bereits für
jeden Endomorphismus eines K-Vektorraums der Dimension < n gilt.
Besitzt der Endomorphismus mehrere Haupträume, so entspricht die Hauptraumzerlegung der Zerlegung des charakteristischen Polynoms wie des Minimalpolynoms in Potenzen verschiedener normierter irreduzibler Faktoren, welche jeweils das charakteristische Polynom bzw. das Minimalpolynom des von f
induzierten Endomorphismus des Hauptraums sind. Nach Induktionsvoraussetzung ist die Jordannormalform dann in jedem Hauptraum schon durch das charakteristische und das Minimal-Polynom bestimmt, also ist sie insgesamt durch
das charakteristische und das Minimal-Polynom bestimmt, wie gewünscht.
Wir können also annehmen, dass der Endomorphismus höchstens einen Hauptraum, sagen wir zum normierten irreduziblen Polynom p(X) ∈ K[X], besitzt.
Das Minimalpolynom von f ist dann gleich p(X)r für ein r ≥ 0.
Ist r = 0, so muss 0 = p(f )0 = idV sein, also V = 0. In diesem Fall gibt es
überhaupt nur einen Endomorphismus; der ist schon in Jordannormalform und
hängt von nichts mehr ab; also ist die fragliche Bedingung in diesem Fall erfüllt.
Ist r = 1, so ist die Begleitmatrix von p(X) die einzige Möglichkeit für die
Jordanblöcke von f . Die Anzahl dieser Blöcke ist dann auch durch n = dim(V )
bestimmt; die fragliche Bedingung ist somit auch in diesem Fall erfüllt.
Ist r ≥ 2, so gibt es wegen 3 ≥ n = dim(V ) ≥ deg(p(X)r ) = r · deg(p(X)) nur
die Möglichkeiten (r, n) ∈ {(2, 2), (2, 3), (3, 3)} mit deg(p(X)) = 1.
Im Fall (r, n) = (2, 2) gibt es genau einen Jordanblock der Grösse 2 × 2 und
sonst keinen, also ist die Jordannormalform eindeutig bestimmt.
Im Fall (r, n) = (2, 3) gibt es je einen Jordanblock der Grössen 2 × 2 und 1 × 1
und sonst keine, also die Jordannormalform ebenfalls eindeutig bestimmt.
Im Fall (r, n) = (3, 3) gibt es genau einen Jordanblock der Grösse 3 × 3 und
sonst keinen, also ist die Jordannormalform ebenfalls eindeutig bestimmt.
Fazit: Die natürlichen Zahlen mit der gewünschten Eigenschaft sind, unabhängig
vom Körper K, genau die Zahlen 0, 1, 2, 3.
25. Wir betrachten alle reellen symmetrischen 3×3-Matrizen, welche
 
 
 
−1
1
1





0 , v2 := 0 , v3 := 1
v1 :=
1
1
1
als Eigenvektoren besitzen.
(a) Was lässt sich über die Eigenwerte λi zu vi aussagen?
(b) Gib eine Parametrisierung der Menge aller dieser Matrizen.
26
Lösung: (a) Alle Eigenwerte einer symmetrischen Matrix sind reell, und die
Eigenräume zu verschiedenen Eigenwerte sind orthogonal. Da v2 und v3 nicht
orthogonal zueinander sind, muss somit λ2 = λ3 gelten.
Wir behaupten, dass dies die einzigen Einschränkungen an die Eigenwerte sind.
Genauer zeigen wir, dass für alle λ, µ ∈ R eine symmetrische Matrix mit Eigenvektoren v1 , v2 , v3 zu den jeweiligen Eigenwerten λ, µ, µ existiert. Da die Vektoren v1 , v2 , v3 eine Basis von R3 bilden, ist die Matrix durch diese Eigenwerte
dann auch eindeutig bestimmt. Die Eindeutigkeit hilft uns bei der Konstruktion
und gibt uns gleichzeitig die Lösung von (b).
Zunächst überführen wir die gegebene Basis in eine Orthonormalbasis. Sei dafür
v20 , v30 eine Orthonormalbasis des Erzeugnisses hv2 , v3 i, also zum Beispiel
 
 
0
1
1
v20 := 1 , v30 := √ 0 ,
2 1
0
und sei v10 = √12 (−1, 0, 1)T die Normalisierung von v1 . Dann bilden die Vektoren
(v10 , v20 , v30 ) eine Orthonormalbasis von R3 ; folglich ist die Matrix


−1 √0 1
1
U=√ 0
2 0
2
1
0 1
orthogonal. Somit ist für

λ

Aλ,µ = U · 0
0
jedes λ, µ ∈ R die Matrix



λ+µ
0 −λ + m
0 0
1
2µ
0 
µ 0  · U −1 =  0
2
−λ + µ 0
λ+µ
0 µ
symmetrisch und besitzt die Eigenvektoren v1 , v2 , v3 zu den jeweiligen Eigenwerten λ, µ, µ.
(b) Nach obiger Rechnung ist es die Menge aller Matrizen


λ+µ
0 −λ + m
1
0
2µ
0 
2
−λ + µ 0
λ+µ
für alle λ, µ ∈ R.

1
4
0
0
−1 −3
0
0


0
2
1
26. Seien A =  0
 0
0
1
3
0
0 −1 −2


0
8
6


0
−12 −9

0 und B = 
0
 0
 9
1
6
1
6
4
0
0
0
0
3
0
0 −8
0 −4

0
0

0
.
12
6
Bestimme die Jordansche Normalform von A und von B, sowie zugehörige
Jordan-Basen von R5 .
27
Lösung: (A) Wir bestimmen die Jordansche Normalform von A, indem wir
die Jordansche Normalform der einzelnen Blöcke


2
1
0
1
4
3
1
A1 :=
, A2 :=  1
−1 −3
−1 −2
1
bestimmen.
(A1) Die Matrix A1 hat das characteristische Polynom
charA1 (X) = X 2 + 2X + 1 = (X + 1)2 ,
also ist −1 der einzige Eigenwert von A1 . Wegen A1 + I2 = −12 −24 6= 0 hat A1
genau einen Jordanblock zum Eigenwert −1 der Grösse 2×2. Sei v1 ein beliebiger
Vektor der nicht in Kern(A1 + I2 ) liegt, also zum Beispiel v1 := (1, 0)T . Dann
bildet
(A1 v1 , v1 ) = (2, −1)T , (1, 0)T
eine Jordanbasis von R2 zu A1 .
(A2) Das charakteristische Polynom von A2 ist
charA2 (A) = X 3 − 6X 2 + 12X − 8 = (X − 2)3 ,
also ist 2 der einzige Eigenwert. Wir haben




0
1
0
1
1
1
1
1  , (A2 − 2I3 )2 =  0
0
0 
A2 − 2I3 =  1
−1 −2 −1
−1 −1 −1
und (A−2I3 )k = 0 für alle k ≥ 3. Die Matrix A2 hat also einen 3×3-Jordanblock
zum Eigenwert 2. Sei w1 ∈ R3 r Kern((A − 2I3 )2 ) beliebig, also zum Beispiel
sei w1 := (1, 0, 0)T . Dann ist
(A2 − I3 )2 w1 , (A2 − I3 )w1 , w1 = (1, 0, −1)T , (0, 1, −1)T , (1, 0, 0)T
eine Jordanbasis von A2 .
Wir schliessen, dass A die Jordansche

−1
1
 0 −1

 0
0

 0
0
0
0
Normalform
0
0
2
0
0
besitzt mit der zugehörigen Jordanbasis
     
2
1
0
−1 0  0 
     
 0  , 0 ,  1  ,
     
 0  0  0 
0
0
−1
28
0
0
1
2
0


0
0

0

1
2

0
0
 
 0 ,
 
1
−1
 
0
0
 
1 .
 
0
0
(B) Durch Spaltenentwicklung entlang der dritten Spalte erhalten wir das charakteristische Polynom


X −8
−6
0
0
0
 12
X −9
0
0
0 


0
X −3
0
0 
charB (X) = det 
 0

 −9
−6
0
X + 8 −12 
−6
−4
0
4
X −6


X − 8 −6
0
0
 12
X +9
0
0 

= (X − 3) · det 
 −9
−6 X + 8 −12 
−6
−4
4
X −6
X − 8 −6
X + 8 −12
= (X − 3) · det
· det
12
X +9
4
X −6
= (X − 3) · (X 2 + X) · (X 2 + 2X)
= (X − 3)(X + 1)(X + 2)X 2 .
Folglich hat B die Eigenwerte −2, −1, 0 und 3.
Da die Eigenwerte −2, −1 und 3 mit geometrischer Vielfachheit 1 auftreten, haben die zugehörigen Jordan-Blöcke Grösse 1. Es genügt deshalb, die zugehörige
Eigenvektoren bzw. Eigenräume zu bestimmen. Wir erhalten
Eig−2 (B) = h(0, 0, 0, 2, 1)T i
Eig−1 (B) = h(2, −3, 0, 0, 0)T i
Eig3 (B) = h(0, 0, 1, 0, 0)T i
Wir betrachten die Eigenwert 0. Wir haben

−8 −6 0
 12 9 0

0 9
B2 = 
0
0
0 0
0
0 0

0
0
0
0 

0
0 

16 −24
8 −12
und
Kern(B) = span (0, 0, 0, 3, 2)T .
HauX (B) = Kern(B 2 ) = span (3, −4, 0, 0, 0)T , (0, 0, 0, 3, 2)T .
Sei w ∈ Kern(B 2 ) r Kern(B) beliebig, sei zum Beispiel w := (3, −4, 0, 0, 0)T .
Dann bildet
(Bw, w) = (0, 0, 0, 3, 2)T , (3, −4, 0, 0, 0)T
eine Jordanbasis des Hauptraums HauX (B).
Wir schliessen, dass B die Jordansche Normalform


−2 0 0 0 0
 0 −1 0 0 0


0

0
0
1
0


0
0 0 0 0
0
0 0 0 3
29
mit der zugehörigen Jordanbasis
   
0
2
0 −3
   
0 ,  0  ,
   
2  0 
1
0
 
0
0
 
0 ,
 
3
2


3
−4
 
 0 ,
 
0
0
 
0
0
 
1
 
0
0
besitzt.
27. Seien f und g Endomorphismen eines endlich-dimensionalen Vektorraums V .
Zeige, dass die Endomorphismen f g und gf dasselbe charakteristische Polynom
haben.
Lösung: Wähle eine geordnete Basis (v1 , . . . , vr ) von Kern(f ) und erweitere
sie zu einer geordneten Basis B := (v1 , . . . , vn ) von V . Die Vektoren wi := f (vi )
für alle r < i ≤ n bilden dann eine geordnete Basis von Bild(f ). Erweitere diese
zu einer geordneten Basis B 0 := (w1 , . . . , wn ) von V . Die zugehörige Darstellungsmatrix von f ist dann die folgende Blockmatrix mit s := n − r:
O O
MB 0 B (f ) =
.
O Is
Schreibe die Darstellungsmatrix von g bezüglich der vertauschten Basen ebenfalls in Blockform:
A B
.
MBB 0 (g) =
C D
Die zusammengesetzten Endomorphismen haben dann die Darstellungsmatrizen
O O
A B
O B
·
.
MBB (gf ) = MBB 0 (g) · MB 0 B (f ) =
=
C D
O Is
O D
MB 0 B 0 (f g) = MB 0 B (f ) · MBB 0 (g) =
O O
O Is
A B
O O
·
=
.
C D
C D
Die charakteristische Polynome dieser Blockdreiecksmatrizen hängen von den
Einträgen ausserhalb der Blockdiagonale, also von B bzw. C, nicht ab. Sie sind
also beide gleich dem charakteristischen Polynom der Blockmatrix
O O
,
O D
und somit sind sie untereinander gleich.
Aliter: Wegen der Funktorialität von Altr und wegen Spur(F ◦G) = Spur(G◦F )
für alle Endomorphismen F, G eines endlich-dimensionalen Vektorraums gilt
Spur(Altr (f ◦ g)) = Spur(Altr (f ) ◦ Altr (g))
= Spur(Altr (g) ◦ Altr (f ))
= Spur(Altr (g ◦ f ))
30
für alle r ≥ 0, also mit n = dim(V ) und Serie 23 Aufgabe 1 somit
charf ◦g (X) =
n
X
(−1)r Spur(Altr (f ◦ g))X n−r
r=0
=
n
X
(−1)r Spur(Altr (g ◦ f ))X n−r
r=0
= charg◦f (X) .
28. Betrachte zwei K-Vektorräume V , W sowie einen Unterraum V 0 ⊂ V .
(a) Konstruiere einen natürliche injektiven Homomorphismus
V 0 ⊗K W ,→ V ⊗K W.
Identifiziere V 0 ⊗K W mit seinem Bild.
(b) Konstruiere einen natürlichen Isomorphismus
(V ⊗K W )/(V 0 ⊗K W ) ∼
= (V /V 0 ) ⊗K W.
Lösung: Nach Definition von V ⊗K W ist die Abbildung V × W → V ⊗K W ,
(v, w) 7→ v ⊗ w bilinear. Somit ist auch ihre Einschränkung V 0 × W → V ⊗K W
bilinear. Nach Definition von V 0 ⊗K W existiert also eine eindeutige lineare
Abbildung i, für die das folgende Diagramm kommutiert:
(v, w)
_
v ⊗0 w

V0×W V 0 ⊗K W
/
i
/
V ×W
V ⊗K W
(v, w)
_
v⊗w
Dabei bezeichnen wir das Bild eines Paars (v, w) ∈ V 0 × W in V 0 ⊗K W mit
v ⊗0 w, zur Unterscheidung von seinem Bild v ⊗ w in V ⊗K W .
Die Abbildung i ist natürlich, das heisst, sie hängt von keiner Wahl ab. Nun
wählen wir aber eine Basis B 0 von V 0 und erweitern sie zu einer Basis B von V .
Ausserdem wählen wir eine Basis C von W . Dann bilden die Elemente b ⊗ c für
alle (b, c) ∈ B × C eine Basis von V ⊗K W . Andererseits bilden die Elemente
b ⊗0 c für alle (b, c) ∈ B 0 × C eine Basis von V 0 ⊗K W . Für diese gilt aber nach
Konstruktion i(b ⊗0 c) = b ⊗ c; somit bildet i eine Basis von V 0 ⊗K W bijektiv
auf eine Teilmenge einer Basis von V ⊗K W ab. Daher ist i injektiv, und (a) ist
gegeigt.
Aliter: Die Inklusionsabbildung ι : V 0 ,→ V , v 0 7→ v ist linear. Also haben wir
eine eindeutige lineare Abbildung i := ι ⊗ idW : V 0 ⊗K W → V ⊗K W mit
i(v ⊗0 w) = v ⊗ w für alle (v, w) ∈ V 0 × W . Fahre weiter wie oben.
(b) Die kanonische Abbildung π : V V /V 0 , v 7→ v + V 0 ist linear. Also haben
wir eine eindeutige lineare Abbildung ρ := π ⊗ idW : V ⊗K W → (V /V 0 ) ⊗K W
mit ρ(v ⊗ w) = (v + V 0 ) ⊗ w für alle (v, w) ∈ V × W .
31
Wähle Basen B 0 , B, C wie oben. Dann bilden die Elemente π(b) = b+V 0 für alle
b ∈ B 00 := B r B 0 eine Basis von V /V 0 . Somit bilden die Elemente (b + V 0 ) ⊗ c
für alle (b, c) ∈ B 00 × C eine Basis von (V /V 0 ) ⊗K W . Der Klarheit wegen setze
B̃ := {b ⊗ c | (b, c) ∈ B × C},
B̃ 0 := {b ⊗ c | (b, c) ∈ B 0 × C},
B̃ 00 := {b ⊗ c | (b, c) ∈ B 00 × C}.
Dann ist B̃ eine Basis von V ⊗K W und B̃ 0 eine Basis des Unterraums V 0 ⊗K W ,
·
und es gilt B̃ = B̃ 0 ∪ B̃ 00 . Nach Konstruktion gilt für alle (b, c) ∈ B × C
(
(b + V 0 ) ⊗ c falls b ∈ B 00 ,
ρ(b ⊗ c) =
0
falls b ∈ B 0 , da dann π(b) = 0 ist.
Also bildet ρ die Basis B̃ 0 von V 0 ⊗K W auf 0, aber die Basis B̃ 00 eines Komplements bijektiv auf eine Basis von (V /V 0 ) ⊗K W ab. Deshalb ist ρ surjektiv mit
Kern V 0 ⊗K W . Nach Serie 22 Aufgabe 4d induziert ρ somit den gewünschten
Isomorphismus.
Da schliesslich ρ von keiner Wahl abhängt, sind ρ und der so gefundene Isomorphismus natürlich.
29. Seien V ein endlichdimensionaler
Vektorraum und p eine natürliche Zahl. Ein
Vp
V der Form v1 ∧ . . . ∧ vp für Vektoren v1 , . . . , vpV∈ V heisst rein.
Element von
Betrachte ein beliebiges nicht-verschwindendes Element α ∈ p V . Zeige: Der
Kern der Abbildung
^p+1
fα : V →
V, v 7→ v ∧ α
hat Dimension ≤ p, und es gilt Gleichheit genau dann, wenn α rein ist.
Lösung: Sei (e1 , . . . , en ) eine Basis von V , sodass (e1 , . . . , ek ) eine Basis von
Kern(fα ) ist für ein 0 ≤ k ≤ n. Die induzierte Basis von Λp V besteht dann aus
ei1 ∧ . . . ∧ eip
für alle 1 ≤ i1 < . . . < ip ≤ n.
Folglich existieren eindeutige Koeffizienten αi1 ,...,ip ∈ R mit
α=
X
αi1 ...ip ei1 ∧ . . . ∧ eip .
1≤i1 <...<ip ≤n
Für jedes j ∈ {1, . . . , n} sind die Vektoren
e j ∧ e i1 ∧ . . . ∧ e ip
für alle 1 ≤ i1 < . . . < ip ≤ n mit j ∈
/ {i1 , . . . , ip }
bis auf Vorzeichen Teil der von (e1 , . . . , en ) induzierten Basis von ∧p+1 V , also
insbesondere linear unabhängig. Für jedes j ∈ {1, . . . , k} gilt
X
0 = ej ∧ α =
αi1 ...ip ej ∧ ei1 ∧ . . . ∧ eip ,
1≤i1 <...<ip ≤n
j ∈{i
/ 1 ,...,ip }
32
mit der linearen Unabhängigkeit von {ej ∧ ei1 ∧ . . . ∧ eip }j ∈{i
/ 1 ,...,ip } also
αi1 ...ip = 0
für alle 1 ≤ i1 < . . . < ip ≤ n mit j ∈
/ {i1 , . . . , ip }.
Kontrapositiv gesagt bedeutet dies
j ∈ {i1 , . . . , ip }
für alle 1 ≤ i1 < . . . < ip ≤ n mit αi1 ...ip 6= 0.
Da j ∈ {1, . . . , k} beliebig war, gilt also
{1, . . . , k} ⊂ {i1 , . . . , ip }
für alle 1 ≤ i1 < . . . < ip ≤ n mit αi1 ...ip 6= 0.
Wegen α 6= 0 gibt es mindestens ein solches αi1 ...ip 6= 0, und für dieses folgt
dim Kern(fα ) = k ≤ p, die erste zu beweisende Aussage.
Andererseits haben wir jetzt
α = e1 ∧ . . . ∧ ek ∧ η
für ein η ∈ Λp−k V r {0}.
Ist k = p, dann ist η ∈ Λ0 V = K ein Skalar, also α = (ηv1 ) ∧ . . . ∧ vp rein.
Sei schliesslich umgekehrt α = v1 ∧ . . . ∧ vp ∈ ∧p V ein nicht-verschwindendes
reines Element. Nach Serie 25, Aufgabe 2 c sind die Vektoren v1 , . . . , vp dann
linear unabhängig. Nach Serie 25, Aufgabe 3 ist weiter Kern(fα ) = hv1 , . . . , vp i,
also gilt dim Kern(fα ) = p, was zu zeigen war.
30. Betrachte eine 4 × 2-Matrix M = (mij )1≤i≤4, 1≤j≤2 und bezeichne ihre 2 × 2mi1 mi2
Minoren mit Mij := det m
für alle 1 ≤ i < j ≤ 4.
j1 mj2
Existiert eine reelle 4 × 2-Matrix M mit (M12 , M13 , M14 , M23 , M24 , M34 ) gleich
(a) (2, 3, 4, 5, 6, 7) ?
(b) (3, 4, 5, 6, 7, 8) ?
(c) (1, 5, 3, 3, 2, 1) ?
(Hinweis: Rechne in Λ2 R4 !)
Lösung: Sei (e1 , e2 , e3 , e4 ) die Standardbasis von R4 .
Ist M = (v1 v2 ) mit v1 , v2 ∈ R4 eine 4×2-Matrix mit Minoren 2×2-Minoren Mij
für 1 ≤ i < j ≤ 4, so folgt aus direktem Nachrechnen
X
v1 ∧ v2 =
Mij ei ∧ ej .
1≤i<j≤4
Umgekehrt ist jedes reine äussere Produkt α ∈ ∧2 R4 von dieser Form.
Wir müssen also prüfen ob die Elemente
(a) α1 := 2e1 ∧ e2 + 3e1 ∧ e3 + 4e1 ∧ e4 + 5e2 ∧ e3 + 6e2 ∧ e4 + 7e3 ∧ e4
(b) α2 := 3e1 ∧ e2 + 4e1 ∧ e3 + 5e1 ∧ e4 + 6e2 ∧ e3 + 7e2 ∧ e4 + 8e3 ∧ e4
(c) α3 := 1e1 ∧ e2 + 5e1 ∧ e3 + 3e1 ∧ e4 + 3e2 ∧ e3 + 2e2 ∧ e4 + 1e3 ∧ e4
33
rein sind. Nach Serie 25, Aufgabe 5b ist ein Element α ∈ ∧2 R4 rein genau dann,
wenn α2 = 0 ist. Wir rechnen
α1 ∧ α1 = 2 · 2 · 7 · (e1 ∧ e2 ) ∧ (e3 ∧ e4 ) + 3 · 6 · (e1 ∧ e3 ) ∧ (e2 ∧ e4 )
+ 4 · 5 · (e1 ∧ e4 ) ∧ (e2 ∧ e3 )
= 2 · 2 · 7 − 3 · 6 + 4 · 5 e1 ∧ e2 ∧ e3 ∧ e4
= 32 · e1 ∧ e2 ∧ e3 ∧ e4 6= 0
α2 ∧ α2 = 2 · 3 · 8 − 4 · 7 + 5 · 6 e1 ∧ e2 ∧ e3 ∧ e4
= 52 · e1 ∧ e2 ∧ e3 ∧ e4 6= 0
α3 ∧ α3 = 2 · (1 − 10 + 9) · e1 ∧ e2 ∧ e3 ∧ e4 = 0 .
Also existiert eine 4 × 2-Matrix mit den angegeben Minoren im Fall (c), aber
nicht in den Fällen (a) und (b).
31. Zeige: Für je zwei K-Vektorräume V und W und für jedes k ≥ 0 gibt es einen
natürlichen Isomorphismus
^i
^j ^k
V ⊗
W ∼
(V W ) .
=
i+j=k
Lösung: Seien ιV : V → V W, v 7→ (v, 0) und ιW : W → V W, w 7→ (0, w)
die natürlichen Inklusionen. Für jedes i + j = k betrachte die Abbildung
×j
^k
(ι×i
V ,ιW )
κ
ϕij : V × W −−−−−→ V W )k −−→
(V W ),
i
j
wobei κ die universelle alternierende Abbildung bezeichnet. Da κ alternierend
ist, gilt für alle v1 , . . . , vi ∈ V und w1 , . . . , wj ∈ W
ϕij (v1 , . . . , vi , w1 , . . . , wj ) = sgn(σ)ϕij (vσ(1) , . . . , vσ(i) , w1 , . . . , wj )
= sgn(τ )ϕij (v1 , . . . , vi , wτ (1) , . . . , wτ (j) ,
für alle σ ∈ Si und τ ∈ Sj . Durch Anwenden der universellen Eigenschaft von
(∧i V, κV ) und (∧j W, κW ) erhalten wir eine Abbildung
ψij :
^i
V ×
^j
W −→
^k
(V W )
mit ϕij = ψij ◦ (κV , κW ). Aus der Multilinearität von ϕij folgt durch direktes
Nachprüfen, dass ψij bilinear ist. Mit der universellen Eigenschaft des Tensorproduktes (∧i V ⊗ ∧j W, t ) erhält man somit eine Abbildung
ηij :
^i
V ⊗
^j
W −→
^k
(V W )
mit ψij = ηij ◦ t. Betrachte die induzierte Abbildung
E=
ηij
i+j=k
:
i+j=k
^i
V ⊗
34
^j
W
−→
^k
(V W ) .
Wir zeigen die Abbildung E ist ein Isomorphismus.
Sei B eine geordnete Basis von V und sei B 0 eine geordnete Basis von W . Dann
ist für jedes i
^i
b1 ∧ . . . ∧ bi für alle b` ∈ B mit b1 < . . . < bi eine Basis von
V,
und für jedes j
b01 ∧ . . . ∧ b0j für alle b0` ∈ B 0 mit b01 < . . . < b0j eine Basis von
^j
W.
Somit ist
(b1 ∧ . . . ∧ bi ) ⊗ (b01 ∧ . . . ∧ b0j )
für alle b` ∈ B mit b1 < . . . < bi und für alle b0` ∈ B 0 mit b01 < . . . < b0j
V
V
0
0
eine Basis von i V ⊗ j W . Wenn inclij : ∧i V ⊗∧j W → i0 +j 0 =k ∧i V ⊗ ∧j W
die natürliche Inklusion bezeichnet, ist also
0
0
für alle i + j = k,
inclij (b1 ∧ . . . ∧ bi ) ⊗ (b1 ∧ . . . ∧ bj )
für alle b` ∈ B mit b1 < . . . < bi , für alle b0` ∈ B 0 mit b01 < . . . < b0j
V
Vj i
V
⊗
W .
eine Basis von
i+j=k
Andererseits ist
B 00 := (b, 0) b ∈ B ∪ (0, b0 ) b0 ∈ B 0
zusammen mit der Ordnung
(b1 , 0) < (b2 , 0) ⇔ b1 < b2
(b, 0) < (0, b0 )
(0, b01 ) < (0, b02 ) ⇔ b01 < b02
für alle b1 , b2 ∈ B
für alle b ∈ B, b0 ∈ B 0
für alle b01 , b02 ∈ B 0
eine geordnete Basis von V ⊕ W , also
(b1 , 0) ∧ . . . ∧ (bi , 0) ∧ (0, b01 ) ∧ . . . ∧ (0, b0j )
für alle i + j = k,
für alle b` ∈ B mit b1 < . . . < bi , für alle b0` ∈ B 0 mit b01 < . . . < b0j
V
eine Basis von k (V W ). Wir zeigen, dass E die eine gewählte Basis bijektiv
auf die andere abbildet:
Für alle i + j = k und für alle b1 , . . . , bi ∈ B mit b1 < · · · < bi und für alle
b01 , . . . , bj ∈ B 0 mit b01 < . . . < b0j gilt
E inclij (b1 ∧ . . . ∧ bi ) ⊗ (b01 ∧ . . . ∧ b0j )
= ηij (b1 ∧ . . . ∧ bi ) ⊗ (b01 ∧ . . . ∧ b0j )
= ηij ◦ t b1 ∧ . . . ∧ bi , b01 ∧ . . . ∧ b0j
= ψij b1 ∧ . . . ∧ bi , b01 ∧ . . . ∧ b0j
= ψij ◦ (κV , κW )(b1 , . . . , bi , b01 , . . . , b0j
= ϕij b1 , . . . , bi , b01 , . . . , b0j
= κ (b1 , 0), . . . , (bi , 0), (0, b01 ), . . . , (0, b0j )
= (b1 , 0) ∧ . . . ∧ (bi , 0) ∧ (0, b01 ) ∧ . . . ∧ (0, b0j ) .
35
Also bildet E die Basis von i+j=k (∧i V ⊗ ∧j W ) bijektiv auf die Basis von
∧k (V W ) ab, ist also ein Isomorphismus.
36
Herunterladen