¨Ubungsblatt 1

Werbung
Übungsblatt 1
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 09.04.2008, 08:11 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
07.04.2008, 08:00 Uhr.
Dieses Blatt ist das erste Übungsblatt zur Vorlesung Lineare Algebra II. Es ist in der ersten Übungsgruppe im
Sommersemester 2008 abzugeben.
1
Gegeben seien die Matrizen


3 5 3


A= 1 2 1 ,
1 −1 7


3 2 6 3


B= 2 1 3 2 .
2 3 1 4
1. (5 Punkte) Untersuchen Sie die folgenden Gleichungssysteme darauf, ob sie eindeutige reelle Lösungen haben:


 
15
4


 
Ax =  6  ,
Bx =  1  .
−9
6
2. (5 Punkte) Beschreiben Sie die Geometrie der Lösungsräume der Gleichungssysteme Ax = b und
Bx = b als Unterräume von R3 beziehungsweise von R4 als Funktion von b ∈ R3 .
3. (5 Punkte) Geben Sie schließlich die Lösungsräume explizit an!
Lösungshinweis Beide Matrizen A, B haben Rang 3. Die Matrix A ist daher als quadratische Matrix invertibel, eine Lösung existiert und ist eindeutig, also ein Punkt in R3 . Einzige Lösung von
Ax = a ist (1, 3, −1). Im zweiten Fall ist die Lösungsmenge ein affiner Unterraum des R4 der Dimension 1. Insbesondere gibt es nie eine eindeutige Lösung. Die explizite Lösungsmenge von Bx = b ist
(1/2, 5, 0, −5/2) + R(−4, −3, 1, 4).
2
Im R2 seien die Basen
A=
−1
1
!
,
2
3
!!
,
1
2
B=
!
,
0
1
!!
gegeben.
1. (5 Punkte) Berechnen Sie die Transformationsmatrix TBA .
2. (5 Punkte) Bestimmen Sie mit Hilfe der Transformationsmatrix die Koordinaten des Vektors
!
!
−1
2
v=2
+9
1
3
bezüglich der Basis B .
Lösungshinweis
Aus a j = ∑i Ti j bi finden wir mit
a1 = −b1 + 3b2
a2 = 2b1 − b2
die Matrix
T=
−1
2
3 −1
!
.
Es folgt T (2, 9) = (16, −3), also v = 16b1 − 3b2 .
3
(5 Punkte) Sei K ein beliebiger Körper und seien Q der Körper der rationalen Zahlen und R der Körper
der reellen Zahlen. Sind die folgenden Teilmengen Unterrringe der angegebenen Matrizenringe?
!
a 0
∈ M(2 × 2, R) | a ∈ Q, b, c ∈ R} ⊂ M(2 × 2, R)
1. {
b c
!
a 0
2. {
∈ M(2 × 2, K) | a, b ∈ K} ⊂ M(2 × 2, K)
b 0
Lösungshinweis
Durch Nachrechnen sehen wir, dass beide Teilmengen unter Addition und Multiplikation abgeschlossen
sind. Also sind beide Teilmengen Unterringe der gegebenen Matrizenringe.
4
(10 Punkte) Sei K ein Körper und seien X,Y ∈ M(m×n, K) Matrizen. Zeigen Sie: die beiden Matrizen sind
genau dann äquivalent, wenn sie dieselbe lineare Abbildung bezüglich verschiedener Basen beschreiben.
Das heißt: Es gibt einen n-dimensionalen K-Vektorraum V mit zwei geordneten Basen A , A 0 und einen mdimensionalen K-Vektorraum W mit zwei geordneten Basen B , B 0 und eine lineare Abbildung Φ : V → W ,
so dass gilt
0
X = MBA (Φ) und Y = MBA0 (Φ) .
Lösungshinweis
“⇐” folgt sofort aus Satz 2.7.4.
“⇒” Seien X,Y äquivalente m × n Matrizen:
Y = SXT −1
mit S ∈ GL(m, K) und T ∈ GL(n, K). Sei A = (v1 , . . . , vn ) eine beliebige geordnete Basis von V und
B = (w1 , . . . , wm ) eine beliebige geordnete Basis von W . Betrachte die durch
Φ(vi ) =
m
∑ X jiw j
j=1
definierte lineare Abbildung. Finde nun die geordnete Basis A 0 von V mit Elementen v0i , die durch
n
v j = ∑ Ti j v0i
i=1
definiert ist; analog finde eine geordnete Basis B 0 von W mit
m
w j = ∑ Si j w0i
i=1
und rechne
Φ(v0i ) = Φ(∑ j T ji−1 v j ) = ∑ j T ji−1 Φ(v j )
= ∑ j,k Xk j T ji−1 wk = ∑ jkl Slk Xk j T ji−1 w0l = ∑l Yli w0l
5
(15 Punkte) Sei K ein Körper, V ein K-Vektorraum, U ⊂ V ein Untervektorraum und π : V → V /U die
kanonische Surjektion.
(i) Zeigen Sie:
Dann existiert für jeden K-Vektorraum X und jede lineare Abbildung f : V → X mit f|U = 0 eine eindeutig
bestimmte lineare Abbildung f˜ : V /U → X mit f = f˜ ◦ π.
Sei Q ein K-Vektorraum und π̂ : V → Q eine lineare Abbildung mit π̂|U = 0, so dass für jede lineare
Abbildung f : V → X mit f|U = 0 eine eindeutig bestimmte lineare Abbildung fˆ : Q → X mit f = fˆ ◦ π̂
existiert.
(ii) Zeigen Sie:
Dann gibt es einen eindeutig bestimmten Isomorphismus fˆQ : Q → V /U, so dass π = fˆQ ◦ π̂ gilt.
Lösungshinweis
(i) Sei v ∈ V . Für jede solche Abbildung f˜ muss gelten:
f˜([v]) = f˜ ◦ π(v) = f (v) ,
so dass f˜ eindeutig festgelegt ist. Dies ist wegen f (v+u) = f (v)+ f (u) = f (v) für alle u ∈ U wohldefiniert,
d.h. unabhängig vom Repräsentanten v von [v]. Aus der Linearität von f folgt wieder leicht die Linearität
von f˜.
(ii) Wenden wir (i) auf die lineare Abbildung π̂ : V → Q an, so finden wir eine eindeutige lineare Abbildung
f˜Q : V /U → Q mit π̂ = f˜Q ◦ π. Zum zweiten wenden wir die für Q geforderte Eigenschaft auf die lineare
Abbildung π : V → V /U an und finden fˆQ : Q → V /U mit π = fˆQ ◦ π̂. Es folgt
f˜Q ◦ fˆQ ◦ π̂ = f˜Q ◦ π = π̂ .
Natürlich gilt auch idQ ◦ π̂ = π̂. Aber die definierende Eigenschaft von Q, angewandt auf π̂ : V → Q
selbst, sagt, dass eine solche Abbildung eindeutig ist, also gilt f˜Q ◦ fˆQ = idQ . Analog zeigt man auch
fˆQ ◦ f˜Q = idV /U .
6
(15 Punkte) Sei V ein K–Vektorraum und U,W Untervektorräume von V , so dass V = U ⊕W gilt, d.h. V
sei innere direkte Summe von U und W . Zeigen Sie: Dann ist V zusammen mit den Inklusionen
iU : U → V
iW : W → V
isomorph zur äußeren direkten Summe von U und W .
Lösungshinweis:
Wir müssen nur die universelle Eigenschaft der äußeren direkten Summe nachweisen. Nach Lemma 1.5.4
lässt sich jedes v ∈ V eindeutig als v = u + w mit u ∈ U und w ∈ W schreiben. Sei Z ein beliebiger weiterer
K-Vektorraum; gegeben zwei lineare Abbildungen
gU : U → Z
und
gW : W → Z
Dann muss jedes g : V → Z, das den Forderungen der universellen Eigenschaft genügt, erfüllen
g(v) = g(u + w) = g ◦ iU (u) + g ◦ iW (w) = gU (u) + gW (w) ,
ist also eindeutig. Die so definierte lineare Abbildung g : V → Z leistet umgekehrt auch alles Geforderte.
Innere und äußere direkte Summe sind also nach Satz 2.4.8 kanonisch isomorph.
7
(15 Punkte) Sei V ein endlich dimensionaler Vektorraum und Φ ∈ End(V ). Zeigen Sie, dass die folgenden
Bedingungen äquivalent sind.
(i) V = ker(Φ) ⊕ im(Φ)
(ii) im(Φ2 ) = im(Φ) .
Lösungshinweis
(i) ⇒ (ii). Die Inklusion im(Φ2 ) ⊂ im(Φ) gilt ohnehin für jeden Endomorphismus. Sei v ∈ im(Φ), also
v = Φ(x). Schreibe x = x1 + x2 mit x1 ∈ ker(Φ) und x2 ∈ im(Φ). Dann ist Φ(x) = Φ(x2 ). Daher können
wir x ∈ im(Φ) annehmen, also folgt mit x = Φ(x0 ) die Gleichung, v = Φ2 (x0 ) ∈ im(Φ2 ).
(ii) ⇒ (i). Betrachte die Einschränkung Ψ von Φ auf imΦ. Wegen (ii) ist diese Abbildung surjektiv, also
wegen der endlichen Dimension von V auch injektiv. Sie hat also trivialen Kern, somit kerΦ ∩ imΦ = {0}.
Es gilt v = (v − Ψ−1 Φ(v)) + Ψ−1 Φ(v). Man rechnet nun leicht nach, dass v − Ψ−1 Φ(v) für jedes v ∈ V im
Kern von Φ liegt. Offenbar ist Ψ−1 Φ(v) ∈ im(Φ). Also ist V auch Summe von Kern und Bild von Φ.
Abgabe in der ersten Übungsgruppe im Sommersemester 2008. Das Blatt geht in die Wertung ein.
Übungsblatt 2
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 14.04.2008, 15:25 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
14.04.2008, 08:00 Uhr.
1
1
2
3
Es sei K ein Körper und M, N ∈ M(n × n, K) für ein n ∈ N. Die Einträge der Matrix M seien mit mi, j für
(1 ≤ i, j ≤ n) bezeichnet. Sind die folgenden Aussagen über Determinanten richtig?
Ist M eine untere Dreiecksmatrix, dann ist die Determinante von M gleich dem Ja / Nein
Produkt der Diagonalelemente.
Ist ein Diagonalelement von M gleich 0, dann ist die Determinante von M auch Ja / Nein
gleich 0.
Es gilt (det M) · (det N) = det(M · N).
Ja / Nein
Es gilt (det M) + (det N) = det(M + N).
Ja / Nein
Ist mi, j = 0 für i + j > n + 1, dann ist det M = ∏ni=1 mi,n+1−i .
Ist mi, j = 0 für i + j ≤ n, dann ist det M
4
5
= ∏ni=1 mi,n+1−i .
Ja / Nein
Ja / Nein
Enthält M nur die Zahlen 0 und 1, dann ist die Determinante von M auch entweder 0 oder 1.
Enthält M nur die Zahlen 0 und 1, dann ist die Determinante von M in der Menge
{0, 1, −1}.
Ja / Nein
Sind zwei Zeilen von N gleich, so ist det N = 0.
Ist eine Zeile von N das Negative einer anderen Zeile von N, dann ist det N = 0.
Ja / Nein
Ja / Nein
Ja / Nein
2
Alle vorkommenden Matrizen haben Einträge in einem Körper K. Sind die folgenden Aussagen wahr?
1
Der Zeilenrang einer Matrix ist gleich ihrem Spaltenrang.
Ja / Nein
Eine n × n-Matrix mit vollem Rang läßt sich durch elementare Zeilen- und Spaltenumformungen in die Einheitsmatrix überführen.
Ja / Nein
2
3
4
5
6
Der Zeilenrang einer Matrix ist gleich der Dimension des Raums, der von den Ja / Nein
Spaltenvektoren aufgespannt wird.
Der Spaltenrang einer Matrix ist gleich der Dimension des Raums, der von den Ja / Nein
Zeilenvektoren aufgespannt wird.
Die Dimension des Lösungsraums eines homogenen linearen Gleichungssy- Ja / Nein
stems Ax = 0 ist gleich der Differenz der Anzahl der Unbekannten und dem
Rang der Matrix A.
Es sei A eine quadratische Matrix. Dann hat das lineare Gleichungssystem Ax = Ja / Nein
0 genau dann eine eindeutige Lösung, wenn die Matrix A invertierbar ist.
7
Für 0 6= c ∈ K und eine Matrix A haben A und c · A den gleichen Rang.
Ja / Nein
8
Eine invertierbare n × n-Matrix hat den Rang n.
Ja / Nein
3
Berechnen Sie die Determinanten der folgenden Matrizen:
1








0
1
1
1
1
1
0
1
1
1
1
1
0
1
1
1
1
1
0
1
1
1
1
1
0








Lösung:
Man kann von der zweiten bis fünften Zeile die erste Zeile abziehen, ohne den
Wert der Determinante zu verändern, und erhält die Matrix:


0 1
1
1
1


 1 −1 0
0
0 


 1 0
−1 0
0 




0
−1 0 
 1 0
1 0
0
0
−1
Nun addiert man zur ersten Zeile die Summe der letzten vier Zeilen, wiederum
ohne den Wert der Determinante zu ändern, und erhält die Matrix


4 0
0
0
0


 1 −1 0
0
0 



 1 0
−1
0
0




0
−1 0 
 1 0
1 0
0
0
−1
deren Determinante offensichtlich gleich 4 ist, wie man durch Entwicklung nach
der ersten Zeile sieht.








0
2
2
2
2
2
0
2
2
2
2
2
0
2
2
2
2
2
0
2
2
2
2
2
0








Lösung:
Man kann von der zweiten bis fünften Zeile die erste Zeile abziehen, ohne den
Wert der Determinante zu verändern und erhält die Matrix:


0 2
2
2
2


 2 −2 0
0
0 


 2 0

−2
0
0




2
0
0
−2
0


2 0
0
0
−2
Nun addiert man zur ersten Zeile die Summe der letzten vier Zeilen, wiederum
ohne den Wert der Determinante zu ändern, und erhält die Matrix


8 0
0
0
0


 2 −2 0
0
0 


 2 0
−2 0
0 




0
−2 0 
 2 0
2 0
0
0
−2
deren Determinante offensichtlich gleich 128 ist, wie man durch Entwicklung
nach der ersten Zeile sieht.
2

1 2 3


 2 5 1 
2 7 9



7 2 9


 2 1 3 
5 2 1
3


x 1 1


 1 x 1 
1 1 x
(a) x3 + 3x − 2
(b) (x − 1)2 (x + 2)
(c) x3 − x
(a) / (b) / (c)


1 1 x


 1 x 1 
x 1 1
(a) / (b) / (c)
(a) −x3 − 3x + 2
(b) −(x − 1)2 (x + 2)
(c) x3 − x
4


1 x 1


 1 1 x 
x 1 1
(a) / (b) / (c)
(a) −x3 + 3x + 1
(b) x3 − 3x + 2
(c) x3 + x2 − 2


1 x 1


 x 1 1 
1 1 x
4
1
2
3
4
5
5
(a) / (b) / (c)
(a) x3 − 3x − 1
(b) −x3 + 3x − 2
(c) x3 + x2 − 2
Es sei K ein Körper, A ∈ M(m × n, K) mit m, n ∈ N und b ∈ K m . Sind die folgenden Aussagen über das
lineare Gleichungssystem Ax = b richtig?
Wenn es ein c ∈ K m gibt, so dass Ax = c eine eindeutige Lösung hat, dann hat Ja / Nein
Ax = b auch eine eindeutige Lösung.
Falls m = n ist und es ein c ∈ K m gibt, so dass Ax = c eine eindeutige Lösung Ja / Nein
hat, dann hat Ax = b auch eine eindeutige Lösung.
Ax = b ist genau dann unlösbar, wenn rang(A) + 1 = rang(A, b) ist.
Ja / Nein
Ax = b ist genau dann unlösbar, wenn rang(A) = rang(A, b) − 1 ist.
Ja / Nein
c ∈ Km
Für jedes
gibt es eine Bijektion zwischen der Lösungsmenge von Ax = b
und der von Ax = c.
Für jedes 0 6= c ∈ K m gibt es eine Bijektion zwischen der Lösungsmenge von
Ax = b und der von Ax = c.
Falls m = n ist und A nicht invertierbar ist, dann gibt es c ∈ K m , so dass Ax = c
unlösbar ist.
Falls m = n ist und A nicht invertierbar ist, dann ist Ax = c für alle c ∈ K m
unlösbar.
Für c = 0 und n > m hat Ax = c mindestens n − m Lösungen.
Für c = 0 hat Ax = c mindestens |n − m| (Absolutbetrag) Lösungen.
Berechnen Sie im R3 :
Ja / Nein
Ja / Nein
Ja / Nein
Ja / Nein
Ja / Nein
Ja / Nein
1

  
1
2
   
 2 × 0 
1
3
Geben sie den zweiten Eintrag des Ergebnisses an.
2
3
Berechnen Sie den Flächeninhalt des von den folgenden Vektoren im R3 aufgespannten Parallelogramms




8
−4




 15  ,  5 
6
−3
Lösung: Der Flächeninhalt ist die Norm des Vektorprodukts der beiden Vektoren.
Berechnen Sie das Volumen des von den folgenden Vektoren im R3 aufgespannten Spates


 


4
1
−2


 


 5  ,  2  ,  −3 
−7
6
2
Lösung: Das Volumen des Spates ist die Determinante der Matrix mit den drei
Vektoren als Spalten.
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
6
(15 Punkte) Im R3 seien die beiden geordneten Basen

 
 

−1
1
−1

 
 

A =
 −4  ,  −5  ,  −7  ,
4
−4
−8

 
 

1
−2
−3
  
 

B =
 1  ,  −2  ,  0 
2
2
6
gegeben.
1. Berechnen Sie die Transformationsmatrix TBA .
2. Bestimmen Sie mit Hilfe dieser Transformationsmatrix die Koordinaten des Vektors






−1
1
−1






v = 3  −4  + 2  −5  − 2  −7 
4
−4
−8
bezüglich der geordneten Basis B .
Lösung:
Wegen TBA = MBA (id) folgt aus
(−1, −4, 4)
= 2(1, 1, 2)
+3(−2, −2, 2) −1(−3, 0, 6)
(1, −5, −4)
= 1(1, 1, 2)
+3(−2, −2, 2) −2(−3, 0, 6)
(−1, −7, −8) = −1(1, 1, 2) +3(−2, −2, 2) −2(−3, 0, 6)
dass
und somit

2
1
−1


TBA =  3
3
3 
−1 −2 −2

TBA (3, 2, −2) = (10, 9, −3)
Zur Probe rechnet man nach, dass
3(−1, −4, 4) + 2(1, −5, −4) − 2(−1, −7, −8) = (1, −8, 20) = 10(1, 1, 2) + 9(−2, −2, 2) − 3(−3, 0, 6)
gilt.
7
1. (5 Punkte)
Zeigen Sie für x, y, z ∈ R3 die Grassmann-Identität
x × (y × z) = hx, ziy − hx, yiz .
2. (10 Punkte)
Seien x, y, z ∈ R3 . Ist die folgende Aussage korrekt?
x, y, z sind linear abhängig ⇔ x × y, y × z, z × x sind linear abhängig .
Geben Sie ein Gegenbeispiel mit Rechnung oder einen Beweis!
8
(15 Punkte) Sei K ein Körper. Sind die folgenden Teilmengen Unterringe der angegebenen Matrizenringe?
Begründen Sie Ihre Antwort!
1. (ai j ) ∈ M(n × n, K) | ai j = 0 für i ≥ j ⊂ M(n × n, K)
2. (ai j ) ∈ M(n × n, K) | ai j = 0 für i ≥ j + k oder j ≥ i + k ⊂ M(n × n, K), wobei k ∈ N
3. (ai j ) ∈ M(n × n, K) | ai j = 0 für i 6= j oder i ≥ k ⊂ M(n × n, K), wobei k ∈ N
Lösung:
Es handelt sich bei 1 um die Matrizen, die nur oberhalb der Hauptdiagonale nicht-verschwindende
Einträge haben, und bei 3 um die Matrizen, bei denen nur die ersten k − 1 Einträge auf der Diagonale
ungleich Null sind. Beides sind Unterringe.
Dagegen ist 2 kein Unterring: betrachte n = 3 und k = 2 und

 


2 2 1
1 1 0
1 1 0

 


 1 1 1  1 1 1  =  2 3 2 
1 2 2
0 1 1
0 1 1
9
Sei K ein Körper und sei A ∈ M(2 × 2, K). Die Kommutante A0 von A ist der Untervektorraum von M(2 ×
2, K), der aus den Matrizen besteht, die mit der Matrix A kommutieren:
A0 := {B ∈ M(2 × 2, K) | A · B − B · A = 0} .
1. (5 Punkte) Zeigen Sie, dass die Kommutante eines Vielfachen der Einheitsmatrix λE2 mit λ ∈ K die
Dimension 4 hat.
2. (5 Punkte) Zeigen Sie, dass die Kommutante einer Matrix A, die kein Vielfaches der Einheitsmatrix
ist, mindestens die Dimension 2 hat.
3. (5 Punkte) Zeigen Sie, dass die Kommutante einer Matrix A, die kein Vielfaches der Einheitsmatrix
ist, höchstens die Dimension 3 hat.
4. (Zusatzaufgabe ohne Wertung) Zeigen Sie, dass die Kommutante einer Matrix A, die kein Vielfaches
der Einheitsmatrix ist, genau die Dimension 2 hat.
Lösung:
Ist A ein Vielfaches der Einheitsmatrix E2 , so ist offenbar A0 = M(2 × 2, K), also dimK A0 = 4.
Ist A kein Vielfaches der Einheitsmatrix, so kommutiert A mit E2 und mit A selbst. E2 und A sind linear
unabhängig, also ist dimK A0 ≥ 2.
Schreibt man
!
a b
A=
c d
so sieht man, dass nur Vielfache der Einheitsmatrix eine Kommutante der Dimension 4 haben: Vertauschen
mit der Matrixeinheit E11 liefert die Bedingung b = c = 0, Vertauschen mit der Matrixeinheit E12 liefert
die Bedingung a = d.
Zur Zusatzaufgabe:
Wäre dimK A0 = 3, so wäre der Schnitt mit dem zwei-dimensionalen Unterraum spanK (E11 , E12 ) nicht der
Nullvektorraum. Aus dem Gleichsetzen von
!
!
!
α β
aα βa
a b
=
c d
0 0
cα βc
und
α β
0 0
!
a b
c d
!
αa + βc αb + βd
0
0
=
!
folgt, da man das Element in der Kommutante so wählen kann, dass nicht α und β gleich Null sind,
c = 0. Ein analoges Argument mit dem Untervektorraum spanK (E21 , E22 ) zeigt, dass auch b = 0 gelten
muss. Also ist A eine Diagonalmatrix. Die beiden Diagonalelemente sind verschieden, da andernfalls die
Kommutante Dimension 4 hätte.
Die explizite Rechnung
!
!
!
a 0
α β
aα aβ
=
0 d
γ δ
dγ dδ
und
α β
γ δ
!
a 0
0 d
!
=
aα dβ
aγ dδ
!
zeigt durch den Vergleich der Außerdiagonalelemente, dass für Matrizen in der Kommutante von Diagonalmatrizen β = γ = 0 gelten muss, diese Kommutante also zwei-dimensional ist.
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben
werden in der Übungsgruppe am Freitag, dem 14. April, abgegeben.
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
4,
4,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
1:
2:
1:
2:
[’Ja’]
[’Nein’]
[’Ja’]
[’Nein’]
[’Nein’]
[’Nein’]
[’Nein’]
[’Nein’]
[’Ja’]
[’Ja’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
2,
2,
2,
2,
2,
2,
2,
2,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
2,
3,
4,
5,
6,
7,
8,
Var
Var
Var
Var
Var
Var
Var
Var
1:
1:
1:
1:
1:
1:
1:
1:
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
3,
3,
3,
3,
3,
3,
3,
3,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
4,
4,
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
1:
2:
[’4’]
[’128’]
[’18’]
[’-18’]
[’(b)’]
[’(b)’]
[’(b)’]
[’(b)’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
4,
4,
4,
4,
4,
4,
4,
4,
4,
4,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
4,
4,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
1:
2:
1:
2:
[’Nein’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Nein’]
[’Nein’]
[’Ja’]
[’Nein’]
[’Ja’]
[’Nein’]
Ex 5, Qu 1, Var 1: [’-1’]
Ex 5, Qu 2, Var 1: [’125’]
Ex 5, Qu 3, Var 1: [’11’]
Übungsblatt 3
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 21.04.2008, 16:04 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
21.04.2008, 08:30 Uhr.
1
1
Es sei K ein Körper. Weiter sei A = (ai, j ) ∈ M(n × n, K) und s ∈ K. Entscheiden Sie, ob die folgenden
Aussagen allgemein richtig sind.
Es ist det(sA) = s · det A.
Es ist
2
3
4
Ja / Nein
det(sA) = sn · det A.
Ja / Nein
Ist K = Q und det(A3 ) = 1, so ist det A = 1.
Dann muss auch (det A)3 = 1 gelten, was über Q nur die Lösung det A = 1 hat.
Ja / Nein
Ist K = Q und det(A5 ) = 1, so ist det A = 1.
Dann muss auch (det A)5 = 1 gelten, was über Q nur die Lösung det A = 1 hat.
Ja / Nein
Ist K = Q und det A = 2, so gibt es kein B ∈ M(n × n, Q) mit B2 = A.
Es gilt dann (det B)2 = 2 und det B ∈ Q, was keine Lösung hat.
Ja / Nein
Das Gleichungssystem über Z7
Ja / Nein
1x1 + 4x2 + 2x3 = 1
4x1 + 1x2 + 6x3 = 2
2x1 + 1x2 + 2x3 = 3
2
1
hat eine eindeutige Lösung (x1 , x2 , x3 ) in Z37 .
Man berechnet die Determinante der Koeffizientenmatrix über Z zu 16, also über
Z7 zu 2.
Es seien A, B,C, D ∈ M(n × n, Q). Entscheiden Sie, ob die folgenden Aussagen wahr sind.
!
A B
= (det A) · (det D) − (det B) · (detC).
Es gilt stets det
wahr / falsch
C D
Lösung:
Betrachte als Gegenbeispiel





1
0
0
0
0
0
0
1
0
0
1
0
0
1
0
0





Diese Matrix hat Determinante −1, die falsche Regel würde aber 0 liefern.
2
Genau dann gilt für alle A, B,C, D ∈ M(n × n, Q), dass
!
A B
det
= (det A) · (det D) − (det B) · (detC)
C D
wahr / falsch
ist, wenn n = 1 ist.
Lösung:
Betrachte als Gegenbeispiel





3
1
0
0
0
0
0
0
1
0
0
1
0
0
1
0
0





Diese Matrix hat Determinante −1, die falsche Regel würde aber 0 liefern.
!
0 B
Es gilt stets det
= (det B) · (detC).
C 0
wahr / falsch
Lösung:
Falsch, schon für n = 1 gilt
! das nicht.
Es gilt stets det
4
A B
C 0
= (det B) · (detC).
Lösung:
Falsch, schon für n = 1 gilt das nicht.
!
0 B
Genau dann gilt det
= (det B) · (detC) für alle B,C ∈ M(n × n, Q),
C 0
wenn n gerade ist.
Lösung:
Man sieht dies, indem man die ersten n und die letzten n Spalten vertauscht.
Hierzu sind n2 Vertauschungen vonnöten, was nur für gerades n gerade ist und
so das Vorzeichen der Determinante nicht ändert.
wahr / falsch
wahr / falsch
5
Es gilt stets det
A 0
B C
!
= (det A) · (detC).
Lösung: Wahr, denn wir können schreiben
!
!
A 0
A 0
det
= det
· det
B C
B En
wahr / falsch
En 0
0 C
!
.
Durch n-malige Entwicklung nach der jeweils letzten Spalte findet man
!
A 0
det
= det A .
B En
Analog ergibt sich durch n-malige Entwicklung nach der jeweils ersten Spalte
!
En 0
det
= detC .
0 C
Es gilt stets det
A B
0 C
!
= (det A) · (detC).
Lösung: Wahr, denn wir können schreiben
!
!
En 0
A B
= det
· det
det
0 C
0 C
wahr / falsch
A B
0 En
!
.
Durch n-malige Entwicklung nach der jeweils letzten Spalte findet man
!
A B
det
= det A .
0 En
Analog ergibt sich durch n-malige Entwicklung nach der jeweils ersten Spalte
!
En 0
= detC .
det
0 C
6
Es gilt stets det(A · B) = det(B · A).
wahr / falsch
Lösung:
det(A · B) = det(A)det(B) = det(B)det(A) = det(B · A)
3
Es seien V , W und U Vektorräume über einem Körper K und ϕ : V → W und ψ : W → U lineare Abbildungen. Sind die folgenden Aussagen richtig?
1
Sind v1 6= v2 Elemente von V und gilt ϕ(v1 ) = ϕ(v2 ) 6= 0, dann ist (v1 , v2 ) in V
linear unabhängig.
Ja / Nein
Lösung:
Wäre die Familie (v1 , v2 ) linear abhängig, so gälte v1 = λv2 mit λ 6= 1, da beide
Elemente ungleich null sein müssen. Wegen λϕ(v2 ) = ϕ(v1 ) = ϕ(v2 ) 6= 0 ist dies
aber nicht möglich.
Sind v1 6= v2 Elemente von V und gilt ϕ(v1 ) = ϕ(v2 ) 6= 0, dann ist (v1 , v2 ) in V Ja / Nein
linear abhängig.
Lösung:
Wäre die Familie (v1 , v2 ) linear abhängig, so gälte v1 = λv2 mit λ 6= 1, da beide
Elemente ungleich null sein müssen. Wegen λϕ(v2 ) = ϕ(v1 ) = ϕ(v2 ) 6= 0 ist dies
aber nicht möglich.
2
Sind v1 6= v2 Elemente von V und gilt ϕ(v1 ) = ϕ(v2 ), dann ist (v1 , v2 ) in V linear Ja / Nein
unabhängig.
Lösung:
Wähle als Gegenbeispiel v1 = 0 und v2 6= 0 im Kern von ϕ.
Sind v1 6= v2 Elemente von V und gilt ϕ(v1 ) = ϕ(v2 ), dann ist (v1 , v2 ) in V linear Ja / Nein
abhängig.
Lösung:
Wähle als Gegenbeispiel v1 , v2 linear unabhängig im Kern von ϕ.
3
Sind v1 6= v2 Elemente von V und gilt ψ(ϕ(v1 )) = ψ(ϕ(v2 )) 6= 0, dann ist
(ϕ(v1 ), ϕ(v2 )) in W linear unabhängig.
Ja / Nein
Lösung:
Wähle ein Beispiel, bei dem ϕ(v1 ) = ϕ(v2 ) mit v1 6= v2 gilt.
Sind v1 6= v2 Elemente von V und gilt ψ(ϕ(v1 )) = ψ(ϕ(v2 )) 6= 0, dann ist
(ϕ(v1 ), ϕ(v2 )) in W linear abhängig.
Ja / Nein
Lösung:
Wähle als Gegenbeispiel V = W und ϕ = id, v1 und v2 linear unabhängig, aber
v1 − v2 ∈ Kerψ.
4
Sind v1 6= v2 Elemente von V und gilt ϕ(v1 ) = ϕ(v2 ) und ψ(ϕ(v1 )) 6= 0, dann ist
(v1 , v2 ) in V linear unabhängig.
Ja / Nein
Lösung:
Wären Sie linear abhängig, so wäre v1 = λv2 mit λ 6= 1, woraus folgt ϕ(v1 ) =
λϕ(v2 ). Zusammen mit der Bedingung ϕ(v1 ) = ϕ(v2 ) folgt ϕ(v1 ) = 0, was im
Widerspruch zu ψ(ϕ(v1 )) 6= 0 ist.
Sind v1 6= v2 Elemente von V und gilt ϕ(v1 ) = ϕ(v2 ) und ψ(ϕ(v1 )) 6= 0, dann ist
(v1 , v2 ) in V linear abhängig.
Lösung:
Wären Sie linear abhängig, so wäre v1 = λv2 mit λ 6= 1, woraus folgt ϕ(v1 ) =
λϕ(v2 ). Zusammen mit der Bedingung ϕ(v1 ) = ϕ(v2 ) folgt ϕ(v1 ) = 0, was im
Widerspruch zu ψ(ϕ(v1 )) 6= 0 ist.
Ja / Nein
5
Sind v1 und v2 Elemente von V mit v1 = v2 und gilt ψ(ϕ(v1 )) = ψ(ϕ(v2 )) 6= 0, Ja / Nein
dann ist (ϕ(v1 ), ϕ(v2 )) in W linear abhängig.
Lösung:
Es gilt sogar ϕ(v1 ) = ϕ(v2 ), also ist die Familie linear abhängig.
Sind v1 und v2 Elemente von V mit v1 = v2 und gilt ψ(ϕ(v1 )) = ψ(ϕ(v2 )) = 0, Ja / Nein
dann ist (ϕ(v1 ), ϕ(v2 )) in W linear unabhängig.
Lösung:
Es gilt sogar ϕ(v1 ) = ϕ(v2 ), also ist die Familie linear abhängig.
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
4
(10 Punkte) Sei K ein Körper und A = (ai j ) ∈ M(n × n, K). Zeigen Sie, dass dann gilt
det(ai j ) = det((−1)i+ j ai j ) .
Hinweis: Weisen Sie nach, dass die Abbildung
M(n × n, K) → K
A 7→ det((−1)i+ j ai j )
eine Determinantenabbildung ist.
Lösung:
Wir zeigen, dass die genannte Abbildung eine Determinantenabbildung ist. Die Behauptung folgt dann
aus der Eindeutigkeit der Determinantenabbildung.
(D1) Die zeilenweise Linearität ist offensichtlich.
(D2) Stimmen die k-te und l-te Zeile von A überein, so unterscheiden sich die k-te und l-te Zeile der Matrix mit Einträgen (−1)i+ j ai j um ein Vorzeichen (−1)l−k . Die Determinante der Matrix (−1)i+ j ai j
verschwindet daher auch.
(D3) Offensichtlich gilt für die Einheitsmatrix:
det((−1)i+ j δi j ) = det(δi j ) = 1 .
5
(15 Punkte) Sei K ein Körper und V ein n-dimensionaler K-Vektorraum. Eine Hyperebene H in V ist ein
(n − 1)-dimensionaler affiner Unterraum von V .
(i) Zeigen Sie: Eine Teilmenge A ⊂ K n ist eine Hyperebene genau dann, wenn es einen von Null verschiedenen Vektor φ im Vektorraum HomK (V, K) und ein c ∈ K gibt, so dass
A = {x ∈ K n | φ(x) = c}
gilt.
(ii) Betrachten Sie nun den Fall K = R und V = Rn , versehen mit dem Standard-Skalarprodukt
n
hv, wi = ∑ vi wi .
i=1
Zeigen Sie, dass die Abbildung
Rn → HomR (Rn , R)
v
7→ ϕv
mit ϕv (w) = hv, wi ein Isomorphismus von reellen Vektorräumen ist.
(iii) Schließen Sie nun, dass sich jede Hyperebene in Rn in der Form
A = {x ∈ Rn | hv, xi = c}
mit geeignetem c ∈ R und v ∈ Rn , v 6= 0 schreiben lässt. (Dies ist die sogenannte Hessesche Normalform einer Hyperebene im R3 .)
Lösung:
(i) Die Lösungsmenge von φ(x) = c ist nach Bemerkung 2.3.7 der Vorlesung entweder leer oder
ein affiner Unterraum der Dimension dimK Kerφ. Offenbar rgφ = 1, also nach der Gradformel
dimK Kerφ = n − rgφ = n − 1. Die Menge ist nie leer: da φ nicht null ist, gibt es wenigstens einen
Vektor ei in der Standardbasis, so dass φ(ei ) = ci 6= 0. Somit ist φ( cci ei ) = c und cci ei ∈ A.
Sei nun umgekehrt A = p + U ein n − 1-dimensionaler affiner Unterraum. Dann ergänzen wir eine
Basis {w1 , . . . , wn−1 } von U zu einer Basis {w1 , . . . , wn } von V . Setze φ(wi ) = 0 für i ≤ n − 1 und
φ(wn ) = 1. Setze c := φ(p).
Dann ist φ−1 (c) = A, denn wegen
φ(p + u) = φ(p) + φ(u) = c + 0 = c
für u ∈ U ist A ⊆ φ−1 (c) und beide Räume haben Dimension n − 1.
(ii) Wegen der Bilinearität des Skalarprodukts ist die Abbildung linear. Sie ist injektiv, denn aus hv, wi =
0 für alle w ∈ V folgt v = 0. Da beide Vektorräume die gleiche Dimension haben, ist die Abbildung
auch surjektiv, also ein Isomorphismus.
(iii) Es folgt aus (ii) sofort, dass es ein v ∈ Rn gibt, so dass φ(·) = hv, ·i gilt.
6
(15 Punkte) Sei φ der Endomorphismus des Q-Vektorraumes M(n × n, Q), der durch die Transposition
gegeben ist,
φ(M) = Mt .
Berechnen Sie die Determinante von φ.
Lösung:
Man kann leicht eine Basis von M(n × n, Q) finden in der φ diagonal ist.
Für j ≥ i sei Ei+j die Matrix, die überall den Eintrag 0 hat, ausser in der i-ten Zeile und der j-ten Spalte,
sowie in der j-ten Zeile und der i-ten Spalte. Diese beiden Einträge seien gleich 1.
Analog, für j > i sei Ei−j die Matrix, die überall den Eintrag 0 hat, ausser in der i-ten Zeile und der j-ten
Spalte, hier habe sie den Wert +1, sowie in der j-ten Zeile und i-ten Spalte, hier habe sie den Wert −1.
Es ist klar, dass man aus Linearkombinationen von Ei+j und Ei−j alle Matrizen in M(n × n, Q) gewinnen
kann. (Überlegen Sie sich, wie die Basismatrizen Ei j durch die Matrizen Ei+j und Ei−j ausgedrückt werden
können.)
Man kann sich leicht überzeugen, dass es n(n + 1)/2 Matrizen vom Typ Ei+j und n(n − 1)/2 Matrizen vom
Typ Ei−j gibt.
Es ist φ(Ei+j ) = Ei+j und φ(Ei−j ) = −Ei−j , also hat φ in dieser Basis Diagonalgestalt. Auf der Diagonalen findet sich n(n + 1)/2-mal der Eintrag +1 und n(n − 1)/2-mal der Eintrag −1. Also ist det φ = (−1)n(n−1)/2 .
7
(10 Punkte) Es sei K ein Körper und a0 , a1 , . . . , an ∈ K. Zeigen Sie:


1 1 ··· 1


 a0 a1 · · · an 
 2 2

2 
a
a
·
·
·
a
det 
n
0
1

 = ∏ (a j − ai )
..  0≤i< j≤n
 .. .. . .
.
 . .
. 
an0 an1 · · · ann
Lösung:
Beweis durch vollständige Induktion nach n. Der Induktionsanfang n = 1 ist trivial.
Induktionsschritt:
Wir addieren das (−an )-fache der k-ten Zeile zur k + 1-ten Zeile, ohne den Wert der Determinante zu
ändern:


1
1 ···
1 1


a0 − an
a1 − an · · ·
an−1 − an 0 




a
(a
−
a
)
a
(a
−
a
)
·
·
·
a
(a
−
a
)
0
det 
n
n
n
0
0
1
1
n−1
n−1


..
.. . .
..


.


.
.
.
n−1
n−1
an−1
0 (a0 − an ) a1 (a1 − an ) · · · an−1 (an−1 − an ) 0
Wir entwickeln nach der letzten Spalte und erhalten nur eine einzige Determinante. Bei dieser ziehen wir
nun aus der ersten Spalte einen Faktor (a0 − an ), aus der zweiten (a1 − an ) etc. Wir erhalten so
n−1
(−1)n+2 ∏ (ai − an )Vn−1
i=0
wobei Vn−1 ein Ausdruck der obigen Form in den Variablen a0 , . . . , an−1 mit einer Zeile und Spalte weniger
ist.
Man nennt die Determinante einer Matrix dieser Gestalt auch Vandermonde-Determinante.
8
(15 Punkte):
Es sei I eine Indexmenge und Ai mit i ∈ I eine Familie von Mengen. (Sie dürfen I = N wählen, wenn
Ihnen das hilft.) Wir definieren das kartesische Produkt ∏i∈I Ai als Menge aller Abbildungen f : I → ∪Ai
mit f (i) ∈ Ai . Auf dem kartesischen Produkt betrachten wir für jedes i ∈ I die kanonischen Projektionen
pi : ∏ j∈I A j −→ Ai
f 7→ f (i) .
(i) Beweisen Sie die folgende universelle Eigenschaft des kartesischen Produktes: Sei eine Menge Q
gegeben und sei für jedes i ∈ I eine Abbildung
fi : Q −→ Ai
gegeben. Dann gibt es eine eindeutige Abbildung
f : Q −→ ∏ Ai
i∈I
so dass
f i = pi ◦ f
gilt.
Zeichnen Sie auch die relevanten kommutierenden Diagramme. Vergleichen Sie mit dem in der Vorlesung
eingeführten Produkt von Vektorräumen.
Die folgende Definition ist das Analogon zur direkten Summe von Vektorräumen. Gegeben sei wieder
eine Familie (Ai )i∈I von Mengen. Eine Menge P zusammen mit einer Familie von Injektionen ιi : Ai → P
heißt Koprodukt, wenn es für jede Menge B und jede Familie von Abbildungen fi : Ai → B genau eine
Abbildung f : P → B gibt, so dass für alle i ∈ I gilt fi = f ◦ ιi .
(ii) Zeigen Sie: alle Mengen P mit dieser Eigenschaft, wenn überhaupt eine solche Menge existiert, sind
isomorph.
(iii) Eine solche Menge existiert: Geben Sie eine mögliche Wahl für P an und weisen Sie nach, dass diese
die genannte Eigenschaft erfüllt.
Lösung:
(i) Sei q ∈ Q. Angenommen eine solche Abbildung f : Q → ∏i∈I Ai existiert. Wir schreiben fq := f (q) :
I → ∪Ai . Dann muss wegen der universellen Eigenschaft gelten
fq (i) = pi ( fq ) = pi ( f (q)) = (pi ◦ f )(q) = fi (q)
Dadurch ist fq für jedes q eindeutig bestimmt und f somit eindeutig festgelegt. Umgekehrt erfüllt die
durch fq (i) = fi (q) definierte Abbildung die geforderte Eigenschaft.
(ii) Sei P0 eine weitere Menge, die diese Eigenschaft mit Abbildungen ι0i : Ai → P0 erfüllt. Diese Eigenschaft auf die Abbildungen ιi angewandt liefert eine eindeutig bestimmte Abbildung f : P0 → P mit
ιi = f ◦ ι0i . Die Eigenschaft von P angewandt auf die Abbildungen ι0i liefert eine eindeutig bestimmte Abbildung g : P → P0 , so dass ι0i = g ◦ ιi . Damit ist ι0i = g ◦ f ◦ ι0i . Die Eigenschaft von P0 auf ι0i angewandt
liefert eine eindeutige Abbildung h : P0 → P0 mit ι0i = h ◦ ι0i . Da dies mit h = idP0 erfüllt ist, folgt g ◦ f = idP0 .
Genauso zeigt man f ◦ g = idP .
(iii) Eine mögliche Wahl für P ist die disjunkte Vereinigung der Mengen Ai . Diese ist definiert als
ti∈I Ai := ∪i∈I {i} × Ai .
Die Abbildungen ι j sind die Inklusionen:
ι j : A j → ti∈I Ai
a 7→ ( j, a)
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben
werden in der Übungsgruppe am Montag, dem 21. April, abgegeben.
Ex
Ex
Ex
Ex
Ex
Ex
1,
1,
1,
1,
1,
1,
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
4,
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
1:
[’Nein’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
2,
2,
2,
2,
2,
2,
2,
2,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
2,
3,
3,
4,
5,
5,
6,
Var
Var
Var
Var
Var
Var
Var
Var
1:
1:
1:
2:
1:
1:
2:
1:
[’falsch’]
[’wahr’]
[’falsch’]
[’falsch’]
[’wahr’]
[’wahr’]
[’wahr’]
[’wahr’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
3,
3,
3,
3,
3,
3,
3,
3,
3,
3,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
4,
4,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
1:
2:
1:
2:
[’Ja’]
[’Nein’]
[’Nein’]
[’Nein’]
[’Nein’]
[’Nein’]
[’Ja’]
[’Nein’]
[’Ja’]
[’Nein’]
Übungsblatt 4
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 28.04.2008, 16:32 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
28.04.2008, 08:00 Uhr.
1
1
Man berechne den Rang der Matrix A = (ai, j ) ∈ M(n × n, Q) mit n ≥ 2 und . . .
ai, j = i + j.
Lösung:
Es gilt für festes i und alle j
ai j = (2 − i)a1 j + (i − 1)a2 j .
Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile
schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen
linear unabhängig sind, ist der Rang genau gleich zwei.
ai, j = i + j + 1.
Lösung:
Es gilt für festes i und alle j
ai j = (2 − i)a1 j + (i − 1)a2 j .
Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile
schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen
linear unabhängig sind, ist der Rang genau gleich zwei.
2
ai, j = i − j.
Lösung:
Es gilt für festes i und alle j
ai j = (2 − i)a1 j + (i − 1)a2 j .
Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile
schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen
linear unabhängig sind, ist der Rang genau gleich zwei.
ai, j = i − j + 1.
Lösung:
Es gilt für festes i und alle j
ai j = (2 − i)a1 j + (i − 1)a2 j .
Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile
schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen
linear unabhängig sind, ist der Rang genau gleich zwei.
3
ai, j = i · j.
Lösung:
Die i-te Zeile ist das i-fache der ersten Zeile, also ist der Rang maximal gleich
eins. Da die erste Zeile linear unabhängig ist, ist der Rang genau gleich eins.
ai, j = 2 · i · j.
Lösung:
Die i-te Zeile ist das 2i-fache der ersten Zeile, also ist der Rang maximal gleich
Eins. Da die erste Zeile linear unabhängig ist, ist der Rang genau gleich eins.
4
ai, j = ji .
Lösung: Dies ist eine Matrix von der Form wie sie in Aufgabe 7 auf dem dritten
Übungsblatt behandelt wurde (Vandermonde Determinante). Dort war allgemeiner ai, j = (r j )i , für gegebene Konstanten r j . Im hier gegebenen Fall ist r j = j
Die Determinante dieser Matrix ist allgemein ∏ (r j − ri ), in unserem Fall
0≤i< j≤n
∏
also
( j − i). Alle Faktoren in diesem Produkt sind positiv, daher ist das
0≤i< j≤n
gesamte Produkt positiv. Insbesondere ist also die Determinante unserer Matrix
nichtverschwindend. Daher hat sie vollen Rang.
ai, j = ji+1 .
Lösung: Wir können aus jeder Zeile dieser Matrix einen Faktor herausziehen,
und zwar aus der iten Zeile den Faktor j. Die verbleibende Matrix hat offenbar
noch immer den selben Rang wie die ursprüngliche Matrix.
Die verbleibende Matrix ist ai, j = ji . Dies ist eine Matrix von der Form wie
sie in Aufgabe 7 auf dem dritten Übungsblatt behandelt wurde (Vandermonde
Determinante). Dort war allgemeiner ai, j = (r j )i , für gegebene Konstanten r· .
Im hier gegebenen Fall ist r j = j
Die Determinante dieser Matrix ist allgemein ∏ (r j − ri ), in unserem Fall
also
∏
0≤i< j≤n
( j − i). Alle Faktoren in diesem Produkt sind positiv, daher ist das
0≤i< j≤n
5
gesamte Produkt positiv. Insbesondere ist also die Determinante unserer Matrix
nichtverschwindend. Daher hat sie vollen Rang.
(
i für i ≥ j
.
ai, j =
0 sonst
Lösung:
Es liegt eine obere Dreiecksmatrix mit nicht verschwindenden Einträgen auf der
Diagonale
( vor, die also invertibel ist, also maximalen Rang hat.
ai, j =
j für i < j
.
0 sonst
Lösung:
Wie bei einer oberen Dreicksmatrix zeigt man, dass die n − 1 nicht verschwindenden Zeilen linear unabhängig sind. Also ist der Rang gleich n − 1.
2
Seien A, B ∈ M(n × n, R) quadratische Matrizen mit reellen Einträgen.
1
Ist
det
A iB
iB A
Ja / Nein
!
reell?
Lösung:
Durch Umformungen sieht man:
!
!
A iB
A + iB A + iB
det
= det
= det
iB A
iB
A
Ist
det
iA −B
−B iA
A + iB 0
iB
A − iB
!
= | det(A+iB)|2
Ja / Nein
!
reell?
Lösung:
Durch Umformungen sieht man:
!
!
iA −B
iA − B iA − B
det
= det
= det
−B iA
−B
iA
2
Ist
det
A
iB
−iB A
iA − B 0
−B
iA + B
!
= −| det(B+iA)|2
Ja / Nein
!
reell?
Lösung:
Durch Umformungen sieht man:
!
!
A
iB
A
iB
det
= det
= det
−iB A
i(A − B) A − B
Ist
det
iA −B
B iA
A + B iB
0
A−B
!
= det(A+B) det(A−B)
Ja / Nein
!
reell?
Lösung:
Durch Umformungen sieht man:
!
!
iA −B
iA
−B
det
= det
= det
B iA
−A + B iA − iB
iA + iB −B
0
iA − iB
!
= − det(A−B) det(A+B)
3
Ist
det
A
B
−B A
Ja / Nein
!
stets nicht-negativ?
Lösung:
Wir rechnen:
det
A
B
−B A
!
= det
A − iB B + iA
−B
A
!
= det
Ist
det
A B
B −A
A − iB 0
−B
A + iB
!
= | det(A+iB)|2
Ja / Nein
!
stets nicht-negativ?
Lösung:
det
3
1
2
3
4
5
4
1
2
A B
B −A
!
= det
A + iB B − iA
B
−A
!
= det
A + iB 0
B
−A + iB
!
= −| det(A+iB)|2
Es sei K ein Körper, n ∈ N, n ≥ 2 und A ∈ M(n × n, K). Sind die folgenden Aussagen richtig?
Sei (Ã)i j = (−1)i+ j det Astr
ji ist die zu A komplementäre Matrix. Ist die Matrix A
ist genau dann invertierbar, wenn A · Ã 6= 0 ist?.
Ja / Nein
Die Abbildung det : GLn (K) → K ∗ = K \ {0} ist ein surjektiver Gruppenhomomorphismus.
Die Abbildung det : GLn (K) → K ∗ = K \ {0} ist ein injektiver Gruppenhomomorphismus.
Ja / Nein
Sind zwei Zeilen von A linear abhängig, dann ist det(A) = 0.
Ja / Nein
Sind zwei Spalten von A linear abhängig, dann ist det(A) = 0.
Ja / Nein
Ja / Nein
Ist A eine invertierbare obere Dreiecksmatrix, dann ist auch A−1 eine obere Drei- Ja / Nein
ecksmatrix.
Ist A eine invertierbare untere Dreiecksmatrix, dann ist auch A−1 eine untere Ja / Nein
Dreiecksmatrix.
Es sei K = R und A = (ai j ) ∈ M(n × n, R). Ist ai j ∈
/ Q für ein Paar (i, j), dann ist Ja / Nein
auch det(A) ∈
/ Q.
Es sei n ∈ N mit n ≥ 2. Sind die folgenden Aussagen richtig?
A ∈ M(n × n, Z) ist genau dann invertierbar in M(n × n, Z), wenn det(A) ∈ Ja / Nein
{1, −1} ist.
A ∈ M(n × n, Z) ist genau dann invertierbar in M(n × n, Z), wenn det(A) = 1 ist.
Ja / Nein
Es sei K ein beliebiger Körper, A ∈ M(n × n, K) invertierbar und At = A−1 . Dann
ist det(A) = 1.
Ja / Nein
Es sei K ein Körper, A ∈ M(n × n, K) invertierbar und At = A−1 . Dann ist Ja / Nein
det(A) ∈ {1, −1}.
3
−1
Es sei
A = (ai j ) ∈ M(n × n, R) invertierbar. Sind alle ai j ∈ Z, dann gilt: A = Ja / Nein
bi j
bi j
ci j mit gewissen bi j , ci j ∈ Z und ci j | det(A) wenn ci j ein gekürzter Bruch ist.
Lösung:
Dies ist eine gekürzte Darstellung der inversen Matrix nach Satz 3.2.14 der Vorlesung
4
5
Gilt für A ∈ M(n × n, Z), dass in jeder Zeile und in jeder Spalte genau eine 1 und
sonst lauter Nullen stehen, dann ist A ∈ M(n × n, Z) invertierbar.
Ja / Nein
Gilt für A ∈ M(n × n, Z), dass in jeder Zeile und in jeder Spalte genau eine 1 und
sonst lauter Nullen stehen, dann ist det(A) = 1.
Ja / Nein
Gilt für A ∈ M(n × n, Z), dass in jeder Zeile genau eine 1 und sonst lauter Nullen Ja / Nein
stehen, dann ist det(A) ∈ {1, −1}.
Gilt für A ∈ M(n × n, Z), dass in jeder Zeile genau eine 1 und sonst lauter Nullen Ja / Nein
stehen, dann ist det(A) ∈ {1, 0, −1}.
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
5
Sei K ein Körper und seien A, B ∈ M(n × n, K).
1. (5 Punkte) Zeigen Sie, dass die Abbildungsvorschrift
φ(M) = AMB
einen Endomorphismus des K-Vektorraumes M(n × n, K) definiert.
2. (5 Punkte) Berechnen Sie die Wirkung von φ auf die Basismatrizen (Das sind solche Matrizen deren
Einträge alle verschwinden, bis auf einen einzigen Eintrag mit dem Wert 1.)
3. (10 Punkte) Bestimmen Sie nun die Determinante von φ als Funktion von det(A) und det(B).
Lösung:
Wir berechnen φ auf den Basismatrizen Ei j :
φ(Ei j ) = AEi j B = (∑ akl Ekl Ei j )B = (∑ aki Ek j )(∑ blm Elm ) = ∑ aki b jm Ekm
k,l
k
l,m
k,m
Wir definieren zwei Endomorphismen ψ1 , ψ2 von M(n × n, K) durch
ψ1 (M) := AM
ψ2 (M) := MB
Dann ist φ = ψ1 ◦ ψ2 . Wir rechnen mit Basismatrizen:
ψ1 (Ei j ) = A · Ei j = ∑ aki Ek j
k
Betrachtet man den Unterraum von M(n × n, K), der von den Basismatrizen Ei j mit gleichem j aufgespannt wird, so wird ψ auf jedem dieser n Unterräume durch die Matrix A dargestellt. So erhält
man n Matrixblöcke mit A, also det ψ1 = (det A)n . Ähnlich folgt det ψ2 = (det B)n . Zusammen also
det φ = det ψ1 det ψ2 = det(AB)n .
6
Schreiben Sie die folgenden invertierbaren Matrizen als Produkte von Elementarmatrizen in M(n × n, Q):
(a) (5 Punkte)
!
−5
4
A=
4 −3
(b) (10 Punkte)


−1 −1 4


B= 2
1 4 
−4 −2 8
Bemerkung:
Man kann zeigen, dass für jeden Körper K die Elementarmatrizen in M(n × n, K) die Gruppe GL(n, K)
erzeugen, d.h. dass sich jede invertierbare n×n Matrix als Produkt von (endlich vielen) Elementarmatrizen
schreiben lässt. Jedoch ist diese Darstellung als Produkt nicht eindeutig!
Lösung:
Wir bestimmen die inversen Matrizen mit dem üblichen Verfahren. Die dabei gemachten Zeilenumformungen schreiben wir mit den zugehörigen Elementarmatrizen. Diese Elementarmatrizen invertieren wir
wieder u nd erhalten so beispielsweise (zur Erinnerung: Diese Darstellung ist nicht eindeutig!)
(a) Es ist z.B.
!
!
!
!
1 −1
1 0
−1 0
1 −1
·
·
·
A=
0
1
−4 1
0 1
0
1
(b) Es ist z.B.
 
 
 
 
 


1
0 0
1 0 0
1 0 0
1 0 0
1 0 0
1 0 12
 
 
 
 
 


B =  0 1 0 · 0
1 0 · 0 1 0 · 2 1 0 · 0 1 1 · 0 1 0 
0 −2 1
0 0 2
0 0 1
0 0 1
0 0 4
0 0 1
7
(10 Punkte) Es sei K ein Körper und es seien a1 , . . . an ∈ K für n ∈ N. Sei

a1
1
0

1
0
 −1 a2

 0 −1 a3 1

dn (a1 , . . . an ) = det 
.

−1 . .


..
. 1
0

−1 an











Zeigen Sie:
Für n ≥ 3 ist
dn−1 (a2 , . . . , an )
=
dn (a1 , . . . , an )
a1 + a
1
1
2+
1
a3 +
..
1
.+
1
an−1 + a1n
Lösung:
Mit Induktion. Induktionsanfang n = 3:
Es ist d3 (a1 , a2 , a3 ) = a1 a2 a3 + a1 + a3 und d2 (a2 , a3 ) = a2 a3 + 1. Wir rechnen
1
a1 +
1
a2 + a1
=
1
a1 +
a3
a2 a3 +1
=
a2 a3 + 1
a1 a2 a3 + a1 + a3
3
durch Erweitern der Brüche.
Induktionsschritt:
Wir berechnen dn (a1 , . . . an ) durch Entwicklung nach der ersten Spalte:
dn (a1 , . . . an ) = a1 dn−1 (a2 , . . . , an ) + dn−2 (a3 , . . . , an )
Jetzt teilen wir dn−1 (a2 , . . . , an ) durch beide Seiten dieser Gleichung:
dn−1 (a2 , . . . , an )
1
dn−1 (a2 , . . . , an )
=
=
d
dn (a1 , . . . an )
a1 dn−1 (a2 , . . . , an ) + dn−2 (a3 , . . . , an ) a1 + n−2 (a3 ,...,an )
dn−1 (a2 ,...,an )
wobei wir auf der rechten Seite mit dn−1 (a2 , . . . , an ) gekürzt haben. Nach Induktionsvoraussetzung ist
dn−2 (a3 ,...,an )
dn−1 (a2 ,...,an ) ein Kettenbruch.
8
Die folgende Aufgabe soll Ihnen zeigen, wie man die Determinante eines Endomorphismus definieren
kann, ohne dass man vorher Determinanten von Matrizen einführt.
Sei K ein Körper, in dem 1 + 1 6= 0 gilt, und Vi , 1 ≤ i ≤ r endlich-dimensionale K-Vektorräume. Eine
Abbildung
ϕ : V1 × . . .Vr → K
heißt r-Linearform, wenn sie in jedem Argument K-linear ist.
(i) (5 Punkte) Zeigen Sie, dass die Menge aller r-Linearformen ein K-Vektorraum ist, und bestimmen Sie
seine Dimension als Funktion der Dimensionen der Vektorräume Vi .
Seien nun alle Vektorräume gleich, also V1 = V2 = . . .Vr = V . Eine K-Linearform ϕ : V r → K heißt alternierend, wenn für jedes r-Tupel von Vektoren vi ∈ V gilt, dass ϕ(v1 , v2 , . . . , vr ) = 0, sobald zwei vi gleich
sind.
(ii) (10 Punkte) Sei nun r = dimK V . Zeigen Sie, dass der Raum aller alternierenden dimK V -Linearformen
eindimensional ist.
(iii) (5 Punkte) Schließen Sie aus Teil (ii), dass es für jeden Endomorphismus A von V genau einen Skalar
d(A) ∈ K gibt, so dass für jede alternierende r-Linearform ϕ und alle vi ∈ V die Beziehung
ϕ(Av1 , Av2 , . . . , Avr ) = d(A)ϕ(v1 , v2 , . . . , vr )
erfüllt ist.
Wählen Sie nun eine Basis B von V und erhalten Sie einen Isomorphismus
MBB : End(V ) → M(r × r, K)
(iv) (5 Punkte) Zeigen Sie: die Abbildung
M(r × r, K) → K
M
7→ d((MBB )−1 M)
ist eine Determinantenabbildung.
Freiwillige Zusatzaufgaben:
(a) Schließen Sie direkt aus der Definition, dass für zwei Endomorphismen A1 , A2 von V gilt d(A1 ◦ A2 ) =
d(A1 ) · d(A2 ).
(b) Ein Endomorphismus A ist genau dann bijektiv, wenn d(A) 6= 0 gilt.
9
(Lösung zur vorigen Aufgabe)
(i)
Die Vektorraumeigenschaft ist klar: Die Summe zweier r-Linearformen ist sicher wieder in jedem Argument K-linear, ebenso das Produkt jeder Multilinearform mit einem Element aus K.
Per Definition ist jede Multilinearform (wie gewöhnliche Linearformen auch) durch ihre Werte auf Basisvektoren der Vi festgelegt. Nachdem wir in jedem Vi eine Basis gewaehlt haben gibt es offensichtlich
Dr = (dimK V1 )(dimK V2 ) · · · (dimK Vr ) verschiedene r-Tupel von Basisvektoren der einzelnen Vi . Also ist
die Dimension des Raumes der r-Linearformen gleich Dr .
(ii)
Halten wir zuallererst fest, dass ϕ das Vorzeichen wechseln muss, wenn zwei seiner Argumente vertauscht
werden. Dies folgt mit der gleichen Argumentation wie bei der Determinante.
Sei nun B := {ei }ri=1 eine geordnete Basis von V . Sei
ϕB := ϕ(e1 , e2 , . . . , er ) ∈ K .
Man sieht nun, dass die alternierende Linearform ϕ schon durch das ϕB ∈ K eindeutig festgelegt ist. Denn
um ϕ(v, w, . . .) zu berechnen entwickeln wir alle Argumente in der Basis B , ziehen mittels Multilinearität alle Entwicklungskoeffizienten aus ϕ(. . .) heraus. Alle Terme in denen mindestens ein Basisvektor
doppelt vorkommt verschwinden; wir ordnen ordnen die verbleibenden Basisvektoren (mittels der alternierenden Eigenschaft) in aufsteigender Reihenfolge. Also sind alle verbleibenden Terme proportional zu
ϕB . (Dieses Argument sollte mit dem Beweis von Satz 3.3.6 der Vorlesung verglichen werden!)
Zu jeder Wahl von ϕB ∈ K gibt es also genau eine alternierende dimK V -Linearform. Diese bilden daher
einen eindimensionalen Vektorraum.
(iii)
Man prüft leicht, dass die linke Seite der Gleichung, als Funktion der vi , selbst eine alternierende dimK V Linearform ist.
Die Aussage folgt dann aus der Tatsache, dass der Raum dieser Formen eindimensional ist.
(iv) Aus der definierenden Gleichung ϕ(Av1 , Av2 , . . . , Avr ) = d(A)ϕ(v1 , v2 , . . . , vr ), sowie aus den definierenden Eigenschaften von ϕ folgen direkt die drei Axiome der Determinantenabbildung: die Spaltenlinearität (D1) folgt aus der Multilinearität von ϕ, (D2) folgt, da ϕ alternierend sein soll, und die Normierung
(D3) ist offensichtlich.
Lösungen zu den Zusatzaufgaben
(a) Wir wenden die definierende Gleichung
ϕ(Av1 , Av2 , . . . , Avr ) = d(A)ϕ(v1 , v2 , . . . , vr )
zweimal hintereinander an.
(b) Sei A bijektiv; dann existiert ein Endomorphismus A−1 mit A◦A−1 = idV . Aus der ersten Zusatzaufgabe
folgt d(A) · d(A−1 ) = 1, so dass d(A) 6= 0 gelten muss.
Ist A nicht bijektiv, so ist A auch nicht injektiv. Also existiert v1 ∈ V, v1 6= 0 mit Av1 = 0. Ergänze v1
zu einer Basis {v1 , . . . vn } von V . Es folgt für eine nicht-verschwindende alternierende Multilinearform
ϕ(v1 , v2 , . . . , vr ) 6= 0, aber ϕ(Av1 , Av2 , . . . , Avr ) = 0 auf Grund der Linearität im ersten Argument. Somit
muss d(A) = 0 gelten.
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben
werden in der Übungsgruppe am Montag, dem 28. April, abgegeben.
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
4,
4,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
1:
2:
1:
2:
[’2’]
[’2’]
[’2’]
[’2’]
[’1’]
[’1’]
[’n’]
[’n’]
[’n’]
[’n-1’]
Ex
Ex
Ex
Ex
Ex
Ex
2,
2,
2,
2,
2,
2,
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Nein’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
3,
3,
3,
3,
3,
3,
3,
3,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
2,
2,
3,
3,
4,
4,
5,
Var
Var
Var
Var
Var
Var
Var
Var
1:
1:
2:
1:
2:
1:
2:
1:
[’Ja’]
[’Ja’]
[’Nein’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Nein’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
4,
4,
4,
4,
4,
4,
4,
4,
4,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
4,
4,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
1:
2:
1:
2:
[’Ja’]
[’Nein’]
[’Nein’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Nein’]
[’Nein’]
[’Ja’]
Übungsblatt 5
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 05.05.2008, 16:28 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
05.05.2008, 08:00 Uhr.
1
Berechnen Sie das Signum der folgenden Permutationen.
Lösung: Wir führen die obere Zeile in die untere durch eine Folge von Vertauschungen benachbarter
Einträge aus. Jede solche Vertauschung traegt einen Faktor (−1) bei. Das Signum ist das Produkt all dieser
Faktoren, also +1 wenn wir insgesamt eine gerade Anzahl an Paarvertauschungen ausführen müssen, −1
bei einer ungeraden Zahl.
Sei zum Beispiel die Permutation
!
1 2 3 4 5 6 7 8 9 10 11 12
5 7 10 2 3 11 12 8 6 4 9 1
betrachtet.
Im diesem Fall bewegen wir z.B. zuerst die 1 an die letzte Stelle. Dazu müssen wir an der 2, der 3, der
4, usw., bis schließlich an der 12 vorbei. Das sind insgesamt 11 Vertauschungen, liefert also einen Faktor
−1.
Als nächstes müssen wir die 9 an the vorletzte Stelle bringen. Dazu müssen wir an 10, 11 und 12 vorbei.
Es gibt also wieder einen Faktor -1.
Auf diese Weise fährt man fort.
Für zyklische Permutationen ist allgemein das Signum von
!
1 ... n−1 n
2 ...
n
1
1
2
3
4
gegeben durch (−1)n .
!
1 2 3
2 3 1
!
1 2 3
3 1 2
!
1 2 3 4
2 3 4 1
!
1 2 3 4
4 1 2 3
!
1 2 3 4 5
2 3 4 5 1
!
1 2 3 4 5
5 1 2 3 4
1 2 3 4 5 6 7 8 9 10 11 12
5 4 6 3 11 9 1 10 8 2 12 7
+1 / -1
+1 / -1
+1 / -1
+1 / -1
+1 / -1
+1 / -1
!
+1 / -1
2
!
1 2 3 4 5 6 7 8 9 10 11 12
+1 / -1
4 2 10 3 12 1 5 8 7 9 6 11
sin(2θ)
cos(θ) − sin(θ)
Es sei Sθ = cos(2θ)
eine
Spiegelungsmatrix
und
D
=
eine Drehmatrix. Wir
θ
sin(2θ) − cos(2θ)
sin(θ) cos(θ)
können diese Matrizen entweder als Elemente in M(2 × 2, R) oder in M(2 × 2, C) auffassen. Prüfen Sie
die folgenden Aussagen für allgemeines θ.
Lösung:
Das charakteristische Polynom von Sθ ist
(λ − cos(2θ))(λ + cos(2θ)) − (sin(2θ))2 = λ2 − 1 = (λ − 1)(λ + 1) .
Die Eigenwerte sind also λ = 1und λ = −1. Man prüft leicht,
dass die dazugehörigen Eigenräume die
cos θ
sin θ
Form Eig(Sθ , 1) = spanR ( sin θ ) und Eig(Sθ , −1) = spanR ( −cos
θ ) haben.
Das charakteristische Polynom von Dθ ist
(λ − cos θ)2 + (sin θ)2 = λ2 − 2 cos(θ)λ + 1 = (λ − cos θ + i sin θ)(λ − cos θ − i sin θ) .
Für allgemeine θ gibt es also nur über C Eigenwerte, nicht über R. Über C sind die Eigenwerte λ1,2 =
cos θ ± i sin θ. Dazu gehören die Eigenräume
1
Eig(Dθ , λ1,2 ) = spanC
.
∓i
1
2
3
4
5
3
1
Aufgefasst als Element von M(2 × 2, R) hat Sθ die Eigenwerte λ1 = +1, λ2 = Wahr / Falsch
−1.
Aufgefasst als Element von M(2 × 2, R) hat Sθ die Eigenwerte λ1 = cos(θ), Wahr / Falsch
λ2 = sin(θ).
Aufgefasst als Element von M(2 × 2, C) hat Dθ rein reelle Eigenwerte.
Wahr / Falsch
Aufgefasst als Element von M(2 × 2, C) hat Dθ rein imaginäre Eigenwerte.
Wahr / Falsch
Aufgefasst als Element von M(2 × 2, C) hat Dθ die Eigenwerte λ1 = cos(θ),
λ2 = sin(θ)
Wahr / Falsch
Aufgefasst als Element von M(2 × 2, C) hat Dθ die Eigenwerte λ1,2 = cos(θ) ±
i sin(θ).
cos(θ)
spanR sin(θ) ist ein Eigenraum von Sθ ∈ M(2 × 2, R).
sin(θ)
spanR cos(θ)
ist ein Eigenraum von Sθ ∈ M(2 × 2, R).
spanC 1i ist ein Eigenraum von Dθ ∈ M(2 × 2, C).
spanC 1i ist ein Eigenraum von Dθ ∈ M(2 × 2, C).
Wahr / Falsch
Wahr / Falsch
Wahr / Falsch
Wahr / Falsch
Wahr / Falsch
Es sei K ein Körper, V ein n-dimensionaler K-Vektorraum (1 ≤ n < ∞) und ϕ ∈ End V .
Ist 1 einziger Eigenwert von ϕ, so ist ϕ = idV .
Lösung:
Gegenbeispiel:
!
1 1
.
0 1
Ja / Nein
2
3
4
5
4
Ist 0 einziger Eigenwert von ϕ, so ist ϕ = 0.
Lösung:
Gegenbeispiel:
!
0 1
.
0 0
Ja / Nein
Es gibt a ∈ K, das nicht Eigenwert irgendeines Endomorphismus von V ist.
Lösung:
Nein, a ist Eigenwert von a · Id.
Es gibt einen Vektor v ∈ V ungleich Null, der für keinen Endomorphismus von
V ein Eigenvektor ist.
Lösung:
Nein, jedes v ungleich Null ist Eigenvektor der Identitätsabbildung.
Ja / Nein
ϕ hat mindestens einen Eigenwert.
Lösung:
Gegenbeispiel: allgemeine Drehmatrix im R2 .
Ist ϕ nicht invertierbar, so hat ϕ mindestens einen Eigenwert.
Lösung:
Wenn der Kern nicht verschwindet, gibt es Eigenvektoren zum Eigenwert 0.
Ist ϕ nicht invertierbar, so hat ϕ nur einen Eigenwert.
Lösung:
Gegenbeispiel:


1 0 0


 0 2 0 .
0 0 0
Ja / Nein
Die Summe von zwei Eigenvektoren von ϕ ist stets auch ein Eigenvektor von ϕ.
Lösung:
Nur wenn die Eigenwerte übereinstimmen.
Die Summe von zwei Eigenvektoren zu verschiedenen Eigenwerten ist kein Eigenvektor von ϕ.
Lösung:
Klar.
Ist ϕ2 = ϕ und ϕ 6= idV , so hat ϕ genau zwei Eigenwerte.
Lösung:
Gegenbeispiel: die Nullabbildung.
Ist ϕ3 = ϕ und ϕ 6= idV , so hat ϕ genau drei Eigenwerte.
Lösung:
Gegenbeispiel: die Nullabbildung.
Ja / Nein
Ja / Nein
Ja / Nein
Ja / Nein
Ja / Nein
Ja / Nein
Ja / Nein
Es sei K ein Körper, V ein endlich-dimensionaler Vektorraum und ϕ : V → V ein Endomorphismus von V .
Sind die folgenden Aussagen über Eigenvektoren richtig?
1
2
3
4
Wenn die Dimension von V gleich n ≥ 2 ist und ein linear unabhängiges (n − 1)- Ja / Nein
Tupel (v1 , . . . , vn−1 ) von Eigenvektoren von ϕ existiert, dann gibt es auch ein
linear unabhängiges n-Tupel (v1 , . . . , vn ) von Eigenvektoren von ϕ.
Lösung:
Gegenbeispiel
!
1 1
0 1
Wenn die Dimension von V mindestens 2 ist und ϕ einen Eigenvektor besitzt,
dann hat ϕ mindestens 2 linear unabhängige Eigenvektoren.
Lösung:
Gegenbeispiel
!
1 1
0 1
Ja / Nein
Der Endomorphismus ϕ hat mindestens einen Eigenvektor.
Lösung:
Gegenbeispiel: nichttriviale 2 × 2 Drehmatrix über R.
Es gibt einen Endomorphismus ϕ, der keinen Eigenvektor besitzt.
Lösung:
Beispiel: nichttriviale 2 × 2 Drehmatrix über R.
Ja / Nein
Ja / Nein
Die Summe zweier Eigenvektoren von ϕ zu verschiedenen Eigenwerten ist ein Ja / Nein
Eigenvektor von ϕ.
Die Differenz zweier Eigenvektoren von ϕ zu verschiedenen Eigenwerten ist ein Ja / Nein
Eigenvektor von ϕ.
Jede nichtverschwindende Linearkombination von zwei Eigenvektoren von ϕ Ja / Nein
zum gleichen Eigenwert ist ein Eigenvektor.
Die Summe zweier Eigenvektoren von ϕ zum gleichen Eigenwert ist entweder Ja / Nein
der Nullvektor oder ein Eigenvektor.
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
5
(5 Punkte) Sei K ein nicht notwendigerweise kommutativer Ring mit Eins. Sei darüber hinaus die Abbildung
M(2 × 2, K) −→ K
!
a b
7→ ad − bc
c d
eine Determinantenabbildung. Zeigen Sie, dass aus der Existenz der Determinantenabbildung folgt, dass
K kommutativ ist.
Lösung:
Seien a, b ∈ K beliebig. Unter Verwendung der definierenden Eigenschaften von Determinantenabbildungen können wir die folgenden Umformungen vornehmen:
!
!
!
!
!
1 0
1 0
a 0
a 0
1 0
ab = ab det
= a det
= det
= b det
= ba det
= ba .
0 1
0 b
0 b
0 1
0 1
6
Die Fibonacci-Folge (an )n∈N ist definiert durch die zwei Anfangswerte
a0 = 0
a1 = 1
und die Rekursionsformel
an+2 = an+1 + an .
Da die Rekursionsvorschrift linear ist, kann man Vektoren
vn :=
an+1
an
!
einführen und die Rekursionsvorschrift durch eine Matrix A beschreiben:
vk+1 = A · vk .
1. (5 Punkte) Bestimmen Sie die Matrix A und finden Sie deren Eigenwerte und Eigenvektoren.
2. (10 Punkte) Diagonalisieren Sie die Matrix A. Betrachten Sie mit Hilfe der diagonalisierten Matrix
die zweite Komponente von vn und geben Sie eine explizite Formel für ak als Funktion von k an.
Lösung:
Offenbar ist
A=
1 1
1 0
!
.
Das gesuchte Element ak ist die zweite Komponente des Vektors vk = Ak · v0 = Ak ·
1
0
!
, also der
Eintrag (Ak )21 der Matrix Ak .
Das charakteristische Polynom von A lautet χA (λ) = λ2 − λ − 1. Dessen Nullstellen, und damit die Ei!
√
√
1
genwerte von A, sind λ1 = 1+2 5 und λ2 = 1−2 5 zu den Eigenräumen Eig(A, λ1 ) = spanR
λ1 − 1
!
1
und Eig(A, λ2 ) = spanR
. Eine Transformationsmatrix auf eine Eigenbasis ist also S−1 =
λ2 − 1
!
!
1
1
λ
−
1
−1
2
1
. Deren Inverse berechnet sich zu S = λ2 −λ
. Es gilt
1
λ1 − 1 λ2 − 1
1 − λ1 1
Ak = S−1
λk1
0
0
λk2
!
S.
Den linken unteren Eintrag dieser Matrix berechnet man leicht zu
ak =
λk1 − λk2
√
.
5
7
Sei K ein Körper. Wir betrachten die Menge Abb(N0 , K) der Abbildungen von N0 nach K. Für f , g ∈
Abb(N0 , K) und a ∈ K definieren wir:
f + g : N0 −→ K, n 7→ f (n) + g(n)
a · f : N0 −→ K, n →
7 a f (n)
Wir bezeichnen mit Abb0 (N0 , K) die Teilmenge der Abbildungen f ∈ Abb(N0 , K), für die es nur endlich
viele n ∈ N0 mit f (n) 6= 0 gibt.
Schließlich definieren wir für f , g ∈ Abb(N0 , K) die Verknüpfung f ◦ g ∈ Abb(N0 , K), so dass für n ∈ N0
gilt ( f ◦ g)(n) = ∑a,b∈N0 ,a+b=n f (a)g(b).
(i) (5 Punkte) Zeigen Sie, dass Abb(N0 , K) mit der oben angegebenen Addition und Skalarmultiplikation ein K-Vektorraum ist.
(ii) (5 Punkte) Zeigen Sie, dass Abb0 (N0 , K) ein Untervektorraum von Abb(N0 , K) ist, der nicht von
endlich vielen Elementen erzeugt wird.
(iii) (5 Punkte) Zeigen Sie, dass ◦ ein assoziatives Produkt auf Abb(N0 , K) definiert. Für welches Element, das wir mit X 0 bezeichnen wollen, gilt X 0 ◦ f = f für alle f ∈ Abb(N0 , K)?
(iv) (5 Punkte) Sei X : N0 −→ K die Abbildung mit 1 7→ 1 und n 7→ 0 für n 6= 1. Wir definieren X i ∈
Abb(N0 , K) rekursiv als X i−1 ◦ X für i > 0. Zeigen Sie, dass jedes f ∈ Abb0 (N0 , K) eine eindeutige
Linearkombination von (X 0 , X 1 , . . . , X n ) für ein geeignetes n ∈ N0 ist, wobei X 0 das Element aus
Teil (iii) ist.
(v) (5 Punkte) Zeigen Sie, dass Abb0 (N0 , K) ein kommutativer Ring mit Eins ist.
(vi) (5 Punkte) Zeigen Sie, dass dieser Ring ein Polynomring über K in der Unbestimmten X aus Teilaufgabe (iv) ist.
8
Sei K ein Körper und V ein K-Vektorraum und seien φ, ψ ∈ End(V ). Zeigen Sie:
(a) (5 Punkte) Ist v ∈ V Eigenvektor von φ ◦ ψ zum Eigenwert λ, und ist ψ(v) 6= 0, so ist ψ(v) Eigenvektor
von ψ ◦ φ zum Eigenwert λ.
(b) (5 Punkte) Ist V endlich-dimensional, so haben φ ◦ ψ und ψ ◦ φ die gleichen Eigenwerte.
(c) (5 Punkte) Haben φ ◦ ψ und ψ ◦ φ auch die gleichen Eigenvektoren? Geben Sie einen Beweis oder ein
Gegenbeispiel.
Lösung:
(a) Wir rechnen unter Benutzung von Assoziativität der Komposition von Abbildungen:
ψ ◦ φ(ψ(v)) = ψ((φ ◦ ψ)(v)) = ψ(λv) = λψ(v)
Also ist ψ(v) Eigenvektor zum Eigenwert λ.
(b) Wir zeigen, dass alle Eigenwerte von φ ◦ ψ auch Eigenwerte von ψ ◦ φ sind. Die Aussage folgt dann
daraus, dass die betrachtete Situation symmetrisch ist.
Sei λ ein Eigenwert von φ ◦ ψ mit Eigenvektor v. Ist ψ(v) 6= 0, so folgt mit (a), dass λ auch Eigenwert von
ψ ◦ φ ist. Sei nun ψ(v) = 0, also v ∈ ker ψ. Dann ist auch λ = 0. Wir müssen also nur zeigen, dass ψ ◦ φ
nichttrivialen Kern hat. Da 0 ein Eigenwert von φ ◦ φ ist, ist
0 = det(φ ◦ ψ) = det φ det ψ = det ψ det φ = det(ψ ◦ φ)
Also hat auch ψ ◦ φ nichtverschwindenden Kern.
(c) Gegenbeispiel: Betrachten Sie R2 und die Matrizen
!
1 1
,
B=
A=
0 0
1
1
0 −1
!
Dann haben AB und BA verschiedene Eigenvektoren.
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben
werden in der Übungsgruppe am Montag, dem 5. Mai, abgegeben.
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
1,
1,
1,
1,
1,
1,
1,
1,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
4,
4,
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
1:
2:
[’+1’]
[’+1’]
[’-1’]
[’-1’]
[’+1’]
[’+1’]
[’+1’]
[’-1’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
4,
4,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
1:
2:
1:
2:
[’Wahr’]
[’Falsch’]
[’Falsch’]
[’Falsch’]
[’Falsch’]
[’Wahr’]
[’Wahr’]
[’Falsch’]
[’Wahr’]
[’Wahr’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
3,
3,
3,
3,
3,
3,
3,
3,
3,
3,
3,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
3,
4,
4,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
3:
1:
2:
1:
2:
[’Nein’]
[’Nein’]
[’Nein’]
[’Nein’]
[’Nein’]
[’Ja’]
[’Nein’]
[’Nein’]
[’Ja’]
[’Nein’]
[’Nein’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
4,
4,
4,
4,
4,
4,
4,
4,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
4,
4,
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
1:
2:
[’Nein’]
[’Nein’]
[’Nein’]
[’Ja’]
[’Nein’]
[’Nein’]
[’Ja’]
[’Ja’]
Übungsblatt 6
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 29.05.2008, 13:42 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
26.05.2008, 08:00 Uhr.
1
1
Seien K ein Körper und V ein K-Vektorraum, ϕ ∈ End V und 1 ≤ dim V = n < ∞. Sind die folgenden
Aussagen wahr?
Für jedes a ∈ K gibt es einen Endomorphismus von V mit Eigenwert a.
Ja / Nein
Lösung: Ja. Z.B. das a-fache der Identität.
Es gibt ein Element a ∈ K, das nicht Eigenwert eines Endomorphismus von V
ist.
Ja / Nein
Lösung: Nein. Der Eigenwert des a-fachen der Identität ist a.
2
ϕ hat höchstens n verschiedene Eigenwerte.
Ja / Nein
Lösung: Ja. Eigenvektoren zu unterschiedlichen Eigenwerten sind linear unabhängig. Es gibt aber höchstens n linear unabhängige Vektoren in einem Vektorraum der Dimension n.
ϕ hat stets n verschiedene Eigenwerte.
Ja / Nein
Lösung: Nein. Gegenbeispiel: die Identitätsabbildung.
3
Die Summe der geometrischen Vielfachheiten aller Eigenwerte von ϕ ist stets n. Ja / Nein
!
0 1
Lösung: Nein. Gegenbeispiel:
.
0 0
Die Summe der geometrischen Vielfachheiten aller Eigenwerte von ϕ ist stets Ja / Nein
von Null verschieden.
Lösung: Nein. Gegenbeispiel: Die allgemeine Drehmatrix hat gar keine (rellen)
Eigenwerte.
4
Falls K = R und n = 5 ist, so hat ϕ einen Eigenwert.
Lösung: Ja. Das folgt aus dem Zwischenwertsatz der Analysis. Relle polynomiale Funktionen von ungeradem Grad nehmen notwendigerweise sowohl positive als auch negative Werte an. Daher müssen Sie auch den Wert Null annehmen. Insbesondere hat das charakteristische Polynom von ϕ also eine Nullstelle.
Aus dem Fundamentalsatz der Algebra folgt genauer, dass reelle Polynome vom
Grad 5 genau eine, drei oder aber fünf reelle Nullstellen haben. Der Satz besagt, dass jedes Polynom in C[X], damit auch das charakteristische Polynom, in
Linearfaktoren zerfällt. Für Polynome in C[X] mit rein reellen Koeffizienten treten die Nullstellen in Paaren zueinander komplex konjugierter Zahlen auf. Jede
Nullstelle ist also entweder rein reell, oder aber sie ist komplex und ihr komplex
konjugiertes ist auch Nullstelle.
Also hat ein reelles Polynom vom Grad 5 genau eine, drei oder fünf reelle Nullstellen.
Ja / Nein
Falls K = R und n = 6 ist, so hat ϕ stets einen Eigenwert.
5
Ja / Nein
Lösung: Nein. Gegenbeispiel: Es gibt Matrizen, deren charakteristisches Polynom gleich X 6 + 1 ist (z.B. ai j = 0 außer a56 = −a65 = 1).
Allgemeiner folgt aus dem Fundamentalsatz der Algebra, dass reelle Polynome vom Grad 6 genau null, zwei, vier oder aber sechs reelle Nullstellen haben
können. Der Satz besagt, dass jedes Polynom in C[X], damit auch das charakteristische Polynom, in Linearfaktoren zerfällt. Für Polynome in C[X] mit rein
reellen Koeffizienten treten die Nullstellen in Paaren zueinander komplex konjugierter Zahlen auf. Jede Nullstelle ist also entweder rein reell, oder aber sie ist
komplex und ihr komplex konjugiertes ist auch Nullstelle.
Also hat ein reelles Polynom vom Grad 6 genau null, zwei, vier oder sechs reelle
Nullstellen.
Sei K = C. Falls mit jedem Eigenwert a von ϕ auch 2a ein Eigenwert von ϕ ist, Ja / Nein
dann ist ϕ = 0.
Lösung:
Nein. Gegenbeispiel: ϕ =
0 1
0 0
!
hat nur den Eigenwert 0, ist aber nicht die
Nullabbildung.
2
Sei K ein Integritätsring und K[X] der zugehörige Polynomring. Kreuzen Sie die richtigen Aussagen an.
1
Seien g, q, f , r ∈ K[X], so dass g = q f + r gilt mit grad(r) < grad( f ). Dann gilt
a / b / c
a) grad(q) = grad(g) − grad( f ) − grad(r)
b) grad(q) = grad(g) − grad( f )
c) grad(q) = grad(g) − grad( f ) + grad(r)
Lösung: b). Da K ein Integritätsring ist, addieren sich beim Produkt die Grade
von Polynomen:
(aX n + bX n−1 + · · ·)(cX m + dX m−1 + · · ·) = acX n+m + · · · .
2
Sei K = R und g = q f +r in K[X] mit g = X 5 −3X 4 +3X −2 und f = X 2 −X +1, a / b
wobei grad(r) < grad( f ) gelten soll. Dann gilt
a) q hat ganzzahlige Koeffizienten.
b) r hat ganzzahlige Koeffizienten.
Lösung:
a) und b). Da alle Koeffizienten in Z liegen, kann man die gesamte Polynomdivision in Z[X] verstehen. Die Aussage folgt dann aus Satz 4.2.10 der Vorlesung.
3
Sei g = X n − 1, f = X − 1 und g = q f . Dann gilt
a / b / c
n−1
a) q = ∑ X k .
k=0
b) q = X n−1 − X n−2 + X n−3 ∓ · · · + (−1)n .
c) q = X n−1 − X n−2 + X n−3 + · · · + 1.
3
1
!
1 2 3 4 5 6 7 8 9
.
Es sei σ die folgende Permutation von 9 Elementen:
3 5 9 4 1 2 6 7 8
Sei mit (i j) die Transposition bezeichnet, die das i-te mit dem j-ten Element vertauscht und ansonsten
alle Elemente auf sich selbst abbildet. In den folgenden Fragen ist jeweils eine Verkettung von solchen
Transpositionen angegeben, wobei an einer Stelle die Variable i anstelle einer der Ziffern von 1 bis 9 steht.
Tragen Sie in das Antwortfeld die Ziffer ein, die man für i einsetzen muss, damit die Verknüpfung der
angegebenen Transpositionen gleich σ ist.
(7 i) ◦ (6 8) ◦ (8 2) ◦ (5 8) ◦ (9 8) ◦ (9 3) ◦ (1 3)
(6 i) ◦ (5 7) ◦ (8 7) ◦ (1 8) ◦ (3 8) ◦ (2 5) ◦ (9 8)
2
(1 6) ◦ (9 6) ◦ (7 8) ◦ (i 6) ◦ (3 9) ◦ (2 5) ◦ (1 2)
(3 9) ◦ (1 3) ◦ (8 5) ◦ (i 8) ◦ (6 7) ◦ (2 7) ◦ (5 7)
4
Es sei K ein Körper und A ∈ M(n × n, K).
1
Ist s Eigenwert von A, so ist dimK Eig(A, s) = Rang(s · En − A).
Ja / Nein
Lösung: Nein. Es ist nach der Dimensionsformel
dimK Eig(A, s) = dimK ker(s · En − A) = n − Rang(s · En − A).
Ist s Eigenwert von A, so ist dimK Eig(A, s) = n − Rang(s · En − A).
Ja / Nein
Lösung: Ja. Es ist nach der Dimensionsformel
dimK Eig(A, s) = dimK ker(s · En − A) = n − Rang(s · En − A).
2
Ist K = C, dann gilt: Wenn das charakteristische Polynom PA 6= X n ist, so ist Ja / Nein
Am 6= 0 für alle m ∈ N.
Lösung: Ja.
In diesem Fall gibt es einen Eigenwert ungleich Null. Keine Potenz von A annihiliert den zugehörigen Eigenvektor, daher müssen alle Am von Null verschieden
sein.
Ist K = C, dann gilt: Wenn Am = 0 ist für ein m ∈ N, so ist das charakteristische Ja / Nein
Polynom PA = X n .
Lösung: Ja.
In diesem Fall kann nur λ = 0 als Eigenwert auftreten, also ist PA eine Potenz
von X.
3
A und At haben die gleichen Eigenwerte.
Ja / Nein
Lösung: Ja.
Dies folgt aus
PA (X) = det(XEn − A) = det(XEn − At ) = PAt (X).
4
A und At haben die gleichen Eigenräume.
Ja / Nein
Lösung: Nein. Gegenbeispiel: Die Matrixeinheit E12 hat als Eigenraum (zum
Eigenwert Null) span(e1 ), ihre Transponierte E21 hat als Eigenraum zum Eigenwert Null span(e2 ).
5
Ist


2
1
1


A= 2
3
2  ∈ M(3 × 3, Q),
−4 −4 −3
so ist das charakteristische Polynom PA =
(a) X 3 − 2X 2 + X
(b) X 3 + 2X 2 + X
(c) X 3 − 2X 2 + 1
Ist


2
1
1


A =  −6
1
2  ∈ M(3 × 3, Q),
4 −2 −3
so ist das charakteristische Polynom PA =
(a) X 3 + X
(b) X 3 − 2X + 1
(c) X 3 − X
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
(a) / (b) / (c)
(a) / (b) / (c)
5
Wir untersuchen den Ring M(2 × 2, F2 ) von 2 × 2-Matrizen mit Einträgen im Körper F2
(a) (5 Punkte) Geben Sie alle invertierbaren Matrizen an.
(b) (5 Punkte) Ist die Gruppe GL(2, F2 ) isomorph zu einer symmetrischen Gruppe Sn ?
(c) (5 Punkte) Geben Sie die Ähnlichkeitsklassen invertierbarer Matrizen an.
(d) (5 Punkte) Geben Sie die Ähnlichkeitsklassen nicht-invertierbarer Matrizen an.
Lösung:
Mit Hilfe der Determinante sieht man leicht, dass GL(2, F2 ) aus den folgenden sechs Elementen besteht:
!
!
!
!
1 0
0 1
1 0
1 1
0 1
1 0
1 1
0 1
die außer dem ersten Element Ordnung zwei haben und zwei Elementen
!
!
1 1
0 1
1 1
1 0
der Ordnung drei. Als Gruppe liegt die symmetrische Gruppe S3 vor.
Es gibt 3 Ähnlichkeitsklassen invertibler Elemente, eine bestehend aus der Identität, eine bestehend aus
den beiden Elementen der Ordnung 3 und eine bestehend aus den 3 Elementen der Ordnung zwei.
Die 10 nicht-invertiblen Matrizen fallen in drei Ähnlichkeitsklassen: eine bestehend aus der Null, eine
bestehend aus den drei Matrizen
!
!
!
1 1
0 1
0 0
1 1
0 0
1 0
und eine, die die restlichen sechs Elemente enthält.
6 (10 Punkte) Es sei K ein Körper, n ∈ N und A ∈ M(n × n, K) eine Matrix. Mit PA ∈ K[X] sei das charakteristische Polynom von A bezeichnet. Zeigen Sie:
Wenn a ∈ K ist und die Dimension dimK (Eig(A, a)) = m für ein m ∈ N mit m ≥ 1 ist, dann teilt das
Polynom (X − a)m das charakteristische Polynom PA .
Lösung:
Wir vervollständigen die m Eigenvektoren zu einer Basis. In dieser hat A die Form


aEm ∗



.
0
0 A
Das charakteristische Polynom ist also
PA = PaEm · PA0 = (X − a)m PA0 .
7
(10 Punkte) Gegeben sei die Matrix



A=

0
0
0
1
1
0
0
2
0 0
1 0
0 1
0 −2



 ∈ M(4 × 4, Q).

Bestimmen Sie alle Eigenwerte und alle Eigenräume von A.
Lösung:
Das charakteristische Polynom von A errechnet sich zu (X + 1)3 (X − 1), also ist +1 Eigenwert der algebraischen Vielfachheit 1 und −1 Eigenwert der algebraischen Vielfachheit 3.
Ein Eigenvektor zum Eigenwert 1 ist (1, 1, 1, 1), also ist Eig(A, 1) = spanQ (1, 1, 1, 1). Ein Eigenvektor
zum Eigenwert −1 ist (1, −1, 1, −1). Weitere linear unabhängige Eigenvektoren gibt es nicht, damit ist
Eig(A, −1) = spanQ (1, −1, 1, −1).
8
(5 Punkte) Es sei K ein Körper, n ∈ N und A ∈ M(n × n, K).
Zeigen Sie: Es existiert ein Polynom 0 6= f ∈ K[X] mit grad( f ) ≤ n2 , für das f (A) = 0 ∈ M(n × n, K) ist.
Lösung: Die Dimension des Vektorraumes M(n × n, K) ist n2 . Für jedes A ∈ M(n × n, K) muss daher die
Familie von Matrizen
2
(En , A, A2 , A3 , · · · , An )
linear abhängig sein, da sie mehr als n2 Elemente enthält. D. h. es existieren Elemente ci ∈ K, die nicht
alle gleich 0 sind, so dass
2
c0 En + c1 A + c2 A2 + · · · + cn2 An = 0 .
Daher ist
2
c0 + c1 X + c2 X + · · · + cn2 X n ∈ K[X]
ein Polynom mit den gesuchten Eigenschaften.
9
(20 Punkte) Sei V ein Vektorraum der endlichen Dimension n ≥ 1 und sei φ ∈ End(V ) ein Endomorphismus von V . Zeigen Sie, dass die folgenden beiden Bedingungen äquivalent sind.
i) φ ist diagonalisierbar.
ii) Zu jedem Unterraum W ⊂ V gibt es einen Unterraum U ⊂ V , so dass V = W ⊕U und φ(U) ⊂ U.
Man nennt einen solchen Untervektorraum U ein unter φ stabiles Komplement von W .
Lösung:
• i) ⇒ ii)
Sei (v1 , v2 , . . . , vn ) eine Basis von V bestehend aus Eigenvektoren von φ.
Sei (w1 , . . . , wm ) eine Basis von W . Wir können diese mit Eigenvektoren von φ zu einer Basis
(w1 , w2 , . . . , wm , vi1 , vi2 , . . . , vin−m )
von V ergänzen. Wir setzen
U = span(vi1 , vi2 , . . . , vin−m )
und finden V = W ⊕U sowie φ(U) ⊂ U.
• ii) ⇒ i) Beweis durch Induktion nach dimV . Der Fall n = 1 ist klar. Sei also n ≥ 2.
Wähle irgendeine Hyperebene H1 in V . (Also einen Untervektorraum der Dimension n − 1). Nach
Annahme gibt es einen eindimensionalen Unterraum D1 mit V = H1 ⊕ D1 und φ(D1 ) ⊂ D1 . Also
wird D1 durch einen Eigenvektor v1 von φ aufgespannt,
D1 = span(v1 ) .
Auf diese Weise fahren wir fort. Angenommen wir haben bereits m Eigenvektoren von φ gefunden.
Dann wählen wir wiederum eine Hyperebene H, und zwar so, dass all diese Vektoren darin enthalten
sind. Per Voraussetzung gibt es wieder ein D mit V = H ⊕ D. Ein beliebiges nichtverschwindendes
vm+1 ∈ D ist nun unser (m + 1)-ter Eigenvektor.
Auf diese Weise erhält man schließlich eine Basis von V aus Eigenvektoren von φ. Also ist φ diagonalisierbar.
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben
werden in der Übungsgruppe am Montag, dem 26. Mai, abgegeben.
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
1,
1,
1,
1,
1,
1,
1,
1,
1,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
4,
4,
5,
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
1:
2:
1:
[’Ja’]
[’Nein’]
[’Ja’]
[’Nein’]
[’Nein’]
[’Nein’]
[’Ja’]
[’Nein’]
[’Nein’]
Ex 2, Qu 1, Var 1: [’b’]
Ex 2, Qu 2, Var 1: [’a’, ’b’]
Ex 2, Qu 3, Var 1: [’a’]
Ex
Ex
Ex
Ex
3,
3,
3,
3,
Qu
Qu
Qu
Qu
1,
1,
2,
2,
Var
Var
Var
Var
1:
2:
1:
2:
[’8’]
[’7’]
[’8’]
[’1’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
4,
4,
4,
4,
4,
4,
4,
4,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
4,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
1:
1:
2:
[’Nein’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Nein’]
[’(a)’]
[’(c)’]
Übungsblatt 7
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 09.06.2008, 14:25 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
02.06.2008, 08:00 Uhr.
1
1
Es sei K ein beliebiger Körper und K[X] der Polynomring über K in der Unbestimmten X. Sind die folgenden Aussagen richtig?
Zwei verschiedene Polynome in K[X] vom Grad 1 sind teilerfremd; d.h. es gibt Ja / Nein
kein Polynom vom Grad größer gleich 1, das die beiden Polynome teilt.
Lösung: Nein. Gegenbeispiel: 2X und X haben den gemeinsamen Teiler X.
Zwei verschiedene normierte Polynome in K[X] vom Grad 1 sind teilerfremd; Ja / Nein
d.h. es gibt kein Polynom vom Grad größer gleich 1, das die beiden Polynome
teilt.
2
Lösung: Ja. Normierte Polynome vom Grad 1 haben die Form X + a. X + a
und X + b können höchstens einen gemeinsamen Teiler der Form cX + d haben
(c 6= 0). Man prüft leicht, dass dies nur für d = ac = bc und somit a = b möglich
ist.
In K[X] gibt es irreduzible Polynome, d.h. Polynome, die sich nicht als Produkt Ja / Nein
zweier nichtkonstanter Polynome schreiben lassen.
Lösung: Ja. Jedes Polyom vom Grad 1 ist irreduzibel.
3
Wenn ein Polynom f ∈ K[X] unendlich viele Nullstellen hat, dann ist f das Ja / Nein
Nullpolynom.
Lösung: Ja. Nach Lemma 4.2.11 der Vorlesung trägt jede Nullstelle einen Linearfaktor zum Polynom bei. Kein nichttriviales Polynom von endlichem Grad
kann also unendlich viele Nullstellen haben.
Jedes Polynom 0 6= f ∈ K[X] hat nur endlich viele Nullstellen.
Ja / Nein
4
Lösung: Ja. Nach Lemma 4.2.11 der Vorlesung trägt jede Nullstelle einen Linearfaktor zum Polynom bei. Kein nichttriviales Polynom von endlichem Grad
kann also unendlich viele Nullstellen haben.
Jedes nicht-konstante Polynom hat eine Nullstelle in K.
Ja / Nein
Lösung: Nein. Gegenbeispiel: X 2 + 1 ∈ R[X].
5
Ja / Nein
Zu einer reellen Zahl α betrachten wir die Q-Algebra
Q[α] = { f (α) ∈ R | f ∈ Q[X]}
aller Polynomausdrücke in α. Ist diese Q-Algebra für α =
gebra über Q in der Unbestimmten α?
√
7 eine Polynomal-
Lösung: Nein. Wegen α2 = 7 lässt sich 7 ∈ Q[α] auf zweierlei Weise als Polynom in α schreiben. Das widerspricht der Definition (4.2.4 in der Vorlesung)
von Polynomringen.
Zu einer reellen Zahl α betrachten wir die Q-Algebra
Ja / Nein
Q[α] = { f (α) ∈ R | f ∈ Q[X]}
aller Polynomausdrücke in α. Ist diese Q-Algebra für α = 21/3 eine Polynomalgebra über Q in der Unbestimmten α?
Lösung: Nein. Wegen α3 = 2 lässt sich 2 ∈ Q[α] auf zweierlei Weise als Polynom in α schreiben. Das widerspricht der Definition (4.2.4 in der Vorlesung)
von Polynomringen.
21
Ein Polynom heißt unzerlegbar oder irreduzibel, wenn es nicht als Produkt nichtkonstanter Polynome geschrieben werden kann.
!
5 1
Ist das Minimalpolynom der Matrix
∈ M(2 × 2, R) unzerlegbar?
0 5
Lösung: Nein. Das charakteristische Polynom ist (X − 5)2 . Da (X − 5) nicht im
Annihilator der Matrix liegt, ist auch das Minimalpolynom gleich (X − 5)2 , also
reduzibel.
Ein Polynom heißt unzerlegbar oder irreduzibel, wenn es nicht als Produkt nichtkonstanter Polynome geschrieben werden
! kann.
5 −1
Ist das Minimalpolynom von
∈ M(2 × 2, R) unzerlegbar?
0 5
2
Lösung: Nein. Das charakteristische Polynom ist (X − 5)2 . Da (X − 5) nicht im
Annihilator der Matrix liegt, ist auch das Minimalpolynom gleich (X − 5)2 , also
reduzibel.
!
λ 1
Gibt es ein λ ∈ R, für das das Minimalpolynom von
∈ M(2 × 2, R)
0 λ
unzerlegbar ist?
Ja / Nein
Ja / Nein
Ja / Nein
Lösung: Nein. Das charakteristische Polynom ist (X − λ)2 . Da (X − λ) nicht im
Annihilator der Matrix liegt ist auch das Minimalpolynom gleich (X − λ)2 , also
reduzibel.
!
λ 1
Gibt es ein λ ∈ C, für das das Minimalpolynom von
∈ M(2 × 2, C) Ja / Nein
0 λ
unzerlegbar ist?
3
Lösung: Nein. Das charakteristische Polynom ist (X − λ)2 . Da (X − λ) nicht im
Annihilator der Matrix liegt ist auch das Minimalpolynom gleich (X − λ)2 , also
reduzibel.
Welche Dimension
hat der Eigenraum zum Eigenwert 17, 5 der Matrix
!
17, 5
1
∈ M(2 × 2, R)?
0
17, 5
Welche Dimension
hat der Eigenraum zum Eigenwert 17, 5 der Matrix
!
17, 5
1
∈ M(2 × 2, C)?
0
17, 5
Welche !
Dimension hat der Eigenraum zum Eigenwert 5 ∈ F7 der Matrix
5 1
∈ M(2 × 2, F7 )?
0 5
4
5
Sei A eine quadratische Matrix. Für einen Eigenwert λ von A der algebraischen
Vielfachheit r ≥ 1 nennt man Ker(A − λidV )r den Hauptraum (oder verallgemeinerten Eigenraum) zum Eigenwert λ.
!
17, 5
1
∈ M(2×
Was ist die höchste Dimension eines Hauptraums von
0
17, 5
2, C)?
Sei A eine quadratische Matrix. Für einen Eigenwert λ von A der algebraischen
Vielfachheit r ≥ 1 nennt man Ker(A − λidV )r den Hauptraum (oder verallgemeinerten Eigenraum) zum Eigenwert λ.
!
17, 5
1
Was ist die höchste Dimension eines Hauptraums von
∈ M(2×
0
17, 5
2, R)?
!
4 −1
∈ M(2 × 2, R) zum FakWelche Dimension hat der Hauptraum von
1 6
tor X − 5 des Minimalpolynoms (also zum Eigenwert 5) dieser Matrix? Lösung:
Das charakteristische Polynom ist (X − 5)2 , also hat 5 als Eigenwert die algebraische Vielfachheit 2. Wegen (A − 5E2 ) 6= 0 ist die Matrix A nicht diagonalisierbar. Das Minimalpolynom ist also (X − 5)2 , also (A − 5E2 )2 = 0, somit ist
der Hauptraum der ganze Raum.
!
4 −1
∈ M(2 × 2, C) zum Fak1 6
tor X − 5 des Minimalpolynoms dieser Matrix? Lösung:
Das charakteristische Polynom ist (X − 5)2 , also hat 5 als Eigenwert die algebraische Vielfachheit 2. Wegen (A − 5E2 ) 6= 0 ist die Matrix A nicht diagonalisierbar. Das Minimalpolynom ist also (X − 5)2 , also (A − 5E2 )2 = 0, somit ist
der Hauptraum der ganze Raum.
!
Welche Dimension hat der Hauptraum von
4 6
∈ M(2 × 2, F7 ) zum Fak1 6
tor X + 2 des Minimalpolynoms dieser Matrix? Lösung:
Das charakteristische Polynom ist (X − 5)2 , also hat 5 als Eigenwert die algebraische Vielfachheit 2. Wegen (A − 5E2 ) 6= 0 ist die Matrix A nicht diagonalisierbar. Das Minimalpolynom ist also (X − 5)2 , also (A − 5E2 )2 = 0, somit ist
der Hauptraum der ganze Raum.
Welche Dimension hat der Hauptraum von
3
Es sei K = F3 und V ein 4-dimensionaler K-Vektorraum mit Basis B = (b1 , . . . , b4 ). Sei ϕ ∈ End(V ) der
Endomorphismus mit


1 1 2 2
 0 2 0 0 


MBB (ϕ) := 
.
 0 0 2 0 
1 0 1 1
Sei M eine Teilmenge von V ; unter dem ϕ-Erzeugnis von M verstehen wir den kleinsten ϕ-invarianten
Untervektorraum von V , der M enthält. Wir bezeichnen es mit ϕ hM i.
Lösung:
ϕ-invariante Unterräume sind offensichtlich span(b1 , b4 ), span(b1 , b2 , b4 ), span(b1 , b3 , b4 ) und natürlich
V = span(b1 , b2 , b3 , b4 ) selbst.
Es ist span(b1 , b4 ) das ϕ-Erzeugnis sowohl von b1 als auch von b4 . Ebenso ist span(b1 , b2 , b4 ) das ϕErzeugnis von b2 und span(b1 , b3 , b4 ) das von b3 .
Das charakteristische Polynom von ϕ (über F3 !) ergibt sich zu
(X 2 − 2X + 2)(X − 2)2 .
Der erste Faktor hat, wie man schnell prüft, keine Nullstellen in F3 . Das Minimalpolynom (welches ja
die gleichen Nullstellen haben muss wie das charakteristische Polynom) ist also entweder gleich dem
charakteristischen Polynom, gleich (X − 2), gleich (X − 2)2 , oder aber gleich (X 2 − 2X + 2)(X − 2). Durch
Einsetzen findet man, dass zwar (X − 2) und (X − 2)2 nicht im Annihilator unserer Matrix liegen, aber
(X 2 − 2X + 2)(X − 2). Daher ist das Minmalpolynom gleich (X 2 − 2X + 2)(X − 2), also vom Grad 3.
An dieser Argumentation ändert sich kaum etwas, wenn man die Matrix auf span(b1 , b2 , b4 ) einschränkt.
1
2
3
Ist spanK (b1 ) ein ϕ-invarianter Untervektorraum von V ?
Ja / Nein
Ist spanK (b2 ) ein ϕ-invarianter Untervektorraum von V ?
Ja / Nein
Ist spanK (b1 , b2 , b4 ) das ϕ-Erzeugnis von b2 ?
Ja / Nein
Ist spanK (b1 , b4 ) der Durchschnitt von ϕ hb3 i und ϕ hb2 i?
Ja / Nein
Welche Dimension hat ϕ hb1 i?
Welche Dimension hat ϕ hb4 i?
Welche Dimension hat ϕ hb1 , b4 i?
4
5
Welchen Grad hat das Minimalpolynom von ϕ?
Welchen Grad hat das Minimalpolynom der Einschränkung von ϕ auf
ϕ hb1 , b2 , b4 i?
Welchen Grad hat das Minimalpolynom von ϕ auf ϕ hb2 , b4 i + ϕ hb1 , b2 i?
Welchen Grad hat das Minimalpolynom von ϕ auf ϕ hb2 , b4 i ∩ ϕ hb1 , b2 i?
4
Wir betrachten einen n-dimensionalen K-Vektorraum V mit geordneter Basis B zusammen mit einem
Endomorphismus ϕ. Bekanntlich gibt eine geordnete Basis B einen K-Vektorraum-Isomorphismus ΦB :
K n → V . Es bezeichne ϕ0 den Endomorphismus von K n , der durch die Matrix MBB (ϕ) gegeben ist.
Mit µϕ sei das Minimalpolynom von ϕ bezeichnet.
1
Gilt ϕ ◦ ΦB = ΦB ◦ ϕ0 ?
Ja / Nein
Lösung: Es gilt ϕ0 = Φ−1
B ◦ ϕ ◦ ΦB , da
M(ϕ0 ) = MBB (ϕ) = M(Φ−1
B ◦ ϕ ◦ ΦB )
nach Lemma 2.7.1 und da M ein Isomorphismus ist.
Gilt ϕ = ΦB ◦ ϕ0 ◦ Φ−1
B ?
Ja / Nein
Lösung: Es gilt ϕ0 = Φ−1
B ◦ ϕ ◦ ΦB , da
M(ϕ0 ) = MBB (ϕ) = M(Φ−1
B ◦ ϕ ◦ ΦB )
nach Lemma 2.7.1 und da M ein Isomorphismus ist.
Gilt ϕ0 = Φ−1
B ◦ ϕ ◦ ΦB ?
Ja / Nein
Lösung: Es gilt ϕ0 = Φ−1
B ◦ ϕ ◦ ΦB , da
M(ϕ0 ) = MBB (ϕ) = M(Φ−1
B ◦ ϕ ◦ ΦB )
nach Lemma 2.7.1 und da M ein Isomorphismus ist.
2
Haben ϕ und ϕ0 dasselbe Minimalpolynom?
Ja / Nein
Lösung: Ja, da ein Endomorphismus und seine darstellende Matrix das gleiche
Minimalpolynom haben.
3
Kann man B immer so wählen, dass MBB (ϕ) eine obere Dreiecksmatrix ist?
Ja / Nein
Lösung: Nein. Falls es so eine Basis gibt, zerfällt das charakteristische Polynom
in Linearfaktoren. Das ist aber im Allgemeinen nicht der Fall.
Kann man B immer so wählen, dass MBB (ϕ) eine Diagonalmatrix ist?
Ja / Nein
Lösung: Nein. Falls es so eine Basis gibt, zerfällt das charakteristische Polynom
in Linearfaktoren. Das ist aber im Allgemeinen nicht der Fall.
4
Ist für jeden Teiler X − λ (vom Grad 1) des Minimalpolynoms µϕ das Ja / Nein
Körperelement λ ein Eigenwert von ϕ?
Lösung: Ja. Denn dann ist λ auch Nullstelle des charakteristischen Polynoms.
5
Gibt es zu jedem µ ∈ K und jedem k ∈ {0, 1, . . . , n} ein Beispiel eines K- Ja / Nein
Vektorraums V mit Endomorphismus ϕ, bei dem der Eigenraum Eig(ϕ, µ) die
Dimension k hat?
Lösung: Ja. Beispiel: Diagonalmatrix mit k Einträgen µ auf der Diagonalen und
n − k Einträgen µ0 6= µ.
6
Gibt es für n = 2 zu jedem µ ∈ K Beispiele für einen K-Vektorraum V mit En- Ja / Nein
domorphismus ϕ, bei denen das Minimalpolynom von ϕ die Form (X − µ)2 hat
und dim K Eig(ϕ, µ) = 1 ist?
!
µ 1
Lösung: Ja. Beispiel:
.
0 µ
7
Gibt es für n = 2 zu jedem µ ∈ K Beispiele eines K-Vektorraums V mit Endo- Ja / Nein
morphismus ϕ, bei dem das Minimalpolynom von ϕ die Form (X − µ)2 hat und
der Eigenraum Eig(ϕ, µ) die Dimension zwei hat?
Lösung: Nein. Für den gegebenen Fall muss ϕ ein Vielfaches der Identität sein.
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
5
(10 Punkte) Sei V ein endlich-dimensionaler Vektorraum über einen Körper K und ϕ ein Endomorphismus
von V .
Für jedes Polynom P ∈ K[X] ist auch P(ϕ) ein Endomorphismus von V .
Sei nun u(X) ein Teiler des Minimalpolynoms µϕ mit 1 ≤ Grad u. Zeigen Sie, dass der Kern von u(ϕ)
nicht verschwindet, also Kern u(ϕ) 6= {0}.
Lösung:
Sei µϕ = uq, mit grad(q) < grad(µ). Wäre Kern u(ϕ) = {0}, dann wäre u(ϕ) wegen der endlichen Dimension von V ein Automorphismus. Aus
0 = µϕ (ϕ) = u(ϕ) q(ϕ)
folgt dann 0 = q(ϕ), so dass mit q ein Polynom mit kleinerem Grad als µϕ im Annihilator läge. Das
widerspricht der Definition des Minimalpolynoms. Also muss Kern u(ϕ) 6= {0} gelten.
6
(i) (5 Punkte) Beweisen Sie: ist eine Matrix A ∈ M(2 × 2, R) symmetrisch, d.h. gilt A = At , so hat das
charakteristische Polynom nur reelle Nullstellen.
(ii) (5 Punkte) Sei A ∈ M(2 × 2, R) antisymmetrisch, das heißt es gelte At = −A. Hat dann das charakteristische Polynom nur reelle Nullstellen? Beweis oder Gegenbeispiel.
Lösung:
(i) Das charakteristische Polynom hat die Form
!
λ − a −b
det
= (λ − a)(λ − d) − b2
−b λ − d
= λ2 − (a + d)λ + ad − b2 .
Die Nullstellen sind
a+d 1
±
λ1,2 =
2
2
q
(a + d)2 − 4(ad − b2 ) =
a+d 1
±
2
2
q
(a − d)2 + 4b2 ,
also reell.
(ii) Ein Gegenbeispiel: Die Matrix
0 1
−1 0
!
ist antisymmetrisch. Ihr charakteristisches Polynom ist PA (X) = X 2 + 1 und hat keine reellen Nullstellen.
7
a) (5 Punkte) Es sei K ein Körper, in dem 1 + 1 6= 0 gilt. Sei A eine Lösung der Gleichung A2 = E2 in
M(2 × 2, K). Zeigen Sie, dass dann genau eine der folgenden Aussagen gelten muss
• A = E2
• A = −E2
• A = SDS−1 mit S ∈ GL(2, K) und D der Diagonalmatrix mit Einträgen 1, −1.
Lösung:
Gemäß Voraussetzung liegt das Polynom
X 2 − 1 = (X − 1)(X + 1)
im Annihilator von A. Das Minimalpolynom muss ein normierter Teiler dieses Polynoms sein. Es gibt also
drei Fälle zu unterscheiden:
• Der Faktor (X −1) ist das Minimalpolynom. In diesem Fall ist A die Einheitsmatrix E2 , da A−E2 = 0
gilt.
• Der Faktor (X + 1) ist das Minimalpolynom. In diesem Fall ist A gleich −E2 , da A + E2 = 0 gilt.
• Weder (X − 1) noch (X + 1) haben A als Nullstelle. Also muss das Minimalpolynom von A gleich
(X + 1)(X − 1) sein und A hat die Eigenwerte 1 und −1. Diese sind, wegen 1 + 1 6= 0 verschieden.
Daher ist jede (2 × 2)-Matrix mit Minimalpolynom X 2 − 1 diagonalisierbar, also ähnlich zu der
Diagonalmatrix mit Einträgen +1 und −1.
b) (5 Punkte) Geben Sie alle Lösungen der Gleichung A2 = E2 für den Fall K = F2 an.
Lösung: In K = F2 ist 1 = −1. Daher gilt für das oben beschriebene Polynom nun
X 2 − 1 = (X − 1)2 .
Das Minimalpolynom µ teilt also (X − 1)2 und wir unterscheiden die folgenden beiden Fälle:
Fall 1: µ = (X − 1). Das ist äquivalent zu A = +E2 = −E2 . Die drei Fälle oben fallen hier für K = F2 also
zusammen.
Fall 2: µ = (X − 1)2 . In diesem Fall muss µgeo (1) < µalg (1) = 2 (da wir sonst wieder Fall 1 vorliegen
hätten).
Wir vergleichen nun mit der Lösung von Aufgabe 4.5 auf Übungsblatt 6. Die Matrix liegt dann in der
Ähnlichkeitsklasse
(
!
!
!)
0 1
1 0
1 1
,
,
1 0
1 1
0 1
8
(5 Punkte)
Diagonalisieren Sie simultan die beiden Matrizen


12
6 −6


A =  −9 −3
6 
9
6 −3


5 2 −2


B =  −3 0
2 
3 2
0
aus M(3 × 3, R), indem Sie eine Basis von gemeinsamen Eigenvektoren angeben.
Lösung:
Man rechnet nach, dass die Matrizen A und B kommutieren.
Die Matrix A hat die Eigenwerte 3 mit Vielfachheit zwei und 0 mit Vielfachheit eins. Linear unabhängige
Eigenvektoren zum Eigenwert 3 sind zum Beispiel
 


2
−2

 

v1 =  0  , v2 =  3  ,
3
0
ein Eigenvektor zum Eigenwert 0 ist zum Beispiel


1


v3 =  −1  .
1
Da A und B kommutieren, sind die Eigenräume von A unter B invariant. Insbesondere folgt wegen
dimR Eig(A, 0) = 1, dass v3 auch Eigenvektor von B ist.
Wir betrachten nun Eig(A, 3) und diagonalisieren die Einschränkung von B auf Eig(A, 3). Wir sehen, dass
B · v1 = 2v1 und B · v2 = 2v2 gilt. Somit hat B|Eig(A,3) bereits Diagonalgestalt und (v1 , v2 , v3 ) ist eine Basis
von R3 aus gemeinsamen Eigenvektoren von A und B.
9
Sei K ein Körper und V ein K-Vektorraum mit geordneter Basis (ei )i∈I . Für i ∈ I definieren wir Elemente
ϕi ∈ V ∗ durch ϕi (e j ) = δi j . Zeigen Sie:
(i) (5 Punkte) Die Familie (ϕi )i∈I ist linear unabhängig.
(ii) (5 Punkte) Ist V unendlichdimensional, so ist die Familie (ϕi )i∈I keine Basis von V ∗ .
Lösung:
(i) Sei J ⊂ I eine endliche Teilmenge und ∑ j∈J λ j ϕ j = 0. Für jedes i ∈ J gilt dann
0 = ( ∑ λ j ϕ j )(ei ) =
j∈J
∑ λ j ϕ j (ei) = λi
j∈J
Somit ist jede endliche Teilfamilie von (ei )i∈I linear unabhängig und damit (ei )i∈I linear unabhängig.
(ii) Wir betrachten die Abbildung ϕ ∈ V ∗ mit ϕ(ei ) = 1 für alle i ∈ I. Dann ist ϕ keine endliche Linearkombination der ϕi und somit die Familie (ϕi )i∈I kein Erzeugendensystem.
10 Sei A ∈ M(n × n, C) eine quadratische Matrix. Wir definieren B ∈ 2n × 2n, C) durch
!
A A
B :=
0 A
(i) (5 Punkte) Drücken Sie das charakteristische Polynom von B durch das charakteristische Polynom
von A aus und vergleichen Sie die Eigenwerte.
(ii) (5 Punkte) Berechnen Sie Bn für n ∈ N und damit P(B) für P ∈ C[X].
Sei nun B als diagonalisierbar vorausgesetzt.
(iii) (5 Punkte) Zeigen Sie, dass dann A und B das gleiche Minimalpolynom haben.
(iv) (5 Punkte) Zeigen Sie unter Verwendung von (ii) und (iii), dass das Minimalpolynom von A ein
Monom ist, das heißt µA (X) = X p für ein gewisses p.
(v) (5 Punkte) Schließen Sie aus der Diagonalisierbarkeit von B, dass A = 0 gilt.
Lösung:
(i) Offenbar gilt PB = (PA )2 . Insbesondere haben A und B die gleichen Eigenwerte.
(ii) Durch Induktion berechnen wir
Bn =
An nAn
0 An
!
und damit
P(B) =
P(A) AP0 (A)
0
P(A)
!
Wir nehmen nun an, dass B diagonalisierbar ist.
(iii) Wegen (ii) und µB (B) = 0 ist µB (A) = 0, nach der Definition teilt also das Minimalpolynom µA von
A das Minimalpolynom µB von B. Da B diagonalisierbar ist, zerfällt µB in paarweise verschiedene
Linearfaktoren, also auch µA . Nach (i) haben A und B die gleichen Eigenwerte, somit folgt mit der
Normiertheit des Minimalpolynoms, dass µA = µB .
(iv) Wegen (ii) und (iii) ist Aµ0A (A) = 0, also gilt µA |Xµ0A . Da beide Polynome den gleichen Grad p
haben, folgt pµA (X) = Xµ0A (X). Das einzige normierte Polynom, das diese Bedingung erfüllt, ist
µA (X) = X p .
(v) Mit (iii) und (iv) folgt µB = µA = X p . Da B diagonalisierbar ist, zerfällt µB in paarweise verschiedene
Linearfaktoren, also p = 1. Damit ist µA (X) = X und somit 0 = µA (A) = A.
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben
werden in der Übungsgruppe am Montag, dem 2. Juni, abgegeben.
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
1,
1,
1,
1,
1,
1,
1,
1,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
3,
3,
4,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
1:
2:
1:
1:
2:
[’Nein’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Nein’]
[’Nein’]
[’Nein’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
3,
4,
4,
5,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
3:
1:
2:
1:
2:
3:
[’Nein’]
[’Nein’]
[’Nein’]
[’Nein’]
[’1’]
[’1’]
[’1’]
[’2’]
[’2’]
[’2’]
[’2’]
[’2’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
3,
3,
3,
3,
3,
3,
3,
3,
3,
3,
3,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
3,
4,
4,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
3:
1:
2:
1:
2:
[’Nein’]
[’Nein’]
[’Ja’]
[’Ja’]
[’2’]
[’2’]
[’2’]
[’3’]
[’3’]
[’3’]
[’3’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
4,
4,
4,
4,
4,
4,
4,
4,
4,
4,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
1,
2,
3,
3,
4,
5,
6,
7,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
3:
1:
1:
2:
1:
1:
1:
1:
[’Ja’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Nein’]
[’Nein’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Nein’]
Übungsblatt 8
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 09.06.2008, 15:56 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
09.06.2008, 08:00 Uhr.
1
1
Tragen Sie die gefragten Zahlen in die vorgesehenen Felder ein.


−22
6
12
3
 −56
16
28
7 


Sei M = 
 ∈ M(4 × 4, Q). Teilen Sie das charakteri −32
8
18
4 
48 −12 −24 −4
stische Polynom von M durch das Minimalpolynom von M und geben sie eine
Nullstelle des Ergebnisses an.
Lösung:
Man findet für das charakteristische Polynom PA = (X − 2)4 . Man rechnet, dass
(A − 2E4 )2 = 0, das Minimalpolynom ist also µA = (X − 2)2 . Der Quotient hat
als Nullstelle
 nur 2.

−23
6
12
3
 −56
15
28
7 


Sei M = 
 ∈ M(4 × 4, Q). Teilen Sie das charakteri −32
8
17
4 
48 −12 −24 −5
stische Polynom von M durch das Minimalpolynom von M und geben sie eine
Nullstelle des Ergebnisses an.
2
Lösung:
Man findet für das charakteristische Polynom PA = (X − 1)4 . Man rechnet, dass
(A − E4 )2 = 0, das Minimalpolynom ist also µA = (X − 1)2 . Der Quotient hat als
Nullstelle nur 1.


1 2 3


Sei M =  4 5 6  ∈ M(3 × 3, R). Wieviele a ∈ R gibt es, so dass der Rang
7 8 9
von aE3 − M kleiner als drei ist?
Lösung: Das charakteristische Polynom ist X 3 − 15X 2 − 18X = X(X 2 − 15X −
18) hat offensichtlich 3 verschiedene reelle Lösungen.


1 2 3


Sei M =  4 5 6  ∈ M(3 × 3, C). Wieviele a ∈ C gibt es, so dass der Rang
7 8 9
von aE3 − M kleiner als drei ist?
Lösung: Das charakteristische Polynom ist X 3 − 15X 2 − 18X = X(X 2 − 15X −
18) hat offensichtlich 3 verschiedene reelle Lösungen.
3
Wieviele Matrizen M ∈ M(2×2, F2 ) haben genau zwei verschiedene Eigenwerte
in F2 ?
Lösung: Hat eine Matrix zwei verschieden Eigenwerte, so ist sie diagonalisierbar. Sie liegt in der Ähnlichkeitsklasse von
!
1 0
,
0 0
die nach Blatt 6 genau sechs Elemente hat.
4
Wieviele Matrizen M ∈ M(2 × 2, F2 ) haben keinen Eigenwert in F2 ?
Lösung: Die Matrix kann nicht Determinante Null haben, da sie sonst einen
Eigenwert Null hat. Also ist die Matrix eine der sechs invertierbaren Matrizen.
Die Einheitsmatrix und die drei Matrizen in der Ähnlichkeitsklasse der Matrix
!
0 1
1 0
5
haben offenbar Eigenwerte. Es bleiben also die beiden Matrizen der Ordnung
3, die das charakteristische Polynom PA = X 2 + X + 1 haben, das in F2 keine
Nullstellen hat.
Wieviele Matrizen M ∈ M(4 × 4, F17 ) haben ein Minimalpolynom vom Grad 1?
Lösung:
Minimalpolynom vom Grad 1 bedeutet, dass es ein µ ∈ F17 gibt mit
A − µE4 = 0 .
Also muss A = µE4 sein. Es gibt 17 mögliche Werte für µ, also 17 solche Matrizen.
Wieviele Matrizen M ∈ M(3 × 3, F23 ) haben ein Minimalpolynom vom Grad 1?
Lösung:
Minimalpolynom vom Grad 1 bedeutet, dass es ein µ ∈ F23 gibt mit
A − µE3 = 0 .
Also muss A = µE3 sein. Es gibt 23 mögliche Werte für µ, also 23 solche Matrizen.
2
Es sei A = (ai, j ) ∈ M(n × n, R) mit
(
ai, j =
1 wenn i + j gerade,
0 sonst
und µA das Minimalpolynom.
Lösung:
Für n ≥ 2 hat A offenbar genau zwei linear unabhängige Zeilenvektoren. Daher ist rang A = 2 und
dim ker A = n − 2.
Für x ∈ Q sei [x] die größte ganze Zahl kleiner gleich x.
Der Vektor e1 = (1, 0, 1, · · ·) ist Eigenvektor von A zum Eigenwert [(n + 1)/2].
Der Vektor e2 = (0, 1, 0, · · ·) ist Eigenvektor von A zum Eigenwert [n/2].
Also gibt es eine Basis, in der A dargestellt wird durch eine Matrix der Form
M(A) = diag([n/2], [(n + 1)/2], 0, 0, · · ·) .
Für n gerade ist daher µA = X(X − n/2). Für n ungerade ist µA = X(X − (n − 1)/2)(X − (n + 1)/2).
Für n gerade ist der größte Eigenwert gleich n/2. Für n ungerade ist der größte Eigenwert gleich (n + 1)/2.
Der kleinste Eigenwert ist immer die Null. Der zugehörige Eigenraum hat die Dimension dim ker A = n−2.
1
2
3
4
5
3
Für n = 70 ist Grad µA gleich
Für n = 72 ist Grad µA gleich
Für n = 74 ist Grad µA gleich
Für n = 74 ist der größte Eigenwert gleich
Für n = 76 ist der größte Eigenwert gleich
Für n = 78 ist der größte Eigenwert gleich
Für n = 63 ist der größte Eigenwert gleich
Für n = 65 ist der größte Eigenwert gleich
Für n = 67 ist der größte Eigenwert gleich
Für n = 133 ist die Dimension des Eigenraums Eig(A,t) zum kleinsten Eigenwert t gleich
Für n = 135 ist die Dimension des Eigenraums Eig(A,t) zum kleinsten Eigenwert t gleich
Für n = 137 ist die Dimension des Eigenraums Eig(A,t) zum kleinsten Eigenwert t gleich
Für n = 60 ist die Dimension des Eigenraums Eig(A,t) zum größten Eigenwert
t gleich
Für n = 70 ist die Dimension des Eigenraums Eig(A,t) zum größten Eigenwert
t gleich
Für n = 80 ist die Dimension des Eigenraums Eig(A,t) zum größten Eigenwert
t gleich
Wir betrachten einen n-dimensionalen K-Vektorraum mit einem Endomorphismus ϕ. Ist T ⊆ V ein ϕinvarianter Untervektorraum, dann bezeichnen wir mit ϕT die Einschränkung von ϕ auf T . Mit µϕ sei das
Minimalpolynom von ϕ bezeichnet.
1
Ist für jeden Eigenwert λ von ϕ das Polynom X − λ ein Teiler des Minimalpolynoms µϕ ?
Lösung: Ja. Für jede Nullstelle α eines Polynoms ist (X − α) immer Teiler.
(Lemma 4.2.11 der Vorlesung.)
Ist jedes unzerlegbare normierte Polynom p(X) mit p(ϕ) = 0 gleich µϕ ?
Ja / Nein
Ja / Nein
Lösung: Ja. Denn es wird durch µϕ geteilt, hat aber keine echten Teiler. Man
beachte aber, dass ein Minimalpolynom nicht unbedingt unzerlegbar sein muss!
2
Ist jedes Polynom q(X) mit q(ϕ) = 0 ein Teiler von µϕ ?
Ja / Nein
Lösung: Nein. Gegenbeispiel: q = µ2ϕ .
Ist jedes Polynom r(X) mit r(ϕ) = 0 ein Vielfaches von µϕ ?
Ja / Nein
Lösung: Ja. Das folgt aus der Definition von µϕ .
3
µ1 , µ2 seien die Minimalpolynome der Restriktionen von ϕ auf die ϕ-invarianten Ja / Nein
Untervektorräume T1 bzw. T2 . Ist µ1 ·µ2 dann das Minimalpolynom der Restriktion von ϕ auf T1 + T2 ?
Lösung: Nein. Gegenbeispiel: ϕ = E2 , T1 = span(e1 ), T2 = span(e2 ).
4
µ1 , µ2 seien die Minimalpolynome der Restriktionen von ϕ auf die ϕ-invarianten Ja / Nein
Untervektorräume T1 bzw. T2 , deren Schnitt trivial sei. Ist µ1 ·µ2 dann das Minimalpolynom der Restriktion von ϕ auf T1 ⊕ T2 ?
Lösung: Nein. Gegenbeispiel: ϕ = E2 , T1 = span(e1 ), T2 = span(e2 ).
5
µ1 und µ2 seien die Minimalpolynome der Restriktionen von ϕ auf die ϕ- Ja / Nein
invarianten Untervektorräume T1 bzw. T2 , und g sei der größte gemeinsame Teiler mit höchstem Koeffizienten 1 von µ1 und µ2 . Ist g dann das Minimalpolynom
von ϕ|T1 ∩ T2 ?
Lösung: Nein. Gegenbeispiel: Sei a 6= b, und A die Diagonalmatrix mit Einträgen a, b, a. Setze T1 := spanK (e1 , e2 ) und T2 := spanK (e2 , e3 ). Dann ist
µ1 = µ2 = (X − a)(X − b) = g
aber das Minimalpolynom des Schnitts ist X − b.
4
1
Es sei K ein Körper, ϕ ∈ End V für einen n-dimensionalen K-Vektorraum V und A ∈ M(n × n, K) mit
n ≥ 1. Das charakteristische Polynom von ϕ bzw. A wird mit Pϕ bzw. PA bezeichnet, das Minimalpolynom
mit µϕ bzw. µA .
Ist ϕ bijektiv, so ist Pϕ (0) 6= 0.
Ja / Nein
Lösung: Ja. Es ist Pϕ (0) = (−1)n det(ϕ). Ist ϕ bijektiv, so ist die Determinante
von Null verschieden.
Ist Pϕ (0) 6= 0, so ist ϕ bijektiv.
Ja / Nein
Lösung: Ja. Es ist Pϕ (0) = (−1)n det(ϕ). Ist det(ϕ) 6= 0, so ist ϕ bijektiv.
2
Ist Pϕ = PA , so gibt es eine geordnete Basis B in V mit A = MB (ϕ).
!
0 1
Lösung: Nein. Gegenbeispiel: ϕ =
und A = 02 .
0 0
Ja / Nein
3
Jedes normierte Polynom vom Grad n über K ist charakteristisches Polynom
eines Endomorphismus von V .
Ja / Nein
Lösung: Ja. Man konstruiert diesen Endomorphismus wie im Beweis von Theorem 4.5.7 (Cayley-Hamilton) in der Vorlesung.
4
Jedes normierte Polynom vom Grad n über K ist Minimalpolynom eines Endomorphismus von V .
Ja / Nein
Lösung: Ja. Zunächst konstruiert man einen Endomorphismus mit dem gegebenen Polynom als charakteristischem Polynom, wie im Beweis von Theorem
4.5.7 (Cayley-Hamilton) in der Vorlesung.
Aus dem Beweis geht außerdem hervor, dass für den so konstruierten Endomorphismus charakteristisches Polynom PA und Minimalpolynom µA übereinstimmen. Denn wäre
m
µA = ∑ ai X i
i=0
ein echter Teiler von PA , so wäre der Grad m strikt kleiner als der Grad von PA .
Es folgt dann aber aus
m
m
0 = µ̃A (A)v = ∑ ai Ai v = ∑ ai vi ,
i=0
i=0
dass die im Beweis angenommene lineare Abhängigkeitsbeziehung nicht minimal wäre, Widerspruch.
5
Hat Pϕ n paarweise verschiedene Nullstellen in K, so ist Pϕ = µϕ .
Ja / Nein
Lösung: Ja. Denn das Minimalpolynom teilt das charakteristische Polynom und
hat die gleichen Nullstellen.
6
Ist Pϕ = µϕ , so hat der Endomorphismus ϕ mindestens einen Eigenwert.
Ja / Nein
Lösung: Nein. Gegenbeispiel: Drehmatrix im R2 .
7
Ist die Summe der Koeffizienten des charakteristischen Polynoms Pϕ gleich 0, Ja / Nein
so ist 1 Eigenwert von ϕ.
Lösung: Ja. Denn dann ist P̃ϕ (1) = 0.
8
Ist die Summe der Koeffizienten des Minimalpolynoms µϕ gleich 0, so ist 1 Ja / Nein
Eigenwert von ϕ.
Lösung: Ja. Denn dann ist µ̃ϕ (1) = 0.
9
Ja / Nein
Sei

1
 0

A=
 ...
0
0
2
...
0
...
...
...
...
0
0
...
n



 ∈ M(n × n, R)

und B ∈ M(n × n, R) diagonalisierbar. Es gelte AB = BA; ist dann B notwendigerweise eine Diagonalmatrix?
Bemerekung
Die Forderung, dass B diagonalisierbar ist, ist nicht notwendig.
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
5
(5 Punkte) Sei K ein beliebiger Körper und ϕ ein Endomorphismus eines K-Vektorraums V . Zeigen Sie:
Ist jeder Vektor v ∈ V \ {0} ein Eigenvektor, so gibt es ein a ∈ K, so dass ϕ = aidV gilt.
Lösung:
Seien v1 6= 0 und v2 6= 0 Eigenvektoren zu den Eigenwerten λ1 und λ2 . Sind λ1 und λ2 verschieden, so
ist (v1 , v2 ) linear unabhängig. Wir betrachten die Summe v1 + v2 . Nach Annahme ist auch dies wieder ein
Eigenvektor, es gibt also a ∈ K so dass
λ1 v1 + λ2 v2 = ϕ(v1 + v2 ) = av1 + av2
gilt. Aus der linearen Unabhängigkeit von v1 , v2 folgt λ1 = λ2 = a.
6
Sei V ein endlich-dimensionaler K-Vektorraum. Sei M eine nicht-leere Teilmenge von End(V ) mit der
Eigenschaft, dass V und {0} die einzigen Unterräume von V sind, die unter allen ϕ ∈ M invariant sind.
Sei ψ 6= 0 ein Endomorphismus von V , der mit allen ϕ ∈ M vertauscht.
Zeigen Sie:
(i) (5 Punkte) ψ ist ein Automorphismus.
(ii) (5 Punkte) Im Falle K = C hat ψ sogar die Gestalt ψ = aidV mit einem a ∈ C \ {0}.
Lösung:
i) Wir nehmen an, dass dimK ker ψ > 0 und führen dies zu einem Widerspruch.
Wähle also ein v ∈ ker ψ und ein ϕ ∈ M, so dass ϕ(v) 6∈ ker ψ. Die Existenz eines solchen ϕ folgt aus der
Annahme, denn sonst wäre der echte Unterraum ker ψ invariant unter allen ϕ ∈ M.
Offensichtlich ist dann ϕ(ψ(v)) = 0 und ψ(ϕ(v)) 6= 0. Das widerspricht der Annahme, dass ψ und ϕ
vertauschen.
Also muss dimK ker ψ = 0 gelten. Es folgt damit, dass V endlich-dimensional ist, dass ψ ein invertierbarer
Endomorphismus (= Automorphismus) ist.
ii) Da K = C, hat ψ wenigstens einen Eigenwert a. Betrachte den Endomorphismus ψ̃ := ψ − aidV , der
ebenso mit allen ϕ ∈ M vertauscht. Wäre dieser Endomorphismus nicht Null, so wäre er nach (i) ein
Automorphismus. Das kann aber nicht sein, da es einen Eigenvektor von ψ zum Eigenwert a gibt, der im
Kern von ψ̃ liegt, so dass ψ̃ kein Automorphismus ist. Also ist ψ̃ = 0.
7 (10 Punkte)
Sei K ein Körper und V ein K-Vektorraum der Dimension n. Seien f1 , . . . , fm ∈ V ∗ Linearformen und sei
U = ker f1 ∩ . . . ∩ ker fm . Zeigen Sie, dass dimK U ≥ n − m gilt.
Lösung:
Wir können ohne Einschränkung annehmen, dass alle fi von Null verschieden sind.
Die Räume ker fi haben nach der Dimensionsformel die Dimension n − 1, sind also Hyperebenen. Sei
allgemein H eine Hyperebene und W ein Untervektorraum von V . Nach Satz 1.5.3 gilt dann dimK (W ∩
H) ≥ dimK W − 1. Per Induktion nach m folgt dann leicht die Aussage.
8
Ein Endomorphismus ϕ eines n-dimensionalen K-Vektorraums V heißt nilpotent, wenn es eine natürliche
Zahl k gibt, so dass ϕk = 0 gilt.
(i) (15 Punkte) Beweisen Sie die Äquivalenz der folgenden Aussagen über einen Endomorphismus eines
n-dimensionalen K-Vektorraums:
1. ϕ ist nilpotent.
2. Das charakteristische Polynom ist Pϕ (X) = X n .
3. Es gibt eine Basis von V , bezüglich welcher ϕ durch eine obere Dreiecksmatrix mit lauter Nullen
auf der Hauptdiagonalen dargestellt wird.
4. Es gilt ϕn = 0.
Hinweis:
Verwenden Sie die Kette von Inklusionen
ker ϕ ⊂ ker ϕ2 ⊂ ker ϕ3 ⊂ · · · ⊂ ker ϕk = V ,
um 1.) ⇒ 3.) zu zeigen.
(ii) Zeigen Sie, dass für eine nilpotente Matrix A ∈ M(n × n, K) gilt:
1. (5 Punkte) Sp(A) = 0.
2. (5 Punkte) det(A + En ) = det(En − A) = 1.
(iii) (10 Punkte) Sei A nilpotent. Zeigen Sie: Für jede Matrix B ∈ M(n × n, K), die mit A vertauscht, gilt
det(A + B) = det(B).
9
(Lösung der vorigen Aufgabe)
Lösung von (i):
Wir zeigen zuerst 1) ⇒ 3). Die anderen Aussagen folgen dann leicht.
Sei also ϕ nilpotent. Es folgt offensichtlich die Kette
ker ϕ ⊂ ker ϕ2 ⊂ ker ϕ3 ⊂ · · · ⊂ ker ϕk = V ,
von strikten Inklusionen, wobei wir annehmen können, dass k die kleinste natürliche Zahl ist, für die ϕk = 0
gilt.
Wir wählen nun eine Basis (e11 , e12 , · · ·) von ker ϕ. Diese ergänzen wir zu einer Basis (e11 , e12 , · · · , e21 , e22 , · · ·)
von ker ϕ2 . Das Ergebnis ergänzen wir wiederum zu einer Basis (e11 , e12 , · · · , e21 , e22 , · · · , e31 , e32 , · · ·) von ker ϕ3 .
Wenn wir auf diese Weise fortfahren, erhalten wir eine Basis von V , in der ϕ durch eine Matrix dargestellt
wir, die nichtverschwindende Einträge nur oberhalb der Hauptdiagonalen hat. Denn
m−1
, · · · , em−1
ϕ(em
= span(e11 , e12 , · · · , e21 , e22 , · · · , em−1
, em−1
p ).
i ) ∈ ker ϕ
2
1
Die Implikationen 3) ⇒ 1) und 3) ⇒ 4) folgen leicht aus den Regeln der Matrixmultiplikation. 3) ⇒
2) folgt aus der Tatsache, dass die Determinante einer oberen Dreiecksmatrix gleich dem Produkt der
Diagonalelemente ist. 4) ⇒ 1) ist trivial.
Schließlich gilt 2) ⇒ 1), denn das charakteristische Polynomom ist nach Cayley-Hamilton im Annihilator
von ϕ. Damit folgen die verbleibenden Implikationen.
Lösung: von (ii)
1. Folgt direkt aus Aussage 2) in Teil (i), da die Spur von A der Koeffizient von X n−1 ist, oder aus
Aussage 3) in Teil (i), da die Spur unabhängig von der Wahl einer Basis ist.
2. In der Basis, in der A eine obere Dreiecksmatrix mit lauter Nullen auf der Diagonale ist – eine solche
Basis existiert nach Aussage 3 von Teil (i) – folgt die Aussage sofort.
Lösung: von (iii)
Ist B invertibel, so folgt aus [A, B] = AB − BA = 0 sofort (AB−1 )k = Ak B−k . Ist also A nilpotent, so folgt,
dass auch AB−1 nilpotent ist. Somit folgt
det(A + B) = det(AB−1 + En )B = det(AB−1 + En ) · det B = det B ,
wobei wir im letzten Teil (ii) verwendet haben.
Ist B nicht invertibel, so ist det B = 0 und Ker(B) ein nicht-trivialer A-invarianter Unterraum. Auch die
Restriktion von A auf diesen Unterraum ist nilpotent, also trigonalisierbar. Es gibt also einen Eigenvektor
von A im Kern von B, d.h. v ∈ V mit Av = 0 = Bv. Daraus folgt (A + B)v = 0, also det(A + B) = 0 = det(B).
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben
werden in der Übungsgruppe am Montag, dem 9. Juni, abgegeben.
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
1,
1,
1,
1,
1,
1,
1,
1,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
4,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
1:
1:
2:
[’2’]
[’1’]
[’3’]
[’3’]
[’6’]
[’2’]
[’17’]
[’23’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
1,
2,
2,
2,
3,
3,
3,
4,
4,
4,
5,
5,
5,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
3:
1:
2:
3:
1:
2:
3:
1:
2:
3:
1:
2:
3:
[’2’]
[’2’]
[’2’]
[’37’]
[’38’]
[’39’]
[’32’]
[’33’]
[’34’]
[’131’]
[’133’]
[’135’]
[’2’]
[’2’]
[’2’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
3,
3,
3,
3,
3,
3,
3,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
4,
5,
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
1:
1:
[’Ja’]
[’Ja’]
[’Nein’]
[’Ja’]
[’Nein’]
[’Nein’]
[’Nein’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
4,
4,
4,
4,
4,
4,
4,
4,
4,
4,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
3,
4,
5,
6,
7,
8,
9,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
1:
1:
1:
1:
1:
1:
1:
[’Ja’]
[’Ja’]
[’Nein’]
[’Ja’]
[’Ja’]
[’Ja’]
[’Nein’]
[’Ja’]
[’Ja’]
[’Ja’]
Übungsblatt 9
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 17.06.2008, 17:39 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
16.06.2008, 08:00 Uhr.
1
Seien V und W endlichdimensionale K-Vektorräume und F : V → W eine lineare Abbildung mit zugehöriger dualer Abbildung F ∗ : W ∗ → V ∗ . Entscheiden Sie, ob die folgenden Aussagen wahr oder falsch sind.
1.1 Mit F ist auch stets F ∗ injektiv.
Wahr / Falsch
Lösung: Falsch.
F : K → K 3 mit F(λ) = λe1 ist injektiv. F ∗ ist eine Abbildung von einem dreidimensionalen in einen ein-dimensionalen Vektorraum und kann wegen der Dimensionsformel nicht injektiv sein.
Mit F ist auch stets F ∗ surjektiv.
Wahr / Falsch
Lösung: Falsch.
F : K 3 → K mit F(∑ xi ei ) = x1 ist surjektiv. F ∗ ist eine Abbildung von einem
ein-dimensionalen in einen drei-dimensionalen Vektorraum und kann wegen der
Dimensionsformel nicht surjektiv sein.
1.2 F ∗ ist genau dann surjektiv, wenn F injektiv ist.
Wahr / Falsch
Lösung: Wahr.
F ∗ ist genau dann injektiv, wenn (ImF)0 = KerF ∗ = {0} gilt. Dies ist aber genau
dann der Fall, wenn ImF = W gilt.
F ∗ ist genau dann injektiv, wenn F surjektiv ist.
Wahr / Falsch
Lösung: Wahr.
F ∗ ist genau dann surjektiv, wenn (KerF)0 = ImF ∗ = V ∗ gilt. Dies ist aber genau
dann der Fall, wenn KerF = {0} gilt.
1.3 Gelte dimK V = dimK W . F ∗ ist genau dann injektiv, wenn F injektiv ist.
Wahr / Falsch
Lösung: Wahr.
Aus F ∗ injektiv folgt, wegen dimK V = dimK W , dass F ∗ auch surjektiv ist. Nach
der vorigen Aufgabe ist daher F injektiv.
Gelte dimK V = dimK W . F ∗ ist genau dann surjektiv, wenn F surjektiv ist.
Wahr / Falsch
Lösung: Wahr.
Aus F ∗ surjektiv folgt, wegen dimK V = dimK W , dass F ∗ auch injektiv ist. Nach
der vorigen Aufgabe ist daher F surjektiv.
1.4 F ∗ ist genau dann invertierbar, wenn F invertierbar ist.
Wahr / Falsch
Lösung: Wahr.
Das folgt aus der vorigen Aufgabe. Expliziter: Sei F −1 das Inverse zu F, dann
folgt mit Lemma 5.1.11 aus der Vorlesung, dass (F ∗ )−1 = (F −1 )∗ gilt, denn
(F −1 )∗ ◦ F ∗ = (F ◦ F −1 )∗ = (IdW )∗ = IdW ∗
F ∗ ◦ (F −1 )∗ = (F −1 ◦ F)∗ = (IdV )∗ = IdV ∗ .
Sei nun V = W , also F und F ∗ Endomorphismen.
1.5 F ∗ ist genau dann trigonalisierbar, wenn F trigonalisierbar ist.
Wahr / Falsch
Lösung: Wahr.
Folgt aus Satz 5.1.12 der Vorlesung: In dualen Basen sind die darstellenden Matrizen von F und F ∗ zueinander transponiert.
F ∗ ist genau dann diagonalisierbar, wenn F diagonalisierbar ist.
Wahr / Falsch
Lösung: Wahr.
Folgt aus Satz 5.1.12 der Vorlesung: In dualen Basen sind die darstellenden Matrizen von F und F ∗ zueinander transponiert.
1.6 F und F ∗ haben stets das gleiche charakteristische Polynom.
Wahr / Falsch
Lösung: Wahr.
Folgt aus Satz 5.1.12 der Vorlesung: In dualen Basen sind die darstellenden Matrizen von F und F ∗ zueinander transponiert. Das charakteristische Polynom
gewinnt man aus der Determinante der darstellenden Matrix. Deren Wert ändert
sich nach Satz 3.2.10 der Vorlesung nicht unter Transposition.
1.7 F und F ∗ haben stets das gleiche Minimalpolynom.
Wahr / Falsch
Lösung: Wahr.
Der Annulator von F ist gleich dem von F ∗ , denn mit P(A) = 0 folgt auch 0 =
(P(A))t = P(At ).
1.8 F sei nilpotent. Ist dann auch F ∗ nilpotent?
Wahr / Falsch
Lösung: Wahr.
Das folgt aus Lemma 5.1.11 der Vorlesung, wonach (F ∗ )n = (F n )∗ .
F ∗ sei nilpotent. Ist dann auch F nilpotent?
Lösung: Wahr.
Das folgt aus Lemma 5.1.11 der Vorlesung, wonach (F ∗ )n = (F n )∗ .
Wahr / Falsch
Wahr / Falsch
1.9 Sei V unendlichdimensional. Dann ist die kanonische Abbildung
ιV : V → V ∗∗
injektiv, aber nicht surjektiv
2
Bezeichne V = R2 [X] den reellen Vektorraum der rellen Polynome vom Grad ≤ 2, und sei V ∗ der zugehörige Dualraum. Wir betrachten die Basen
A = (ai )i=1...3 = 1 , X , X 2
und
B = (bi )i=1...3 = (X − 1)0 , (X − 1)1 , (X − 1)2
von V . Ferner betrachten wir Basen C ∗ = (c∗1 , c∗2 , c∗3 ) und D ∗ = (d1∗ , d2∗ , d3∗ ) von V ∗ mit
c∗n : R2 [X] → R
f 7→ f (n) .
und
dn∗ : R2 [X] → R
f 7→
Z 1
f (x)xn−1 dx .
0
Überzeugen Sie sich, dass dies wirklich Basen sind. Geben Sie dann die Werte der folgenden Ausdrücke
an.
Lösung: Nach Definition des Polynomrings ist klar, dass A eine Basis ist. Wir zeigen, dass die Polynome
in B linear unabhängig sind und daher aus Dimensionsgründen eine Basis bilden: aus
λ(X − 1)2 + µ(X − 1) + ν = 0
folgt durch Vergleich der Terme proportional X 2 , dass λ = 0 gilt. Vergleich der Terme proportional X
liefert µ = 0, nun ist ν = 0 offensichtlich.
Wir zeigen, dass die Elemente in C ∗ linear unabhängig sind und daher aus Dimensionsgründen eine Basis
bilden: gilt
λc∗1 + µc∗2 + νc∗3 = 0 ,
so wenden wir dies auf das Polynom (X − 2)(X − 3) an, um λ = 0 zu schließen, auf (X − 1)(X − 3) um
auch µ = 0 zu sehen, ν = 0 ist nun offensichtlich.
Wir zeigen, dass die Elemente in D ∗ linear unabhängig sind und daher aus Dimensionsgründen eine Basis
bilden: gilt
λd1∗ + µd2∗ + νd3∗ = 0 ,
so folgt für alle f ∈ R2 [X]
Z 1
f (X)(λ + µX + νX 2 ) = 0 .
0
X 0 , X, X 2
Die Wahlen f =
geben ein System von drei linearen Gleichungen in den drei Variablen λ, µ, ν,
aus dem folgt, dass alle drei Variablen verschwinden müssen.
1
a∗3 (b3 )
a∗3 (b2 )
2
3
4
b∗3 (a3 )
Lösung:
Folgt sofort aus a3 = b3 + 2b2 + b1 .
b∗2 (a3 )
Lösung:
Folgt sofort aus a3 = b3 + 2b2 + b1 .
b∗1 (a3 )
Lösung:
Folgt sofort aus a3 = b3 + 2b2 + b1 .
b∗1 (a2 )
Lösung:
Folgt sofort aus a2 = b2 + b1 .
c∗3 (a3 )
Lösung:
c∗3 (a3 ) = a3 (3) = 32 = 9.
c∗3 (a2 )
Lösung:
c∗3 (a2 ) = a2 (3) = 31 = 3.
5
a∗1 (c1 )
Lösung: 3.
Aus
0 = c∗2 (c1 ) = c1 (2) und 0 = c∗3 (c1 ) = c1 (3)
folgt, dass das Polynom c1 die Nullstellen 2, 3 haben muss. Also
c1 = α(X − 2)(X − 3)
Aus 1 = c∗1 (c1 ) = c1 (1) = 2α folgt α = 12 . Somit
1
5
c1 = X 2 − X + 3 .
2
2
a∗1 (c2 )
Lösung: -3.
Aus
0 = c∗1 (c2 ) = c2 (1) und 0 = c∗3 (c2 ) = c2 (3)
folgt, dass das Polynom c2 die Nullstellen 1, 3 haben muss. Also
c2 = α(X − 1)(X − 3)
Aus 1 = c∗2 (c2 ) = c2 (2) = −α folgt α = −1. Somit
c2 = −X 2 + 4X − 3 .
6
a∗1 (d1 )
Lösung: 9.
Man berechnet leicht, dass d1 = 30X 2 − 36X + 9 die richtigen Eigenschaften hat.
a∗1 (d2 )
3
1
Lösung: -36.
Man berechnet leicht, dass d2 = −180X 2 + 192X − 36 die richtigen Eigenschaften hat.
V sei ein endlichdimensionaler K-Vektorraum
Ist die Spur, Sp : End(V ) → K, eine Linearform auf dem K-Vektorraum Ja / Nein
EndK (V )?
Lösung: Ja.
Offensichtlich ist die Abbildung linear,
Sp(λA + µB) = λSp(A) + µSp(B) .
2
Sei ρ ∈ EndK (V ) gegeben. Ist
Ja / Nein
EndK (V ) → K
φ 7→ Sp(ρ ◦ φ)
eine Linearform auf EndK (V )?
Sei ρ ∈ EndK (V ) gegeben. Ist
EndK (V ) × EndK (V ) → K
(φ1 , φ2 ) 7→ Sp(φ1 ◦ ρ ◦ φ2 )
eine Bilinearform auf EndK (V )?
Ja / Nein
3
Ist die Determinante, det : EndK (V ) → K, eine Linearform auf EndK (V )?
Ja / Nein
Lösung: Nein.
Die Determinante ist multilinear (nicht linear) bezüglich Skalarmultiplikation,
und nicht linear bezüglich der Addition von Matrizen.
Also Gegenbeispiel: det(2 · IdV ) = 2dimV , aber 2 det(IdV ) = 2 .
4
Sei A eine geordnete Basis von V . Ist
Ja / Nein
EndK (V ) → K
φ 7→ (MA (φ))11
eine Linearform auf EndK (V )?
5
Sei V = Rn , aufgefasst als euklidischer Vektorraum mit dem Standard- Ja / Nein
Skalarprodukt. Ist die zugehörige Norm, x 7→ kxk, eine Linearform auf V ?
Lösung: Nein.
Die Norm erfüllt die Eigenschaft (kλxk = |λ| kxk), vertauscht also nicht mit der
Multiplikation mit Skalaren. Die Dreiecksungleichung besagt, dass
kxk + kyk ≥ kx + yk .
Also Gegenbeispiel: kx + (−x)k = 0, aber kxk + k − xk = 2kxk.
Sei V = Rn , aufgefasst als euklidischer Vektorraum mit dem Standard- Ja / Nein
Skalarprodukt. Ist das Normquadrat, x 7→ kxk2 , eine Linearform auf V ?
Lösung: Nein.
Das Normquadrat respektiert weder die Multiplikation mit Skalaren noch die
Addition von Vektoren. Z.B. kλxk2 = λ2 kxk2 für alle λ ∈ K.
6
Sei M ⊂ V , M 6= V eine echte Teilmenge von V . Kann für den Annulator M 0 = Ja / Nein
{0} gelten?
Lösung: Ja.
Nach Lemma 5.1.8 ii) der Vorlesung ist M 0 = (spanK (M))0 . Es folgt, dass M 0 =
{0}, sobald M ein Erzeugendensystem von V ist.
7
Sei M ⊂ V eine Teilmenge mit M 0 = {0}. Muss M dann Erzeugendensystem
von V sein?
Lösung: Ja.
Angenommen M wäre kein Erzeugendensystem. Dann gibt es v ∈ V mit v 6∈
spanK (M), sowie eine Linearform, die auf spanK (M) verschwindet, nicht aber
auf v. Das widerspricht unserer Annahme.
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
Ja / Nein
4
(5 Punkte)















Es sei K = F2 , V := (F2 )6 und U := u1 = 













1
1
0
1
0
1










 , u2 = 








0
1
1
0
1
1










 , u3 = 








1
0
1
1
1
0










 . Geben Sie eine Basis









des Annulators U o an.
Lösung:
Der von U aufgespannte Raum ist zweidimensional, da u3 = u1 + u2 . (u1 , u2 ) ist offensichtlich linear
unabhängig.
Nach Lemma 5.1.8 iii) der Vorlesung hat der Annulator von U also Dimension 4.
Wir können (u1 , u2 ) zu einer Basis (bi )i von V ergänzen, mit b1 = u1 , b2 = u2 . Eine Basis des Annulators
von U ist dann die Untermenge (b∗3 , b∗4 , b∗5 , b∗6 ) der dualen Basis.
5
Es seien K ein Körper, n ∈ N und V := M(n × n, K).
a) (5 Punkte) Zeigen Sie: Ist A ∈ V und λA die durch λA (X) := tr(AX) definierte Abbildung von V nach
K, so ist λA linear, d.h. es ist λA ∈ V ∗ .
b) (5 Punkte) Zeigen Sie: {λA | A ∈ V } = V ∗ .
c) (5 Punkte) Es sei U := {X ∈ V | Xi j = 0 für i > j} die Menge der oberen Dreiecksmatrizen in V .
Geben Sie eine Basis des Annulators U 0 an, die aus Elementen der Form λEi j besteht, wobei Ei j
eine Basismatrix ist.
d) (5 Punkte) Zeigen Sie, dass W = {λ ∈ V ∗ | λ(XY ) = λ(Y X) für alle X,Y ∈ V } ein Untervektorraum
von V ∗ ist, und geben Sie eine Basis dafür an.
e) (5 Punkte) Zeigen Sie, dass spanK ({XY − Y X | X,Y ∈ V }) = {Z ∈ V | tr(Z) = 0} ist. Hinweis: Betrachten Sie die Standardbasis von V aus Basismatrizen Ei j .
Lösung:
a) λA (rX + sY ) = tr(rAX + sAY ) = ∑(rAX + sAY )ii = ∑(r(AX)ii + s(AY )ii ) = rλA (X) + sλA (Y ).
i
i
b) Aus Betrachtung 5.1.3 der Vorlesung wissen wir, dass dimV ∗ = n2 . Wir zeigen nun, dass für die n2
Basismatrizen Ei j die zugehörigen (λEi j )ni, j=1 linear unabhängig sind.
Man rechnet, dass λEi j (X) = X ji , wobei {Ei j } die Basismatrizen sind. Damit folgt, dass (λEi j )ni, j=1
linear unabhängig ist.
c) Wegen λEi j (X) = X ji gilt U 0 = spanK (λEi j | j > i).
d) Die Untervektorraumeigenschaft ist klar. Wegen der zyklischen Invarianz der Spur liegen alle Vielfachen von λEn in W. Wir zeigen nun, dass span(λEn ) = W .
Dazu verwenden wir die Gleichung tr(AEi j ) = A ji . Betrachte zunächst Basismatrizen X = Ei j und
Y = E jk mit i 6= k. Es gilt XY = Eik und Y X = 0. Aus tr(AXY ) = tr(AY X) folgt also Aki = 0, für alle
Nichtdiagonaleinträge i 6= k.
Sei A also eine Diagonalmatrix. Setze nun X = Ei j und Y = E ji , so dass XY = Eii und Y X = E j j .
Mit dem gleichen Argument wie zuvor folgt nun aus tr(AXY ) = tr(AY X) für alle i und j, dass A ein
Vielfaches der Einheitsmatrix sein muss.
e) Wegen der zyklischen Invarianz der Spur ist klar, dass jeder Kommutator die Spur Null hat, damit
auch jede Linearkombination von Kommutatoren. Zu zeigen ist also, dass jede spurlose Matrix als
Linearkombination von Kommutatoren geschrieben werden kann.
Eine Basis für den Untervektorraum der spurlosen Matrizen ist offenbar
B := (Ei j , Ekk − Ek+1,k+1 | ∀i 6= j, k = 1, . . . , n − 1) .
Diese Basiselemente können alle wie folgt als Kommutatoren dargestellt werden:
∀i 6= j : Ei j = Eik Ek j − Ek j Eik
für beliebiges k sowie
∀i : Eii − Ei+1,i+1 = Ei,i+1 Ei+1,i − Ei+1,i Ei,i+1 .
6
Es seien K ein Körper und n ∈ N. Für ρ ∈ M(n × n, K) definieren wir
Φρ : M(n × n, K) × M(n × n, K) → K
durch
Φρ (A, B) := Sp(AρB) .
(i) (5 Punkte) Zeigen Sie, dass Φρ eine Bilinearform auf dem K-Vektorraum M(n × n, K) ist.
(ii) (5 Punkte) Für welche Matrizen ρ ist die Bilinearform symmetrisch?
(iii) (5 Punkte) Für welche Matrizen ρ ist die Bilinearform nicht ausgeartet?
Lösung:
(ii) Wir benutzen Basismatrizen:
A = Ei j
B = E pq
Es folgt Φρ (A, B) = ρ jp δqi und Φρ (B, A) = ρqi δ jp . Setzt man i = q, so folgt aus Φρ (A, B) = Φρ (B, A)
die Gleichung ρ jp = ρii δ jp ; nur Vielfache der Einheitsmatrix geben also eine symmetrische Bilinearform.
(iii) Die Matrix ρ muss invertierbar sein.
Denn sei ρ invertierbar und sei für gegebenes A Sp(AρB) = 0 für alle B. Dann gilt insbesondere
für alle B = ρ−1 Ei j dass A ji = Sp(AρB) = 0. Also folgt, dass A = 0 gelten muss, wenn Φρ nicht
ausgeartet ist.
Umgekehrt, sei Φρ nicht ausgeartet. Angenommen ρ wäre nicht invertierbar. Dann können wir B 6= 0
finden (nämlich eine Matrix deren Spaltenvektoren alle im Kern von ρ liegen), so dass ρB = 0 gilt.
Das widerspricht der Annahme, dass Φρ nicht ausgeartet ist. Also muss ρ invertierbar sein.
7
(5 Punkte)
Sei K ein Körper und V ein n-dimensionaler K-Vektorraum. Seien f , g ∈ V ∗ von Null verschiedene Linearformen auf V . Zeigen Sie:
Es ist ker( f ) = ker(g), genau dann, wenn es ein c ∈ K \ {0} gibt, so dass f = cg.
Lösung:
Sei ker( f ) = ker(g). Wir zeigen, dass dann f = cg ist. Sei U = ker( f ) = ker(g). Wegen f , g 6= 0 ist
dimK U = n−1. Sei (ui )i=1,...,n−1 eine Basis von U. Wir ergänzen diese Basis zu einer Basis (ui )i=1,...,n von
f (un )
V . Dann ist f (ui ) = λg(ui ) = 0 für i < n und für alle λ ∈ K. Wegen g(un ) 6= 0 und f (un ) 6= 0 ist c := g(u
n)
wohldefiniert und von Null verschieden. Damit ist f (un ) =
Die Umkehrung folgt leicht.
f (un )g(un )
g(un )
= cg(un ) und somit f = cg.
8
Sei K ein Körper, V ein endlich-dimensionaler K-Vektorraum und β ∈ BilK (V,V ) eine symmetrische Bilinearform. Sei B = (b1 , b2 , . . . , bn ) eine Basis von V . Mit diag(α1 , α2 , . . . , αn ) ∈ M(n × n, K) sei die Diagonalmatrix mit Diagonalelementen α1 , α2 , . . . , αn bezeichnet.
Zeigen Sie die folgenden Aussagen:
(i) (5 Punkte) Kongruente Diagonalmatrizen haben die gleiche Anzahl von Nullen auf der Diagonale.
(ii) (5 Punkte) Sei MB (β) = diag(α1 , α2 , . . . , αn ). Setze W = spanK (bi | αi 6= 0). Zeigen Sie, dass die
Restriktion von β auf W ×W nicht ausgeartet ist.
(iii) (5 Punkte) Sei
N(β) = {v ∈ V |β(v, w) = 0 für alle w ∈ W }
der sogenannte Nullraum von β. Zeigen Sie, dass dann gilt
V = W ⊕ N(β) .
(iv) (10 Punkte) Es gelte α1 + α2 6= 0. Dann sind die beiden Diagonalmatrizen
diag(α1 , α2 ) und diag(α1 + α2 , (α1 + α2 )α1 α2 )
kongruent.
9
Dies ist die Lösung zur vorherigen Aufgabe.
(i) Sei A irgendeine Matrix und S eine invertierbare Matrix. Dann sind offensichtlich die Dimensionen
der Kerne von A, AS, St A und auch von St AS gleich.
Für Diagonalmatrizen ist die Dimension des Kernes gleich der Anzahl von Nullen auf der Diagonalen.
(ii) Auf W ×W wird β durch eine Diagonalmatrix mit nichtverschwindenden Einträgen dargestellt. Alle
solche Bilinearformen sind nicht ausgeartet.
(iii) Wir zeigen, dass N(β) = spanK (bi |αi = 0). Daraus folgt dann sofort, dass V = W + N(β) und W ∩
N(β) = {0}.
Es ist klar, dass alle bi mit αi = 0 in N(β) liegen. Umgekehrt, sei v = ∑i vi bi ∈ N(β). Aus 0 =
β(bi , v) = αi vi folgt vi = 0 für alle i mit αi 6= 0, also v ∈ spanK (bi |αi = 0).
(iv) Sei B eine Basis von K 2 , so dass
MB = diag(α1 , α2 )
gilt. Wir können dann auch b1 + b2 zu einer Basis B 0 von K 2 ergänzen, in der MB 0 diagonal ist, also
von der Form ist
MB 0 = diag(α1 + α2 ,t)
mit einem t ∈ K. Die beiden Matrizen MB 0 und MB sind kongruent; die Determinanten der beiden
Matrizen müssen sich um ein Quadrat in K × unterscheiden; also existiert λ ∈ K × mit
(α1 + α2 )t = det MB 0 = λ2 det MB = λ2 α1 α2 .
Wegen α1 + α2 6= 0 finden wir
t=
λ
α1 + α2
2
α1 α2 (α1 + α2 )
Da wir einen quadratischen Faktor bei einem Diagonalelement einer Diagonalmatrix streichen
können, ohne die Kongruenzklasse zu ändern, finden wir, dass
λ
diag(α1 , α2 ) ∼ MB 0 = diag(α1 + α2 ,
α1 + α2
2
α1 α2 (α1 + α2 ))
∼ diag(α1 + α2 , α1 α2 (α1 + α2 ))
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben
werden in der Übungsgruppe am Montag, dem 16. Juni, abgegeben.
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
4,
5,
5,
6,
7,
8,
8,
9,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
1:
1:
2:
1:
1:
1:
2:
1:
[’Falsch’]
[’Falsch’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
2,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
3,
4,
4,
5,
5,
6,
6,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
2:
1:
2:
1:
2:
1:
2:
[’1’]
[’0’]
[’1’]
[’2’]
[’1’]
[’1’]
[’9’]
[’3’]
[’3’]
[’-3’]
[’9’]
[’-36’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
3,
3,
3,
3,
3,
3,
3,
3,
3,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
2,
2,
3,
4,
5,
5,
6,
7,
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
1:
2:
1:
1:
1:
2:
1:
1:
[’Ja’]
[’Ja’]
[’Ja’]
[’Nein’]
[’Ja’]
[’Nein’]
[’Nein’]
[’Ja’]
[’Ja’]
Übungsblatt 10
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 23.06.2008, 17:02 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
23.06.2008, 08:00 Uhr.
11
Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktio- Wahr / Falsch
nen auf dem offenen Intervall (−1, 1). Sei
s:
V ×V → R
s( f , g) = ( f g)0 (0)
Dann ist s eine alternierende Bilinearform auf V .
Lösung:
Falsch. s( f , g) ist offensichtlich symmetrisch bezüglich f und g.
Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktio- Wahr / Falsch
nen auf dem offenen Intervall (−1, 1). Sei
s:
V ×V → R
s( f , g) = ( f g)0 (0)
Dann ist s eine symmetrische Bilinearform auf V .
Lösung:
Wahr. Man sieht leicht, dass s linear und symmetrisch in beiden Argumenten ist.
2
Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktio- Wahr / Falsch
nen auf dem offenen Intervall (−1, 1). Sei
s:
V ×V → R
s( f , g) = ( f g)0 (0)
Der Nullraum von s enthält die Funktionen, die am Punkt x = 0 verschwinden
und dort einen Wendepunkt haben.
Lösung:
Falsch. Der Nullraum von s besteht aus all den Funktionen, die zusammen mit
ihrer ersten Ableitung bei x = 0 verschwinden. An einem Wendepunkt muss aber
nur die zweite Ableitung verschwinden.
Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktio- Wahr / Falsch
nen auf dem offenen Intervall (−1, 1). Sei
s:
V ×V → R
s( f , g) = ( f g)0 (0)
Der Nullraum von s enthält die Funktionen, die am Punkt x = 0 verschwinden
und dort ein Maximum haben.
Lösung:
Wahr. Der Nullraum von s besteht aus all den Funktionen, die zusammen mit
ihrer ersten Ableitung bei x = 0 verschwinden. Letzteres ist der Fall, wenn die
Funktion bei x = 0 ein Extremum (Maximum oder Minimum) oder einen Wendepunkt mit horizontaler Tangente hat.
3
Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktio- Wahr / Falsch
nen auf dem offenen Intervall (−1, 1). Sei
s:
V ×V → R
s( f , g) = ( f g)0 (0)
Im Nullraum von s liegen genau die Funktionen, die am Punkt x = 0 verschwinden und ein Extremum haben.
Lösung:
Falsch. Der Nullraum von s besteht aus all den Funktionen, die zusammen mit
ihrer ersten Ableitung bei x = 0 verschwinden. Letzteres ist der Fall, wenn die
Funktion bei x = 0 ein Extremum (Maximum oder Minimum) oder aber einen
Wendepunkt mit horizontaler Tangente hat. Es gibt also Funktionen im Nullraum, die kein Extremum bei x = 0 haben.
4
Sei V ein reeller Vektorraum und β eine symmetrische Bilinearform auf V . Sei Wahr / Falsch
B = (b1 , b2 , . . . , bn ) eine Basis von V , für die β(bi , b j ) > 0 gilt. Dann ist β positiv
definit.
Lösung:
Falsch. Gegenbeispiel: Mit (βi j ) =
5
1 2
2 1
!
und v = e1 − e2 ist β(v, v) = −2.
Sei V ein reeller Vektorraum und β eine symmetrische Bilinearform auf V . Sei Wahr / Falsch
B = (b1 , b2 , . . . , bn ) eine Basis von V , für die β(bi , b j ) ≥ 0 gilt. Dann ist β positiv
semidefinit.
Lösung:
Falsch. Gegenbeispiel: Mit (βi j ) =
1 2
2 1
!
und v = e1 − e2 ist β(v, v) = −2.
6
Sei V ein reeller Vektorraum und β eine symmetrische Bilinearform auf V . Sei Wahr / Falsch
B = (b1 , b2 , . . . , bn ) eine Basis von V , für die β(bi , b j ) = αi δi, j gilt. Ist αi ≥ 0 für
i = 1, . . . , n, so ist β positiv semidefinit.
Lösung:
Wahr. Für einen beliebigen Vektor v = ∑ v j b j erhält man β(v, v) =
j
∑ v j vk β(b j , bk ) = ∑ α j v2j ≥ 0.
j,k
7
j
Sei V ein reeller Vektorraum.
Es gibt eine positiv definite Bilinearform β und eine Basis B = (b1 , b2 , . . . , bn ),
so dass
β(bi , b j ) < 0 für i 6= j
Wahr / Falsch
gilt.
Lösung: Wahr. Zum Beispiel die Bilinearform auf R2 , die durch die Matrix
!
1 − 12
− 12
1
gegeben ist. Es gilt
1
1
1
q(x1 b1 + x2 b2 ) = (x1 )2 − x1 x2 + (x2 )2 = (x1 − x2 )2 + (x1 )2 + (x2 )2 ≥ 0 ,
2
2
2
so dass diese Form positiv definit ist.
8
Sei V ein reeller Vektorraum.
Es gibt eine positiv definite Bilinearform β und eine Basis B = (b1 , b2 , . . . , bn ),
so dass
β(bi , bi ) < 0 füralle i = 1, . . . , n
Wahr / Falsch
gilt.
21
Sei V ein euklidischer Vektorraum, der nicht unbedingt endlich-dimensional ist. Wahr / Falsch
Dann gilt für jedes Paar U1 ,U2 von Untervektorräumen von V
(U1 +U2 )⊥ = U1⊥ ∩U2⊥ .
Lösung:
Wahr. Sei v ∈ (U1 +U2 )⊥ . Da Ui ⊆ U1 +U2 steht v insbesondere auf allen Vektoren aus Ui senkrecht, also liegt v in U1⊥ ∩U2⊥ .
Umgekehrt sei v ∈ U1⊥ ∩U2⊥ . Jeder Vektor u ∈ U1 +U2 schreibt sich - möglicherweise nicht eindeutig - in der Form u = u1 +u2 mit ui ∈ Ui . Da v senkrecht auf U1
und U2 steht, folgt hu1 , vi = 0 und hu2 , vi = 0, zusammen also hu1 + u2 , vi = 0.
2
Sei V ein euklidischer Vektorraum, der nicht unbedingt endlich-dimensional ist. Wahr / Falsch
Dann gilt für jedes Paar U1 ,U2 von Untervektorräumen von V
U1⊥ +U2⊥ ⊆ (U1 ∩U2 )⊥ .
Lösung:
Ein Vektor in U1⊥ +U2⊥ schreibt sich als u1 + u2 mit ui ∈ Ui⊥ . Ist v ∈ U1 ∩U2 , so
folgt hu1 + u2 , vi = hu1 , vi + hu1 , vi = 0 + 0 = 0, da zum ersten v ∈ U1 und zum
zweiten v ∈ U2 gilt.
Sei V ein endlich-dimensionaler euklidischer Vektorraum. Dann gilt für jedes
Paar U1 ,U2 von Untervektorräumen von V
Wahr / Falsch
U1⊥ +U2⊥ = (U1 ∩U2 )⊥ .
Lösung:
Wahr.
⊥ ⊥ ⊥
⊥ ⊥
⊥ ⊥
⊥
⊥
(U1 ∩U2 ) = (U1 ) ∩ (U2 )
=
U1 +U2
= U1⊥ +U2⊥ .
⊥
Hier haben wir die oben gezeigte Gleichung (U1 +U2 )⊥ = U1⊥ ∩U2⊥ verwendet,
sowie die für endliche Vektorräume U gültige Identität (U ⊥ )⊥ = U.
3
Die Matrix


2
3 6
1

 3 −6 2 
7
6
2 3
in M(3 × 3, R) liegt in SO(3).
Lösung:
Falsch. Eine Matrix A ∈ M(n × n, R) ist genau dann orthogonal, wenn ihre Spaltenvektoren eine Orthonormalbasis von Rn bilden. Gleichermaßen gilt: eine Matrix A ∈ M(n × n, R) ist genau dann orthogonal, wenn ihre Zeilenvektoren eine
Orthonormalbasis von Rn bilden. Denn AAt = En ist äquivalent zu
n
δi j =
n
∑ aik atk j =
∑ aik a jk .
k=1
k=1
Hier bilden die Spaltenvektoren der Matrix keine Orthonormalbasis (Skalarprodukt von erstem und drittem Vektor ist z.B. nichtverschwindend). Die Determinante ist auch nicht gleich 1.
Wahr / Falsch
4
Die Matrix
Wahr / Falsch


20 0 −15
1 

 −9 20 −12 
25
12 15
16
in M(3 × 3, R) liegt in SO(3).
Lösung:
Wahr. Die Spaltenvektoren bilden ein Orthonormalsystem. Die Determinante der
Matrix ist gleich 1.
3
Gegeben sei die Matrix


2 0 −2


A= 0 3
0 
−2 0 −1
in M(3 × 3, R).
1
Es gibt einen Wert t ∈ R, so dass
Bt = (t, 0, 2)t , (0,t, 0)t , (2, 0, −t)t
Wahr / Falsch
aus Eigenvektoren von A besteht.
2
Lösung:
Wahr. t = 1.
Die Signatur der durch A beschriebenen symmetrischen Bilinearform ist −1.
Wahr / Falsch
3
Lösung:
Falsch. Die Eigenwerte von A sind −2 und zweimal 3. Die Signatur ist also
2 − 1 = +1.
Gibt es eine Matrix S ∈ GL(3, R), so dass St AS Diagonalgestalt hat?
Wahr / Falsch
Lösung:
Wahr.
Wenn wir die Eigenvektoren von A normieren, so erhalten wir eine Orthonormalbasis des R3 , nämlich
1
t
t 1
t
B = √ (1, 0, 2) , (0, 1, 0) , √ (2, 0, −1) .
3
3
Die Matrix S mit diesen Vektoren als Spaltenvektoren beschreibt den Basiswechsel auf die Eigenbasis in der A Diagonalgestalt D hat: D = S−1 AS. Da es sich um
eine Orthonormalbasis handelt, liegt diese Matrix in O(3) ⊂ GL(n). Also ist
St S = En , bzw. S−1 = St und somit D = St AS.
Durch etwaiges Vertauschen der Reihenfolge zweier Basisvektoren können wir
erreichen, dass die Determinante des Basiswechsels gleich 1 ist, so dass die Basiswechselmatrix sogar in SO(3) liegt.
4
Gibt es eine Matrix S ∈ O(3, R), so dass St AS Diagonalgestalt hat?
Wahr / Falsch
5
Gibt es eine Matrix S ∈ SO(3, R), so dass St AS Diagonalgestalt hat?
Wahr / Falsch
4
Wie in der Vorlesung betrachten wir auf R3 die Minkowski-Form
Q(x) = (x1 )2 + (x2 )2 − (x3 )2
mit zugehöriger Bilinearform B. Sie definiert den Doppelkegel C := Q−1 (0). Sei p ∈ R3 und E = p + E0
eine affine Ebene, also E0 ein zwei-dimensionaler Untervektorraum von R3 . Mit q = Q|E0 bezeichnen wir
die Einschränkung der Minkowski-Form auf E0 . Sie liefert eine quadratische Form auf E0 .
1
2
Der Kegelschnitt C ∩ E ist genau dann kompakt, wenn die quadratische Form q
auf E0 positiv definit ist.
Wahr / Falsch
Ist die Ebene sogar ein Untervektorraum, also E = E0 , so ist auch der Kegel- Wahr / Falsch
schnitt C ∩ E ein Untervektorraum.
Lösung:
Gegenbeispiel: im indefiniten Fall tritt ein Geradenkreuz auf.
3
Ist die Ebene sogar ein Untervektorraum, also E = E0 , so ist auch der Kegel- Wahr / Falsch
schnitt C ∩ E abgeschlossen unter skalarer Multiplikation: mit x ∈ C ∩ E gilt für
jedes λ ∈ R auch λx ∈ C ∩ E.
Lösung: Außer im indefiniten Fall treten Untervektorräume auf. Im indefiniten
Fall ist das Geradenkreuz unter solchen Reskalierungen invariant.
4
Wenn die quadratische Form q auf E0 positiv semidefinit ist, so ist der Kegel- Wahr / Falsch
schnitt C ∩ E zusammenhängend.
Lösung: Außer der Hyperbel, die im indefiniten Fall auftritt, sind alle Kegelschnitte zusammenhängend.
5
Die folgende Untermenge von R2 ist eine Ellipse:
Wahr / Falsch
M := {x ∈ R2 | x1 = a cos(φ) x2 = b sin φ mit a, b 6= 0, φ ∈ [0, 2π)} .
Lösung: Wahr. Betrachte die positiv-definite quadratische Form
q(x) =
1
1
(x1 )2 + 2 (x2 )2 .
2
a
b
Dann ist M = q−1 (1).
6
Die folgende Untermenge von R2 ist eine Hyperbel:
M := {x ∈ R2 | x1 = a cosh(φ) x2 = b sinh φ mit a, b 6= 0, φ ∈ R} .
Lösung: Wohl liegt M im Urbild der Eins unter der negativ-definiten quadratischen Form
1
1
q(x) = 2 (x1 )2 − 2 (x2 )2 .
a
b
Aber dieses Urbild hat zwei Zusammenhangskomponenten, und M parametrisiert nur den Ast der Hyperbel mit sign(x1 ) = sign(a).
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
Wahr / Falsch
5
(5 Punkte)
Sei K ein Körper, in dem 1 + 1 6= 0 gilt, und V ein K-Vektorraum. Zeigen Sie, dass man jede Bilinearform
β auf V als Summe einer symmetrischen und einer alternierenden Bilinearform schreiben kann.
Lösung:
Wir definieren die symmetrische Bilinearform
1
β+ (v, w) := (β(v, w) + β(w, v))
2
und die alternierende Bilinearform
1
β− (v, w) := (β(v, w) − β(w, v)) .
2
Offensichtlich ist β(v, w) = β+ (v, w) + β− (v, w).
6
(5 Punkte)
Bezeichne × das Vektorprodukt auf R3 . Zeigen Sie, dass dann für alle A ∈ O(3) die folgende Gleichheit
gilt:
Av × Aw = det(A) · A(v × w)
Lösung:
Sei x ∈ R3 beliebig.
Da A orthogonal ist, folgt
hAx, A(v × w)i = hx, v × wi .
Andererseits ist bekanntermaßen h·, · × ·i eine alternierende Multilinearform auf V mit dimV = 3, also
findet man nach Aufgabe 8 von Blatt 4
hAx, Av × Awi = det(A)hx, v × wi
Da A als Element von O(3) invertierbar ist, gilt für alle y ∈ R3
hy, Av × Awi = det(A)hA−1 y, v × wi = hy, (det A)A(v × w)i.
Dies gilt für alle y ∈ R3 ; da h·, ·i nicht ausgeartet ist, folgt Av × Aw = det(A) · A(v × w).
7
(10 Punkte)
Zeigen Sie:
Ist β ∈ Bil(V,V ) eine nicht-ausgeartete Bilinearform mit der Eigenschaft
∀ x, y ∈ V : (β(x, y) = 0) ⇔ (β(y, x) = 0) ,
dann ist β entweder symmetrisch, d.h.
∀ x, y ∈ V : β(x, y) = β(y, x) ,
oder aber schiefsymmetrisch, d.h.
∀ x, y ∈ V : β(x, y) = −β(y, x) .
Hinweis: Verwenden Sie Satz 5.2.9 aus der Vorlesung.
Lösung:
Satz 5.2.9 impliziert, dass es für jede nicht-ausgeartete Bilinearform β einen Endomorphismus f : V → V
gibt, so dass
β(y, x) = β( f (x), y) .
Wähle nun ein beliebiges x 6= 0 aus V . Sei M = span(x) der zugehörige eindimensionale Vektorraum. Die
Menge der dazu orthogonalen Vektoren ist M ⊥ = {y ∈ V |β(x, y) = 0}.
Wegen der vorausgesetzten Verschwindenseigenschaft von β folgt, dass
∀ y ∈ M ⊥ : 0 = β(y, x) = β( f (x), y) ,
also f (x) ∈ (M ⊥ )⊥ . Da ebenfalls wegen der Verschwindungseigenschaft von β das orthogonale Rechtskomplement und das orthogonale Linkskomplement identisch sind, folgt mit β nicht entartet, dass f (x) ∈
span(x).
Daher muss x also Eigenvektor von f sein. Da aber x ∈ V beliebig war, kann f nur ein Vielfaches der
Identität sein,
f = λidV .
Aus β(x, y) = β( f (y), x) = β( f (x), f (y)) = λ2 β(x, y) für alle x, y ∈ V folgt schließlich λ = ±1.
i) (5 Punkte) Sei β : Rn × Rn → R eine symmetrische Bilinearform. Sei B die darstellende Matrix von
β in der Standardbasis von Rn . Seien v1 und v2 Eigenvektoren von B zu verschiedenen Eigenwerten
λ1 und λ2 . Zeigen Sie, dass dann v1 und v2 orthogonal bezüglich β sind, also β(v1 , v2 ) = 0.
8
Wir betrachten nun die symmetrische Bilinearform
β : R4 × R4 → R
mit
β(a, b) := 3a1 b2 + 3a2 b1 − 2a1 b3 − 2a3 b1 + 2a2 b4 + 2a4 b2 − 3a3 b4 − 3a4 b3
für a = (a1 , a2 , a3 , a4 ) ∈ R4 und b = (b1 , b2 , b3 , b4 ) ∈ R4 .
ii) (5 Punkte) Geben Sie die darstellende Matrix von β in der Standardbasis an und bestimmen Sie ihre
Eigenvektoren.
iii) (5 Punkte) Finden Sie mit i) und ii) eine Basis B des R4 , so dass MB (β) eine Diagonalmatrix ist,
deren Diagonalelemente in {±1, 0} liegen.
9
Sei
1√
2, cos x, sin x, cos(2x), sin(2x) · · ·)
2
und W der von B aufgespannte Untervektorraum im Vektorraum V der stetigen reellwertigen Funktionen
auf dem abgeschlossenen Interval [0, 2π].
Zeigen Sie:
B := (
(i) (5 Punkte) V wird durch
1
h f , gi =
π
Z 2π
f (x)g(x)dx
0
zu einem euklidischen Vektorraum.
(ii) (5 Punkte) B ist ein Orthonormalsystem.
(iii) (5 Punkte) Ist
n
a0 √
2 + ∑ ak cos(kx) + bk sin(kx) ,
f=
2
k=1
so gilt
ak = h f , cos(kx)i , bk = h f , sin(kx)i
(iv) (5 Punkte) Für f ∈ V heißen die durch die Skalarprodukte definierten Zahlen ak , bk aus (iii) die
Fourierkoeffizienten von f . Zeigen Sie, dass für alle f ∈ V die sogenannte Besselsche Ungleichung
gilt:
2
|| f ||
≥ a20 +
∞
∑ (a2k + b2k ) .
k=1
Hinweis: Betrachten Sie alle Partialsummen dieser Reihe.
10 Lösung zu Aufgabe 8
i) Es gilt
β(v1 , v2 ) = vt1 Bv2 = λ2 vt1 v2
und weil B symmetrisch ist
β(v1 , v2 ) = vt1 Bv2 = vt1 Bt v2 = (Bv1 )t v2 = λ1 vt1 v2
Wegen λ1 6= λ2 folgt vt1 v2 = 0 und β(v1 , v2 ) = 0. Man sieht, dass diese Eigenvektoren auch bezüglich
des Standard-Skalarprodukts orthogonal sind.
ii) In der Standardbasis ist die darstellende Matrix Bi j = β(ei , e j ) der angegebenen Bilinearform gleich





0
3
−2
0
3 −2 0
0 0
2
0 0 −3
2 −3 0



.

Die Eigenräume dieser Matrix sind






Eig(B, −5) = spanR v1 := 








Eig(B, 5) = spanR v2 := 








Eig(B, −1) = spanR v3 := 








Eig(B, 1) = spanR v4 := 


1
−1
1
1

1
1
−1
1

−1
1
1
1














−1
−1
−1
1


 .

iii) Da die vi Eigenvektoren von B sind, gilt
β(vi , vi ) = vti Bvi = λi vti vi .
Aus (i) folgt, dass β(vi , v j ) = 0 für i 6= j. Also ist
1
1
2 5
2 5
1
2
1
2
B := ( √ v1 , √ v2 , v3 , v4 )
eine Basis mit MB (β) = diag(−1, +1, −1, +1)
11 Lösung zu Aufgabe 9:
i) Die angegebene Abbildung h·, ·i ist sicherlich bilinear, symmetrisch und positiv definit, also ein
euklidisches Skalarprodukt.
ii) Aus den Additionstheoremen für die Sinus- und Kosinusfunktion folgen die Identitäten
cos(kx) cos(k0 x) =
1
cos((k + k0 )x) + cos((k − k0 )x) ,
2
sin(kx) sin(k0 x) =
1
cos((k − k0 )x) − cos((k + k0 )x)
2
und
1
sin((k + k0 )x) − sin((k − k0 )x) .
2
Unter Verwendung dieser Gleichungen, sowie der bestimmten Integrale
cos(kx) sin(k0 x) =
1
2π
Z2π
cos(kx) dx =
0
(
0 für k 6= 0
und
1 für k = 0
1
2π
Z2π
sin(kx) dx = 0 für k ∈ N
0
folgt
2π
Z
1
0
cos(kx), cos(k x) =
cos(kx) cos(k0 x) dx
π
0
1
=
2π
Z2π
cos((k + k0 )x) + cos((k − k0 )x) dx
0
= δk,k0
und analog hsin(kx), sin(k0 x)i = δk,k0 , sowie hsin(kx), cos(k0 x)i = 0.
Demnach ist B ein Orthonormalsystem.
iii) Folgt wegen Lemma 5.5.9 der Vorlesung direkt aus der Orthonormalität von B .
iv) Wir bezeichnen die Elemente des Orthonormalsystems mit φ j und die Komponenten von f mit c j =
h f , φ j i. Wir zerlegen f in seine orthogonale Projektion u auf den von φ j aufgespannten Unterraum
U und die Projektion v = f − u auf U ⊥ , also
n
n
u = f − ∑ c jφ j ,
v=
j=0
∑ c jφ j
.
j=0
so dass u + v = f . Aus dem Satz von Pythagoras, k f k2 = ha + b, a + bi = kak2 + kbk2 , folgt nun für
alle Partialsummen die Abschätzung
l
|| f ||2 ≥ a20 + ∑ (a2k + b2k ) .
k=1
Da die Folge der Partialsummen ∑lk=1 (a2k + b2k ) ist also nach oben beschränkt und offensichtlich
monoton wachsen, also konvergent. Ihr limes, der Wert der Reihe, ist also nach oben beschränkt.
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben
werden in der Übungsgruppe am Montag, dem 23. Juni, abgegeben.
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
1,
2,
2,
3,
4,
5,
6,
7,
8,
Var
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
2:
1:
2:
1:
1:
1:
1:
1:
1:
[’Falsch’]
[’Wahr’]
[’Falsch’]
[’Wahr’]
[’Falsch’]
[’Falsch’]
[’Falsch’]
[’Wahr’]
[’Wahr’]
[’Falsch’]
Ex
Ex
Ex
Ex
Ex
2,
2,
2,
2,
2,
Qu
Qu
Qu
Qu
Qu
1,
2,
2,
3,
4,
Var
Var
Var
Var
Var
1:
1:
2:
1:
1:
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Falsch’]
[’Wahr’]
Ex
Ex
Ex
Ex
Ex
3,
3,
3,
3,
3,
Qu
Qu
Qu
Qu
Qu
1,
2,
3,
4,
5,
Var
Var
Var
Var
Var
1:
1:
1:
1:
1:
[’Wahr’]
[’Falsch’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
Ex
Ex
Ex
Ex
Ex
Ex
4,
4,
4,
4,
4,
4,
Qu
Qu
Qu
Qu
Qu
Qu
1,
2,
3,
4,
5,
6,
Var
Var
Var
Var
Var
Var
1:
1:
1:
1:
1:
1:
[’Wahr’]
[’Falsch’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Falsch’]
Übungsblatt 11
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 09.07.2008, 14:46 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
30.06.2008, 08:00 Uhr.
11
Gehört die Matrix
1
√
2
√
3
2 √i
− 12 − 23 i
1
2
1
2
1
2
+
√
− √23 i
−
!
Ja / Nein
3
2 i
zur Gruppe U(2)?
Lösung:
Ja. Das Matrixprodukt mit der adjungierten Matrix ergibt die Einheitsmatrix.
Gehört die Matrix
√
√
!
3
3
1
1
+
i
−
i
2
2√
2
√2
− 12 −
3
2 i
1
2
−
Ja / Nein
3
2 i
zur Gruppe U(2)?
Lösung:
Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix, sondern ein Vielfaches der Einheitsmatrix.
Gehört die Matrix
√
√
!
3
3
1
1
+
i
−
i
1
2
2√
2
√2
2 − 12 − 23 i 21 − 23 i
Ja / Nein
zur Gruppe U(2)?
Lösung:
Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix, sondern ein Vielfaches der Einheitsmatrix.
2
Gehört die Matrix
1
√
2
√
+ 23√i
− 12 − 23 i
1
2
1
2
1
2
−
−
√
3
i
√2
3
2 i
!
Ja / Nein
zur Gruppe SU(2)?
Lösung:
Ja. Das Matrixprodukt mit der adjungierten Matrix ergibt die Einheitsmatrix,
und die Determinante ist gleich 1.
Gehört die Matrix
√
√
!
3
3
1
1
+
i
−
i
1
2
2√
2
√2
(1 + i) − 21 − 23 i 21 − 23 i
zur Gruppe SU(2)?
Lösung:
Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix, sondern ein Vielfaches der Einheitsmatrix.
Ja / Nein
Gehört die Matrix
√
+ 23√i
− 12 − 23 i
1
2
1
2
1
2
−
−
√
3
i
√2
3
2 i
!
Ja / Nein
zur Gruppe SU(2)?
Lösung:
Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix, sondern ein Vielfaches der Einheitsmatrix.
Ja / Nein
3
Gibt es unitäre Matrizen, die auch nilpotent sind?
4
Lösung:
Nein. Unitäre Matrizen haben eine Determinante vom Betrag 1. Nilpotente Matrizen aber haben immer verschwindende Determinante.
Ja / Nein
Gibt es orthogonale Matrizen, die auch nilpotent sind?
5
Lösung:
Nein. Orthogonale Matrizen haben Determinante ±1. Nilpotente Matrizen aber
haben immer verschwindende Determinante.
Gibt es in U(n), für n ≥ 2, unendlich viele selbstadjungierte Matrizen?
Ja / Nein
Lösung:
Ja. Z.B. gibt es in M(2 × 2, C) mit den Spiegelungsmatrizen Sθ schon unendlich viele symmetrische Matrizen (mit Determinante −1), die zur Einheitsmatrix
quadrieren, für die also gilt (Sθ )∗ Sθ = (Sθ )2 = Id.
Allgemeiner setze
!
1
0
SU = U ∗
U
0 −1
für U eine beliebige unitäre Matrix. SU ist selbstadjungiert und unitär.
6
Gibt es in SU(2) unendlich viele selbstadjungierte Matrizen?
Ja / Nein
Lösung:
Nein.
Sei A ∈ SU(2) selbstadjungiert. Nach Satz 5.6.9 gibt es eine Orthonormalbasis in
der A Diagonalgestalt M hat, mit rellen Werten auf der Diagonalen. Wegen Id =
M ∗ M = M 2 sind die Einträge auf der Diagonalen gleich ±1. Wegen det(A) = 1
ist müssen beide Einträge gleich 1 oder beide gleich −1 sein, also M = ±Id.
Wenn S die Matrix des Basiswechsels ist, so gilt also auch A = S−1 MS = ±Id.
Es gibt also nur zwei selbstadjungierte Matrizen in SU(2).
7
Ist die folgende Aussage wahr?
Ja / Nein
Eine Matrix A ∈ M(n × n, R) ist genau dann orthogonal, wenn ihre Spaltenvektoren eine Orthonormalbasis von Rn bezüglich des Standard-Skalarprodukts bilden.
Ist die folgende Aussage wahr?
Ja / Nein
Eine Matrix A ∈ M(n × n, R) ist genau dann orthogonal, wenn ihre Zeilenvektoren eine Orthonormalbasis von Rn bezüglich des Standard-Skalarprodukts bilden.
8
Ist die folgende Aussage wahr?
Eine Matrix A ∈ M(n × n, R) liegt genau dann in SO(n), wenn ihre Spaltenvektoren eine Orthonormalbasis von Rn bezüglich des Standard-Skalarprodukts
bilden.
Lösung:
Gegenbeispiel:
!
1
0
.
0 −1
Ja / Nein
Ist die folgende Aussage wahr?
Ja / Nein
Eine Matrix A ∈ M(n × n, R) liegt genau dann in SO(n), wenn ihre Zeilenvektoren eine Orthonormalbasis von Rn bezüglich des Standard-Skalarprodukts bilden.
Lösung:
Gegenbeispiel:
!
1
0
.
0 −1
9
10
21
Ist die folgende Aussage wahr?
Ja / Nein
Eine Matrix A ∈ M(n × n, C) liegt genau dann in U(n), wenn ihre Spaltenvektoren eine Orthonormalbasis von Cn bezüglich des komplexen StandardSkalarprodukts bilden.
Ist die folgende Aussage wahr?
Ja / Nein
Eine Matrix A ∈ M(n × n, C) liegt genau dann in U(n), wenn ihre Zeilenvektoren eine Orthonormalbasis von Cn bezüglich des komplexen StandardSkalarprodukts bilden.
Ist die folgende Aussage wahr?
Ja / Nein
Eine Matrix A ∈ M(n × n, C) liegt genau dann in SU(n), wenn ihre Spaltenvektoren eine Orthonormalbasis von Cn bezüglich des komplexen StandardSkalarprodukts bilden.
Ist die folgende Aussage wahr?
Ja / Nein
Eine Matrix A ∈ M(n × n, C) liegt genau dann in SU(n), wenn die Zeilenvektoren eine Orthonormalbasis von Cn bezüglich des komplexen StandardSkalarprodukts bilden.
Sei V ein unitärer Vektorraum. Ist ein Endomorphismus ϕ ∈ End(V ) selbstad- Wahr / Falsch
jungiert und nilpotent, so gilt ϕ = 0.
Lösung:
Wahr. Wir wissen, dass es eine Orthonormalbasis gibt, in der die darstellende
Matrix von ϕ Diagonalgestalt hat mit den Eigenwerten auf der Diagonalen. Auch
die darstellende Matrix ist natürlich nilpotent, es folgt, dass alle Eigenwerte Null
sind, damit ist die darstellende Matrix die Nullmatrix.
2
Sei V ein unitärer Vektorraum. Seien die Endomorphismen ϕ, ψ ∈ End(V ) selbst- Wahr / Falsch
adjungiert. Dann ist auch ϕ ◦ ψ selbstadjungiert.
Lösung:
Falsch. Nur wenn ϕ und ψ vertauschen, denn (ϕ ◦ ψ)∗ = ψ∗ ◦ ϕ∗ = ψ ◦ ϕ.
3
Sei V ein unitärer Vektorraum. Seien die Endomorphismen ϕ, ψ ∈ End(V ) unitär. Wahr / Falsch
Dann ist auch ϕ ◦ ψ−1 unitär.
Lösung:
Wahr. Die unitären Matrizen bilden eine Gruppe. Explizit: Aus ϕ∗ = ϕ−1 und
ψ∗ = ψ−1 folgt
(ϕ ◦ ψ−1 )∗ = ψ∗−1 ◦ ϕ∗ = ψ ◦ ϕ−1 = (ϕ ◦ ψ−1 )−1 .
4
Sei V ein unitärer Vektorraum. Seien die Endomorphismen ϕ, ψ ∈ End(V ) selbst- Wahr / Falsch
adjungiert und gelte ψ ◦ ϕ = ϕ ◦ ψ. Dann ist auch ϕ ◦ ψ selbstadjungiert.
Lösung:
Wahr. Denn
(ϕ ◦ ψ)∗ = ψ∗ ◦ ϕ∗ = ψ ◦ ϕ = ϕ ◦ ψ .
31
Die Eigenwerte eines selbstadjungierten Endomorphismus eines unitären Vektorraum sind immer reell.
Wahr / Falsch
Lösung:
Wahr. Denn wenn ϕ selbstadjungiert und v ein normierter Eigenvektor zum Eigenwert λ ist, dann folgt
λ = hϕ(v), vi = hv, ϕ(v)i
¯.
= λ
2
Die Eigenwerte eines orthogonalen Endomorphismus sind immer gleich +1 oder
gleich −1.
Wahr / Falsch
Lösung:
Wahr. Denn wenn ϕ orthogonal und v ein normierter Eigenvektor zum Eigenwert
λ ist, dann folgt
λ2 = hϕ(v), ϕ(v)i = hv, vi
= 1.
3
Die Eigenwerte eines unitären Endomorphismus haben immer den Betrag 1.
Lösung:
Wahr. Denn wenn ϕ unitär und v ein normierter Eigenvektor zum Eigenwert λ
ist, dann folgt
|λ|2 = hϕ(v), ϕ(v)i = hv, vi
= 1.
Wahr / Falsch
4
Eigenvektoren unitärer Matrizen zu verschiedenen Eigenwerten sind immer orthogonal zueinander.
Wahr / Falsch
Lösung:
Wahr. Denn seien v und w Eigenvektoren des unitären Endomorphismus ϕ zu
den Eigenwerten λ und ρ. Dann gilt
(λ − ρ)hv, wi = hϕ(v), wi − hv, ϕ−1 (w)i = 0 .
Hierbei haben wir verwendet, dass (ϕ(w) = ρw) ⇒ (ϕ−1 (w) = ρ−1 w = ρ̄w), da
Eigenwerte unitärer Endomorphismen immer den Betrag 1 haben.
5
Jedes Element in SO(2n) (für alle 1 ≤ n ∈ N) hat mindestens einen Eigenwert.
Wahr / Falsch
Lösung:
Falsch. Jede nichtriviale Drehmatrix in SO(2) hat keinen (reellen) Eigenwert.
6
Sei β ∈ Bil(V,V ) eine (möglicherweise ausgeartete) Bilinearform auf V und sei
ϕ ∈ End(V ) orthogonal bezüglich β.
Dann ist ϕ injektiv.
Wahr / Falsch
Lösung:
Falsch. Wenn β ausgeartet ist folgt dies nicht. Sei z.B. β die triviale Bilinearform, die immer den Wert Null annimmt. Dann sind alle Endomorphismen von
V orthogonal bezüglich β.
7
Sei β ∈ Bil(V,V ) eine nicht ausgeartete Bilinearform auf V und sei ϕ ∈ End(V ) Wahr / Falsch
orthogonal bezüglich β.
Dann ist ϕ injektiv.
Lösung:
Wahr. Angenommen es gibt 0 6= v ∈ ker(ϕ), so gilt für alle w ∈ W β(ϕ(v), w) = 0.
Andererseits gibt es, da β nicht entartet sein soll, ein w0 ∈ W mit
0 6= β(v, w0 ) = β(ϕ(v), ϕ(w0 )) ,
was ein Widerspruch ist.
8
Sei ϕ ein orthogonaler Endomorphismus von V = Rn , versehen mit dem Stan- Wahr / Falsch
dardskalarprodukt. Wir können ϕ auch als Endomorphismus von Cn auffassen.
Dann ist ϕ unitär bezüglich des Standardskalarproduktes auf Cn .
Lösung:
Wahr. Wähle z.B. die Standardbasis von Rn . ϕ wird in dieser durch eine reelle
Matrix M dargestellt, für die gilt Mt M = En .
Auch als Endomorphismus von Cn wird ϕ durch die Matrix M dargestellt, die
wir nun als eine Matrix in M(n × n, C) auffassen, deren Einträge alle reell sind.
Diese hat also die spezielle Eigenschaft M̄ = M. Es folgt, dass
M ∗ M = (M̄)t M = Mt M = En .
4
1
2
Sei (V, h·, ·i) ein euklidischer und (W, h·, ·i) ein unitärer Vektorraum. Ein Endomorphismus ϕ in End(V )
oder End(W ) heißt anti-selbstadjungiert, wenn hϕ(v), wi = −hv, ϕ(w)i für alle Vektoren v, w.
Wichtig:
Bei manchen Fragen kommt es darauf an, ob die komplexe oder reelle Situation vorliegt. Bitte achten
Sie daher stets darauf, ob sich eine Frage auf V – also auf den reellen Fall – oder auf W – also auf den
komplexen Fall – bezieht.
!
0 −1
Die durch A =
dargestellte Abbildung auf V = R2 ist anti- Wahr / Falsch
1 0
selbstadjungiert.
Lösung:
Wahr. Denn At = −A.
Für dimR (V ) = 2 gibt es immer eine Basis B von V , so dass der antiselbstadjungierte Endomorphismus
ϕ ∈ End(V ) dargestellt wird durch
!
0 −1
MB (ϕ) = λ
mit λ ∈ R.
1 0
Wahr / Falsch
Lösung:
Wahr. Sei B = (e1 , e2 ) eine Orthonormalbasis.
Aus MB (ϕ) jk = he j , ϕ(ek )i = −hϕ(e j ), ek i = −hek , ϕ(e j )i = −MB (ϕ)k j folgt,
dass MB (ϕ) antisymmetrisch ist.
3
4
5
Wenn ϕ ∈ End(V ) anti-selbstadjungiert ist, dann ist für jede Basis B von V die Wahr / Falsch
Matrix MB (ϕ) schiefsymmetrisch.
Wenn ϕ ∈ End(V ) anti-selbstadjungiert ist, dann gilt hϕ(v), vi = 0 für alle v ∈ V . Wahr / Falsch
Wenn ϕ ∈ End(W ) anti-selbstadjungiert ist, dann gilt hϕ(w), wi = 0 für alle w ∈ Wahr / Falsch
W.
Lösung:
Falsch. ϕ = iIdW ist anti-selbstadjungiert.
6
Wenn ϕ ∈ End(W ) anti-selbstadjungiert ist, dann sind alle seine Eigenwerte
gleich 0.
Wahr / Falsch
Lösung:
Falsch. ϕ = i IdW ist anti-selbstadjungiert.
7
Wenn ϕ ∈ End(V ) anti-selbstadjungiert ist, dann sind alle seine Eigenwerte Wahr / Falsch
gleich 0.
Lösung:
Wahr. Sei v normierter Eigenvektor zum Eigenwert λ. Dann folgt λ = hv, ϕ(v)i =
−hϕ(v), vi = −λ. Hier verwenden wir, dass ϕ anti-selbstadjungiert ist, und dass
h·, ·i symmetrisch ist.
Im Komplexen gilt dagegen
¯ = hv, ϕ(v)i = −hϕ(v), vi = −λhv, vi = −λ
λ
Also ist λ rein imaginär.
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
5
(10 Punkte)
Sei V ein endlich-dimensionaler euklidischer Vektorraum und ϕ ∈ End(V ). Ein injektiver Endomorphismus ϕ heißt winkeltreu, wenn für alle Innenwinkel
α(v, w) = α(ϕ(v), ϕ(w))
für alle v, w ∈ V \ {0} gilt.
Zeigen Sie, dass ϕ genau dann winkeltreu ist, wenn es einen orthogonalen Endomorphismus ψ ∈ End(V )
und λ ∈ R \ {0} gibt, so dass ϕ = λψ gilt.
Lösung:
Per definitionem gilt
hv, wi
.
hv, vihw, wi
cos α(v, w) = p
Wenn also ϕ = λψ proportional zu einem orthogonalen Endomorphismus ist, so folgt
hψ(v), ψ(w)i
cos α(ϕ(v), ϕ(w)) = p
= cos α(v, w) .
hψ(v), ψ(v)ihψ(w), ψ(w)i
Für die Rückrichtung betrachte die Abbildung ψ := ϕ∨ ◦ ϕ.
Sei b ein beliebiger Vektor in V \ {0} und u im orthogonalen Komplement von b. Dann gilt auch ϕ(u) ⊥
ϕ(b), also
hψ(b), ui = hϕ(u), ϕ(b)i = 0
Es muss also ψ(b) im von b aufgespannten ein-dimensionalen Unterraum liegen. Somit sind alle Vektoren
von V Eigenvektoren von ψ. Somit ist ψ ein Vielfaches der Identität, ψ = λidV (siehe auch Blatt 8, Aufgabe
5).
Wegen
λ|b|2 = hψ(b), bi = hϕ(b), ϕ(b)i = |ϕ(b)|2
ist λ positiv. Daraus folgt, dass
6
√1 ϕ
λ
orthogonal ist.
(5 Punkte)
Seien A, B ∈ O(n) mit n ungerade. Zeigen Sie, dass dann
det((A + B)(A − B)) = 0
gilt.
Lösung:
Da A invertierbar ist, können wir wie folgt umformen:
det ((A + B)(A − B)) = det A(En + A−1 B) A(En − A−1 B) = (det(A))2 det(En + A−1 B) det(En − A−1 B) .
Aus Satz 5.6.8 der Vorlesung angewandt auf A−1 B ∈ O(n) folgt, dass es, für n ungerade, immer eine Basis
gibt, in der (A−1 B)11 = ±1 ist und sonst in der ersten Spalte und Zeile nur Nullen stehen.
Es folgt entweder det(En + A−1 B) = 0 oder det(En − A−1 B) = 0.
7
Es sei V = R3 , ϕ : V → V linear und B eine Basis von V mit


1 −2 −1


MB (ϕ) = A =  −2
1 −1  .
5
−1 −1
2
(a) (5 Punkte) Ist ϕ diagonalisierbar?
(b) (5 Punkte) Es sei β : V × V → R die Bilinearform auf V mit darstellender Matrix MB (β) = A.
Berechnen Sie eine Orthogonalbasis von V bezüglich β.
(c) (5 Punkte) Bestimmen Sie eine orthogonale Matrix P ∈ O(3), so dass P−1 AP Diagonalgestalt hat.
(d) (5 Punkte) Sei


x
5
 
Qa = { y  ∈ R3 | x2 − 4xy − 2xz + y2 − 2yz + z2 = a}.
2
z
Beschreiben Sie für a = 0 die Geometrie der Menge Qa . Aus wie vielen Zusammenhangskomponenten besteht die Menge Q−1 ?
8
Eine komplexe Struktur auf einem R-Vektorraum V ist ein Endomorphismus J von V mit J 2 = −idV .
Zeigen Sie:
(i) (5 Punkte) Mit der skalaren Multiplikation (x + iy) · v := xv + yJ(v) für x, y ∈ R und v ∈ V wird V zu
einem C-Vektorraum.
(ii) (5 Punkte) Ist V endlich-dimensional, so ist dimR V gerade. Berechnen Sie auch dimC V !
Sei nun überdies ω eine symplektische Bilinearform auf V . Die symplektische Form und die komplexe
Struktur seien verträglich in dem Sinne, dass für alle v, w ∈ V gilt
ω(Jv, Jw) = ω(v, w) .
(iii) (5 Punkte) Zeigen Sie, dass durch
hv, wi := ω(v, Jw)
eine symmetrische Bilinearform auf V definiert wird, und dass J bezüglich dieser symmetrischen
Bilinearform ein orthogonaler Endomorphismus ist, d.h. dass für alle v, w ∈ V gilt hJv, Jwi = hv, wi.
(iv) (5 Punkte) Eine komplexe Struktur J heißt ω-kalibriert, wenn die symmetrische Bilinearform h·, ·i
positiv definit ist. Zeigen Sie, dass in diesem Fall
h(v, w) := hv, wi − iω(v, w)
eine hermitesche Form für die nach Teilaufgabe (i) von J induzierten C-Vektorraum-Struktur auf V
ist.
9
Lösung zu Aufgabe 7:
(a) Wir berechnen die Eigenwerte und Eigenvektoren von ϕ. Wir erhalten die Eigenvektoren
 




2
−1
−1


 


v1 =  2  , v2 =  1  , v3 =  0  ,
1
0
2
zu den Eigenwerten λ1 = − 32 , λ2 = λ3 = 3. Da die Familie (v1 , v2 , v3 ) linear unabhängig ist, ist ϕ
diagonalisierbar
(b) Wir bilden die gesuchte Orthogonalbasis bezüglich β aus der Basis (v1 , v2 , v3 ) von V . Wie wir bereits aus Aufgabe 8 von Blatt 10 wissen, sind Eigenvektoren zu verschiedenen Eigenwerten der
symmetrischen darstellenden Matrix A bezüglich β orthogonal, also ist v1 orthogonal zu v2 und v3 .
Die restlichen Werte der Bilinearform berechnen sich zu
β(v1 , v1 ) = (v1 )t Av1 = −
27
,
2
β(v2 , v2 ) = 6,
β(v2 , v3 ) = 3,
β(v3 , v3 ) = 15 .
q
2
v1 . Wir betrachten die Einschränkung von β auf Eig(A, 3) × Eig(A, 3).
Wir setzen b1 := 27
Für v, w ∈ Eig(A, 3) ist β(v, w) = vt Aw = 3vt w = 3hv, wi, also ist die Einschränkung von β ein
positives Vielfaches des Standardskalarprodukts und somit positiv definit. Also können wir das
Schmidtsche Orthonormalisierungsverfahren auf diese Einschränkung anwenden. Dazu setzen wir
b2 = √ 1
v2 = √16 v2 . Dann betrachten wir
β(v2 ,v2 )


− 12
1
β(v3 , v2 )


v2 = v3 − v2 =  − 12  .
b̃3 := v3 − β(v3 , b2 )b2 = v3 −
β(v2 , v2 )
2
2
Wir berechnen β(b̃3 , b̃3 ) =
27
2,
also normieren wir

r
b3 :=
Nun ist
 

r
2
 2  
 2 ,

27
1

−1
1 
2

b̃3 = √  −1  .
27
54
4


−1
1 

√  1 ,
6
0


−1
1 

√  −1 
54
4
eine bezüglich β orthogonale Basis von R3 , in der die darstellende Matrix von β sogar die Form
diag(−1, 1, 1) hat.
10 Fortsetzung der Lösung zu Aufgabe 7:
(c) Wir müssen eine Basis (w1 , w2 , w3 ) des R3 aus Eigenvektoren von A finden, die bezüglich des Standardskalarprodukts von R3 eine Orthonormalbasis bildet. In Aufgabe 8 auf Blatt 10 hatten wir gesehen, dass Eigenvektoren zu verschiedenen Eigenwerten der darstellenden Matrix einer symmetrischen Bilinearform auch bezüglich des Standardskalarprodukts orthogonal sind. Also wissen wir
bereits, dass hv1 , v2 i = hv1 , v3 i = 0, bzw. hb1 , b2 i = hb1 , b3 i = 0 gilt.
Wir betrachten nun wieder die Einschränkung der Bilinearform β auf Eig(A, 3) × Eig(A, 3). Da diese
Einschränkung ein Vielfaches des Standardskalarprodukts ist, gilt also nach (b) auch hb2 , b3 i = 0.
Die in (b) gefundene Basis (b1 , b2 , b3 ) ist also auch orthogonal bezüglich des Standardskalarproduktes. Wir müssen sie also nur anders normieren. Wir errechnen hb1 , b1 i = 32 , hb2 , b2 i = 31 und
hb3 , b3 i = 13 . Also ist

r
w1 =
und damit

2
3
1 
b1 =  2  ,
2
3
1


−1
√
1 

w2 = 3b2 = √  1  ,
2
0


P = (w1 , w2 , w3 ) = 

2
3
2
3
1
3


−1
√
1 

w3 = 3b3 = √  −1 
18
4
− √12 − √118
√1
2
0


− √118 

√4
18
eine orthogonale Matrix mit P−1 AP = diag(− 32 , 3, 3).
Bemerkung:
Durch Konjugation mit einer orthogonalen Matrix P lässt sich die Matrix A nicht in eine Matrix der
Form diag(±1, . . . , 0 = überführen, denn
D = P−1 AP ⇒ detD = detA
Beachten Sie, dass bei einer Diagonalmatrix die Eigenwerte auf der Diagonalen liegen.
(d) Es ist Qa = Q−1 (a), wenn Q die zur Bilinearform β gehörende quadratische Form bezeichnet. In
der Basis (b1 , b2 , b3 ) aus (b) ist Qa = {v = x1 b1 + x2 b2 + x3 b3 | − x12 + x22 + x32 = a}. Für a = 0 ergibt
sich die Gleichung x12 = x22 + x32 , also ist Q0 ein Doppelkegel, der rotationssymmetrisch um die
Ursprungsgerade Rb1 ist. Für a = −1 ergibt sich x12 = 1 + x22 + x32 , dies nennt man ein zweischaliges
Hyperboloid, es hat zwei Zusammenhangskomponenten (und die gleiche Rotationssymmetrie wie
der Doppelkegel Q0 ).
11 Lösung zu Aufgabe 8:
i) Klar (Die Eigenschaft J 2 = −idV wird nur für die Bedingung (αβ)v = α(βv) mit α, β ∈ C und v ∈ V
gebraucht).
ii) Wir wenden die Determinante auf J 2 = −idV an und erhalten det(J)2 = (−1)n . Da det(J) ∈ R, muss
n gerade sein. Sei B = (b1 , . . . , bn ) eine C-Basis des komplexen Vektorraums V . Dann ist B̃ :=
(b1 , J(b1 ), . . . bn , J(bn )) eine R-Basis. Denn die Familie ist über R linear unabhängig: die Gleichung
n
∑ λibi + µiJ(bi) = 0
i=1
mit reellen Koeffizienten λi , µ ist mit ri := λi + iµi ∈ C offenbar äquivalent zur komplexen Linearkombination
n
∑ ribi = 0 ,
i=1
aus der ri = 0 und somit λi = µi = 0 folgt. Da sich jedes Element aus V in der Form
n
v = ∑ ri bi
i=1
mit ri ∈ C schreiben lässt, also mit ri := λi + iµi in der Form
n
v = ∑ λi bi + µi J(bi )
i=1
ist auch klar, dass B̃ ein R-Erzeugendensystem ist.
iii) R-Bilinearität ist klar. Symmetrie folgt aus
hw, vi ≡ ω(w, Jv) = −ω(Jv, w)
= −ω(JJv, Jw) = ω(v, Jw) ≡ hv, wi .
Orthogonalität von J bezüglich ω folgt aus
hJv, Jwi ≡ ω(Jv, JJw) = −ω(Jv, w) = −ω(JJv, Jw)
= ω(v, Jw) ≡ hv, wi .
iv) Hermitizität, h(w, v) = h(v, w), folgt aus der Symmetrie von h·, ·i und der Antisymmetrie von ω(·, ·).
Wegen h(v, v) = hv, vi ist für eine kalibrierte komplexe Struktur h auch positiv definit.
Sesquilinearität folgt aus
h(i · v, w) = h(Jv, w) = ω(Jv, Jw) − iω(Jv, w) = ω(v, w) + iω(v, Jw)
= i h(v, w)
und
h(v, i · w) = h(v, Jw) = ω(v, JJw) − iω(v, Jw) = −ω(v, w) − iω(v, Jw)
= −i h(v, w) .
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben
werden in der Übungsgruppe am Montag, dem 30. Juni, abgegeben.
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1, Var 1: [’Ja’]
1, Var 2: [’Nein’]
1, Var 3: [’Nein’]
2, Var 1: [’Ja’]
2, Var 2: [’Nein’]
2, Var 3: [’Nein’]
3, Var 1: [’Nein’]
4, Var 1: [’Nein’]
5, Var 1: [’Ja’]
6, Var 1: [’Nein’]
7, Var 1: [’Ja’]
7, Var 2: [’Ja’]
8, Var 1: [’Nein’]
8, Var 2: [’Nein’]
9, Var 1: [’Ja’]
9, Var 2: [’Ja’]
10, Var 1: [’Nein’]
10, Var 2: [’Nein’]
Ex
Ex
Ex
Ex
2,
2,
2,
2,
Qu
Qu
Qu
Qu
1,
2,
3,
4,
Var
Var
Var
Var
1:
1:
1:
1:
[’Wahr’]
[’Falsch’]
[’Wahr’]
[’Wahr’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
3,
3,
3,
3,
3,
3,
3,
3,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
2,
3,
4,
5,
6,
7,
8,
Var
Var
Var
Var
Var
Var
Var
Var
1:
1:
1:
1:
1:
1:
1:
1:
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
[’Falsch’]
[’Falsch’]
[’Wahr’]
[’Wahr’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
4,
4,
4,
4,
4,
4,
4,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
2,
3,
4,
5,
6,
7,
Var
Var
Var
Var
Var
Var
Var
1:
1:
1:
1:
1:
1:
1:
[’Wahr’]
[’Wahr’]
[’Falsch’]
[’Wahr’]
[’Falsch’]
[’Falsch’]
[’Wahr’]
Übungsblatt 12
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
Erstellt am 09.07.2008, 14:46 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist
07.07.2008, 08:00 Uhr.
1
1
Sei (V, h·, ·i) ein euklidischer und (W, h·, ·i) ein unitärer Vektorraum. Ein Endomorphismus ϕ in End(V )
oder End(W ) heißt anti-selbstadjungiert, wenn hϕ(v), wi = −hv, ϕ(w)i für alle Vektoren v, w gilt.
Wichtig:
Bei manchen Fragen kommt es darauf an, ob die komplexe oder reelle Situation vorliegt. Bitte achten
Sie daher stets darauf, ob sich eine Frage auf V – also auf den reellen Fall – oder auf W – also auf den
komplexen Fall – bezieht.
Wenn hϕ(v), vi = 0 für alle v ∈ V , dann ist ϕ ∈ End(V ) anti-selbstadjungiert.
Wahr / Falsch
Lösung:
Wahr. Wähle beliebige Vektoren v1 , v2 ∈ V . Dann gilt
0 = hϕ(v1 + v2 ), v1 + v2 i
= hϕ(v1 ), v1 i + hϕ(v2 ), v2 i + hϕ(v1 ), v2 i + hϕ(v2 ), v1 i
= hv1 , ϕ(v2 )i + hϕ(v1 ), v2 i .
2
Im letzten Schritt haben wir die Symmetrie des reellen Skalarproduktes verwendet.
Wenn hϕ(w), wi = 0 für alle w ∈ W , dann ist ϕ ∈ End(W ) anti-selbstadjungiert.
Wahr / Falsch
Lösung:
Falsch. Mit hϕ(w), wi = 0 gilt auch hiϕ(w), wi = 0. Es können aber nicht ϕ und
iϕ beide anti-selbstadjungiert sein. Betrachten Sie beispielsweise W = C2 mit
dem Standardskalarprodukt. Dann ist
!
0 1
ϕ=
−1 0
anti-selbstandjungiert, iϕ jedoch selbstadjungiert.
3
4
Wenn ϕ ∈ End(W ) anti-selbstadjungiert ist, dann ist es auch ϕ2 .
Wahr / Falsch
Lösung:
Falsch. Dann ist ϕ2 selbstadjungiert.
Wenn ϕ ∈ End(W ) anti-selbstadjungiert ist, dann ist ϕ2 selbstadjungiert.
Wahr / Falsch
Kein Element in O(9) ist anti-selbstadjungiert.
Wahr / Falsch
Lösung: Wahr. Jedes Element ϕ ∈ O(9) hat nach Satz 5.6.8 wenigstens einen
Eigenvektor zum Eigenwert λ ∈ {−1, 1}. Es folgt
λ|v|2 = hϕ(v), vi = −hv, ϕ(v)i = −λ|v|2 ,
was offensichtlich ein Widerspruch ist.
5
Wahr / Falsch
Es gibt in O(12) anti-selbstandjungierte Elemente.
Lösung: Wahr. Z. B. die Matrix, die aus 6 Blöcken der Form
0 −1
1 0
!
be-
steht, ist in O(12) und ist anti-selbstadjungiert.
6
7
Die Menge der selbstadjungierten Elemente in End(W ) ist in Bijektion zu der Wahr / Falsch
Menge der anti-selbstadjungierten Elemente.
Lösung:
Wahr. Die Bijektion ist durch Multiplikation mit der imaginären Einheit gegeben.
Jeder komplexe anti-selbstadjungierte Endomorphismus ϕ ∈ End(W ) ist diago- Wahr / Falsch
nalisierbar.
Lösung:
Wahr. Jede anti-selbstadjungierte Abbildung ist das Produkt der imaginären Einheit mit einer selbstadjungierten Abbildung. Letztere ist immer diagonalisierbar.
8
Jeder reelle anti-selbstadjungierte Endomorphismus ϕ ∈ End(V ) ist diagonalisierbar.
Wahr / Falsch
Lösung:
Falsch.
!
0 −1
Z. B.
hat keine (reellen) Eigenwerte.
1 0
9
Sei V der Vektorraum der glatten, reellwertigen Funktionen f : [0, 1] → R, die Wahr / Falsch
zusammen mit all ihren Ableitungen bei 0 und 1 verschwinden, und sei h f , gi =
R1
f (x)g(x) dx
0
Dann ist der Endomorphismus
d :V → V
f 7→ f 0
anti-selbstadjungiert.
Lösung:
Wahr. Verwende partielle Integration.
10
Sei W der Vektorraum der unendlich oft differenzierbaren, komplexwertigen Wahr / Falsch
Funktionen f : [0, 1] → C, die zusammen mit all ihren Ableitungen bei 0 und
1 verschwinden, und sei h f , gi =
R1
f (x)ḡ(x) dx
0
Dann ist der Endomorphismus
d :W → W
f 7→ f 0
anti-selbstadjungiert.
Lösung:
Wahr. Verwende partielle Integration.
11
Sei W der Vektorraum der unendlich oft differenzierbaren, komplexwertigen Wahr / Falsch
Funktionen f : [0, 1] → C, die zusammen mit all ihren Ableitungen bei 0 und
1 verschwinden, und sei h f , gi =
R1
f (x)ḡ(x) dx
0
Dann ist der Endomorphismus
d :W → W
f 7→ i f 0
anti-selbstadjungiert.
Lösung:
Falsch. Der Endomorphismus ist selbstadjungiert. Verwende partielle Integration.
2 Sei K ein Körper, f ∈ K[X] ein normiertes Polynom und B f die Begleitmatrix zu f .
1
2
3
Die Begleitmatrix eines Monoms f (X) = X n mit n ≥ 2 ist die n × n Nullmatrix.
Wahr / Falsch
Das charakteristische Polynom und das Minimalpolynom der Begleitmatrix eines normierten Polynoms g sind stets gleich g.
Lösung: Wahr. Siehe dazu den Beweis von Satz 4.5.7 (Satz von CayleyHamilton).
Wahr / Falsch
Jede Matrix ist ähnlich zur Begleitmatrix ihres charakteristischen Polynoms.
Wahr / Falsch
Lösung:
Falsch: wähle irgendeine Matrix, deren Minimalpolynom und charakteristisches
Polynom verschieden sind.
4
Die Jordansche Normalform einer Begleitmatrix ist stets eine Diagonalmatrix.
Lösung:
Für die Begleitmatrix B f zu f = X 2 −2X +1 gilt PA (X) = µA (X) = f = (X −1)2 .
Also ist B f nicht diagonalisierbar.
3
Betrachten Sie die folgende Matrix mit komplexen Einträgen:

0 0

 1 0


2 0 0



1 2 0


A := 
0 1 2

2 0



1 2


3 0

1 3


















1
Geben Sie den Rang der Matrix an.
2
Geben Sie den Grad des charakteristischen Polynoms an.
3
Geben Sie den Grad des Minimalpolynoms an.
4
Geben Sie die algebraische Vielfachheit des Eigenwerts λ = 2 von A an.
Wahr / Falsch
5
6
Geben Sie die geometrische Vielfachheit des Eigenwerts λ = 2 von A an.
Gilt die folgende Aussage allgemein:
quadratische Matrizen mit demselben Minimalpolynom haben (bis auf Permutation der Blöcke) die gleiche Jordansche Normalform?
Wahr / Falsch
Lösung:
Gegenbeispiel: die folgenden beiden Matrizen in Jordanscher Normalform haben beide das Minimalpolynom (X − 1)2 ;





7
1
1
0
0
0
1
0
0
0
0
1
1
0
0
0
1










1
1
0
0
0
1
0
0
0
0
1
0
0
0
0
1





Sei ma die Vielfachheit einer Nullstelle a des Minimalpolynoms von A. Dann ist
die maximale Größe eines Jordan-Blocks zum Eigenwert a gleich ma .
Wahr / Falsch
Lösung:
Ein Jordan-Block der Große n zum Eigenwert a impliziert, dass das Polynom
(X − a)n ein Teiler des Minimalpolynoms µA sein muss.
8
Sei ka die Vielfachheit einer Nullstelle a des charakteristischen Polynoms von A. Wahr / Falsch
Dann tritt a genau ka mal auf der Diagonalen der Jordanschen Normalform von
A auf.
Lösung:
Folgt aus der Formel für die Determinante einer Dreiecksmatrix.
9
Die Zahl der Jordan-Blöcke zu einem Eigenwert a ist gleich der geometrischen Wahr / Falsch
Vielfachheit von a.
Lösung:
Jeder Jordan-Block zum Eigenwert a trägt unabhängig von seiner Größe einen
Eigenraum zum Eigenwert a der Dimension 1 bei.
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
4
(12 Punkte)
Wir betrachten Diagonalmatrizen mit komplexen Einträgen. Hierbei verwenden wir die Notation
diag(a1 , a2 , . . . , an ) für die Diagonalmatrix mit Diagonalelementen a1 , a2 , . . . , an .
Geben Sie alle Determinanten- und Invariantenteiler der folgenden Diagonalmatrizen an:
(a) diag(1, 2, 3, 4, 5)
(b) diag(1, 2, 2, 4, 5)
(c) diag(1, 1, 1, 4, 5)
(d) diag(1, 1, 1, 4, 4)
(e) diag(1, 1, 1, 1, 5)
(f) diag(4, 4, 4, 4, 4)
Lösung:
Wir berechnen erst die Determinantenteiler. d j ist der größte gemeinsame Teiler aller
Form (X − ai1 ) · . . . · (X − ai j ) mit paarweise verschiedenen Werten für i1 , i2 , . . . i j .
5
j
Polynome der
(a) Wir finden d1 = d2 = d3 = d4 = 1 und d5 = (X − 1)(X − 2)(X − 3)(X − 4)(X − 5). In diesem Fall
di = ci .
(b) Wir finden d1 = d2 = d3 = 1, d4 = (X − 2) und d5 = (X − 1)(X − 2)2 (X − 4)(X − 5). Entsprechend
c1 = c2 = c3 = 1, c4 = (X − 2) und c5 = (X − 1)(X − 2)(X − 4)(X − 5).
(c) Wir finden d1 = d2 = 1, d3 = (X − 1), d4 = (X − 1)2 und d5 = (X − 1)3 (X − 4)(X − 5). Entsprechend
c1 = c2 = 1, c3 = c4 = (X − 1) und c5 = (X − 1)(X − 4)(X − 5).
(d) Wir finden d1 = d2 = 1, d3 = (X −1), d4 = (X −1)2 (X −4) und d5 = (X −1)3 (X −4)2 . Entsprechend
c1 = c2 = 1, c3 = (X − 1) und c4 = c5 = (X − 1)(X − 4).
(e) Wir finden d1 = 1, d2 = (X − 1), d3 = (X − 1)2 , d4 = (X − 1)3 und d5 = (X − 1)4 (X − 5). Entsprechend c1 = 1, c2 = c3 = c4 = (X − 1) und c5 = (X − 1)(X − 5).
(f) Wir finden d1 = (X − 4), d2 = (X − 4)2 , d3 = (X − 4)3 , d4 = (X − 4)4 und d5 = (X − 4)5 . Entsprechend c1 = c2 = c3 = c4 = c5 = (X − 4).
Man beachte: Da Diagonalmatrizen vorliegen, zerfällt c5 vollständig in paarweise verschiedene Linearfaktoren.
5
(i) (5 Punkte) Zeigen Sie: jede Matrix A ∈ M(n × n, C) ist unitär ähnlich zu einer oberen Dreiecksmatrix, d.h. es gibt eine unitäre Matrix U ∈ U(n), so dass U −1 AU eine obere Dreiecksmatrix ist.
(ii) (5 Punkte) Sei V ein n-dimensionaler unitärer Vektorraum und ϕ ∈ End(V ). Seien λ1 , λ2 , . . . , λm
die Eigenwerte von ϕ, wobei Eigenwerte entsprechend ihrer geometrischen Vielfachheit mehrfach
auftreten. Dann ist
m
∑ |λi|2 ≤ tr(ϕ∗ϕ)
i=1
(iii) (5 Punkte) Zeigen Sie, dass bei der Ungleichung in (ii) Gleichheit genau dann gilt, wenn ϕ∗ ◦ ϕ =
ϕ ◦ ϕ∗ gilt. Einen Endomorphismus eines unitären Vektorraums mit dieser Eigenschaft nennt man
auch normal.
Lösung:
i) Man muss nur den Beweis von Satz 4.4.6 der Vorlesung geeignet anpassen. Statt, wie dort, einen Eigenvektor zu einer beliebigen Basis zu ergänzen, ergänzt man zu einer Orthonormalbasis. Dann ist der
Basiswechsel durch eine unitäre Matrix gegeben.
ii)
Sei M(ϕ) eine Matrixdarstellung von ϕ in einer Orthonormalbasis. In dieser Basis ist dann M(ϕ∗ ) =
(M(ϕ))∗ , gemäß den Regeln der Matrixmultiplikation folgt, dass
tr(ϕ∗ ϕ) = ∑ |M(ϕ) jk |2
j,k
eine Summe nicht-negativer Terme ist.
Nach (i) gibt es eine Orthonormalbasis von V , in der M(ϕ) eine obere Dreiecksmatrix ist. Bei oberen
Dreiecksmatrizen stehen die Eigenwerte entsprechend ihren algebraischen Vielfachheiten auf der Diagonalen. Sie treten also mindestens gemäß ihrer geometrischen Vielfachheit als Diagonalelemente auf. Wir
bezeichnen daher mit ik ∈ {1, . . . n} einen Index, für den gilt M(ϕ)ik ik = λk . Dann ist
n
m
∑ |M(ϕ) jk |2 =
j,k
∑ |λ j |2 + ∑ |M(ϕ) jk |2 +
j=1
j<k
∑
|M(ϕ) j j |2 ≥
j6∈{i1 ...in }
∑ |λ j |2
j=1
iii)
Nach obigem Argument gilt Gleichheit genau dann, wenn alle Außerdiagonalelemente verschwinden, also
genau dann, wenn M(ϕ) nur Einträge auf der Diagonalen hat. Nach (i) ist dies gleichbedeutend damit, dass
es eine Orthonormalbasis von V aus Eigenvektoren von ϕ gibt. Mit anderen Worten: genau für Gleichheit
ist ϕ unitär diagonalisierbar: es gibt eine Orthonormalbasis aus Eigenvektoren.
Wir zeigen nun, dass ϕ genau dann normal ist, wenn ϕ unitär diagonalisierbar ist. Sei ϕ unitär diagonalisierbar. Dann hat die darstellende Matrix von ϕ in der Basis aus Eigenvektoren Diagonalgestalt: M(ϕ) = D.
Da diese Basis eine Orthonormalbasis ist, ist M(ϕ∗ ) = (M(ϕ))∗ = D∗ eine Diagonalmatrix. Also sind ϕ
und ϕ∗ simultan diagonalisierbar und kommutieren nach Satz 4.3.7. Somit ist ϕ normal.
Umgekehrt gelte ϕ∗ ◦ ϕ = ϕ ◦ ϕ∗ . Betrachte
ψ1 := ϕ + ϕ∗
ψ2 := i(ϕ − ϕ∗ )
Offenbar sind ψ1 , ψ2 selbstadjungiert, also nach Satz 5.7.9. unitär diagonalisierbar. Weil ϕ und ϕ∗ kommutieren, kommutieren auch ψ1 , ψ2 , sind also nach Satz 4.3.7 sogar gleichzeitig diagonalisierbar. Wegen
V=
M
Eig(ψ1 , λ) ∩ Eig(ψ2 , µ)
λ,µ
kann die Basis, in der ψ1 und ψ2 gemeinsam Diagonalgestalt haben, sogar als Orthonormalbasis gewählt
werden. In dieser Basis sind aber auch ϕ = 12 (ψ1 − iψ2 ) und ϕ∗ = 12 (ψ1 + iψ2 ) von Diagonalgestalt.
6
(10 Punkte)
Sei K ein Körper und A ∈ M(n × n, K) eine beliebige Matrix.
Zeigen Sie: Die Matrizen A und At sind ähnlich.
Hinweis: Zeigen Sie, dass A und At die gleichen Determinantenteiler haben.
Lösung:
Wir zeigen, dass A und At die gleichen Determinantenteiler haben. Nach Satz 6.2.6 sind dann A und At
ähnlich.
Auch die charakteristischen Matrizen von A und At sind zueinander transponiert: MAt (X) = (MA (X))t .
Dann ist auch die Untermatrix j-ter Ordnung von MAt (X), die aus den Elementen besteht, die in der i1 ten, i2 -ten . . . i j -ten Zeile und der k1 -ten, k2 -ten . . . k j -ten Spalte von MAt (X) stehen, transponiert zu der
Untermatrix j-ter Ordnung von MA (X), die aus den Elementen besteht, die in der i1 -ten, i2 -ten . . . i j -ten
Spalte und der k1 -ten, k2 -ten . . . k j -ten Zeile von MA (X) stehen. Die Determinanten dieser beiden Matrizen
sind also gleich. Da der Determinantenteiler als größter gemeinsamer Teiler dieses übereinstimmenden
( j)
( j)
Satzes von Polynomen bestimmt wird, folgt dA = dAt .
7
p
Sei (V, h·, ·i) ein endlich-dimensionaler euklidischer Vektorraum mit Norm kvk = hv, vi und Abstandsfunktion d(x, y) := kx − yk. Sei H ein echter affiner Unterraum von V und p ein Punkt, der nicht in H liegt,
p ∈ V \ H.
(i) (5 Punkte) Zeigen Sie, dass es genau einen Punkt qmin ∈ H gibt, für den das Minimum d :=
minq∈H d(p, q) angenommen wird.
(ii) (5 Punkte) Beschreiben Sie in Worten die Lage des Vektors p − qmin bezüglich des affinen Unterraums H.
(iii) (10 Punkte; wenn Sie die Aufgabe für V = R bearbeiten erhalten Sie nur maximal 5 Punkte)
Es seien N Paare (xi , yi ) mit xi , yi ∈ V gegeben. Sie können sich dies folgendermaßen vorstellen: in
Abhängigkeit von n := dimR V Parametern xi messen Sie in N Messungen jeweils n Größen yi .
Sie vermuten einen affinen Zusammenhang zwischen diesen Größen, also eine Relation der Form
y = a + bx
mit a ∈ V und b ∈ R. Wir suchen nun Werte für a, b die möglichst gut mit den “Messwerten” (xi , yi )
verträglich sind in dem Sinne, dass die Funktion
N
f (a, b) = ∑ d (yi , (a + bxi ))2
i=1
minimal wird.
Wir führen noch die arithmetischen Mittel ein:
x :=
1 N
∑ xi ∈ V
N i=1
y :=
1 N
∑ yi ∈ V .
N i=1
Zeigen Sie, dass dann die gesuchten Werte von a, b die Gleichung y = a + bx erfüllen.
Zeigen Sie dann, für diese Werte gilt:
b=
1
N
∑N
i=1 hxi − x, yi − yi
.
1 N
2
N ∑i=1 kxi − xk
8
Lösung zur vorherigen Aufgabe:
(i) Sei q ∈ H und H = q + U0 . Wir wählen eine Orthonormalbasis (b1 , . . . , br ) des Untervektorraums
U0 , die wir zu einer Orthonormalbasis (b1 , . . . , bn ) von V fortsetzen. Dann schreibt sich jeder Punkt
in H als v = q + ∑ri=1 λi bi mit eindeutig bestimmten λi ∈ R. Es ist
r
r
d(p, v)2 = kp − q − ∑ λi bi k2 = ∑ (λ2i − 2λi hbi , p − qi) + kp − qk2
i=1
i=1
eine quadratische Funktion in den Variablen λi mit i = 1, . . . , r mit Minimum für λi = hbi , p − qi,
also bei
r
n
qmin = q + ∑ (hbi , pi − hbi , qi)bi = p +
i=1
∑
hq − p, bi ibi ,
i=r+1
da für jedes v ∈ V gilt v = ∑ni=1 hv, bi ibi .
(ii) Offenbar ist qmin − p eine Linearkombination der Basisvektoren br+1 , . . . , bn und steht daher auf
dem Untervektorraum U0 senkrecht. Der Abstand eines Punktes p zum affinen Unterraum wird also
genau für den Punkt qmin der affinen Unterraums minimiert, für den der Verbindungsvektor zu p
senkrecht auf dem affinen Unterraum steht.
(iii) Der Gradient nach a liefert die Gleichung
N
grada ( f ) = −2 ∑ yi − a − bxi = 0 ,
i=1
aus der nach Division durch 2N die Gleichung y = a + bx folgt. Die Ableitung nach b liefert nach
Einsetzen von a = y − bx die Gleichung
N
∂
f (a, b) = −2 ∑ hyi − y + bx − bxi , xi i = 0 .
∂b
i=1
Die angegebene Gleichung folgt, wenn man beachtet, dass
N
∑ hxi − x, xi = Nhx, xi − Nhx, xi = 0
i=1
und
N
∑ hyi − y, xi = Nhy, xi − Nhy, xi = 0
i=1
gilt.
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben
werden in der Übungsgruppe am Montag, dem 7. Juli, abgegeben.
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
1,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1, Var 1: [’Wahr’]
2, Var 1: [’Falsch’]
3, Var 1: [’Falsch’]
3, Var 2: [’Wahr’]
4, Var 1: [’Wahr’]
5, Var 1: [’Wahr’]
6, Var 1: [’Wahr’]
7, Var 1: [’Wahr’]
8, Var 1: [’Falsch’]
9, Var 1: [’Wahr’]
10, Var 1: [’Wahr’]
11, Var 1: [’Falsch’]
Ex
Ex
Ex
Ex
2,
2,
2,
2,
Qu
Qu
Qu
Qu
1,
2,
3,
4,
Var
Var
Var
Var
1:
1:
1:
1:
[’Falsch’]
[’Wahr’]
[’Falsch’]
[’Falsch’]
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
Ex
3,
3,
3,
3,
3,
3,
3,
3,
3,
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
Qu
1,
2,
3,
4,
5,
6,
7,
8,
9,
Var
Var
Var
Var
Var
Var
Var
Var
Var
1:
1:
1:
1:
1:
1:
1:
1:
1:
[’8’]
[’9’]
[’7’]
[’5’]
[’2’]
[’Falsch’]
[’Wahr’]
[’Wahr’]
[’Wahr’]
Übungsklausur
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008
Christoph Schweigert
In der Klausur sind keinerlei Hilfsmittel außer Papier und Stift zugelassen. Insbesondere dürfen Sie keinen
Taschenrechner benutzen und nicht Ihre Aufzeichnungen oder andere Literatur zu Rate ziehen.
Für jede Aufgabe erhalten Sie einen Punkt für die richtige Antwort, die Sie auf diesem Zettel angeben sollen. Bei einigen Aufgaben sind Begründungen verlangt, für die Sie ebenfalls Punkte erhalten können. Die zu
erreichenden Punkte sind dort vermerkt.
Bitte geben Sie auf diesem Zettel Ihren Namen und Ihre Matrikelnummer leserlich an. Wenn Begründungen
gefordert sind, geben Sie diese auf einem getrennten Blatt, ebenfalls leserlich mit Ihrem Namen und Ihrer
Matrikelnummer beschriftet, an.
In der richtigen Klausur werden auch Fragen zu linearen Algebra I gestellt werden. In den Übungsklausuren
können Sie diesen Zettel mit Lösungshinweisenwie üblich unter okuson einsehen.
Name, Vorname:
Matrikelnummer:
1 Sei V = R2 und sei ϕ ein Endomorphismus von V . Wir bezeichnen die
darstellende Matrix von !
ϕ bezüglich der Standardbasis von R2 mit A. Es sei
√
1
bekannt, dass v1 =
Eigenvektor von ϕ zum Eigenwert λ1 = − 2 und
3
!
2
Eigenvektor zum Eigenwert λ2 = 1 ist.
v2 =
4
Geben Sie den Eintrag in der ersten Zeile und zweiten Spalte von A10 (die zehnte
Potenz bezüglich der Matrixmultiplikation) an.
2 Punkte für die Rechnung
2
Berechnen Sie die Determinanten der folgenden Matrizen mit komplexen Einträgen (Rechnung nicht angeben).


3 −2 1


 −5 3i 4 
4i −1 3
wobei i die imaginäre Einheit bezeichne.





3

1
2 1
3
2
6 1 −2 


−1 −2 1 −1 
−3 −6 3 −2
Berechnen Sie das Volumen das Spates, der durch die Vektoren
     
3
2
1
     
 1 ,  3 ,  8 
2
3
5
aufgespannt wird (Rechnung nicht angeben).
4
Geben Sie das Signum der folgenden Permutationen an (ohne Rechnung).
!
1 2 3 4 5 6
3 2 1 6 5 4
!
1
2
3 ... ... ... ... 4n − 2 4n − 1 4n
4n 4n − 1 4n − 2 ... ... ... ...
3
2 1
5
Wie lautet bezüglich der Standardbasis des R2 die darstellende Matrix der Spiegelung an derjenigen Ursprungsgeraden, die mit der positiven Richtung der x-Achse einen Winkel von π3 gegen den Uhrzeigersinn
einschließt? 1 Punkt für die Angabe der allgemeinen Spiegelungsmatrix für einen Winkel α und die Rechnung mit α = π3 .
a)
1
√2
3
2
b)
1
−
√2
3
2
c)
1
√2
3
2
6
a / b / c
√
!
3
2
−
1
2
√
3
2
1
2
√
3
2
− 12
!
!
Geben Sie die Eigenwerte der folgenden reellen Matrix an (ohne Rechnung). Sie bekommen einen Punkt
für die Angabe des charakteristischen Polynoms und einen Punkt für die Angabe der Eigenwerte.


1
0 0


 17 −2 5 
25
1 2
7
Geben Sie einen Eigenvektor zum Eigenwert -3 der folgenden reellen Matrix an
(ohne Rechnung):


−1
1
2


1 .
 1 −1
2
1 −1
8
Sei f ∈ R[x] ein reelles Polynom vom Grad neun.
9
Kann f mit Vielfachheit gerechnet acht reelle Nullstellen haben? Sie bekommen Ja / Nein
2 Punkte für die richtige Begründung.
Sei K ein Körper und seien n, m natürliche Zahlen. Sei ϕ : K n → K m eine lineare Abbildung.
Ja / Nein
10
Wenn n = m ist, kann ϕ dann injektiv, aber nicht surjektiv sein?
1 Punkt für die Begründung
Sei K ein Körper. Wir betrachten M(2 × 2, K).
Gilt
Ja / Nein
det
a sb
sc d
!
= s det
a b
c d
für alle s ∈ K?
1 Punkt für die Begründung oder ein Gegenbeispiel.
!
11
Die folgende Matrix hat das charakteristische Polynom (X − 2)2 (X − 1). Ist sie diagonalisierbar? 2 Punkte
für die Begründung.


2
2 −1


0
1 
 0
0 −2
3
Ja / Nein
Herunterladen