A Lineare Algebra II - TU Darmstadt/Mathematik

Werbung
A
Technische Universität Darmstadt
Fachbereich Mathematik
Lineare Algebra II
für M, LaG, LaB, Inf, WInf
Prof. Dr. C. Herrmann
Steen Fröhlich
Stefan Reiter
2./3. Juni 2005
SS 2005
8. Übungsblatt
Gruppenübungen
G29 Es gilt

0
0

0

2
ϕα = 
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

1 0 −1
1 0 −1

1 0 −1

1 −1 0 
,
1 0 −1

1 0 −1
1 0 −1

0
0

0

3
ϕα = 
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
1
1
1
1
1
1

−1
−1

−1

−1
,
−1

−1
ϕ4α = 0
−1
und Rang(ϕ) = 4, Rang(ϕ2 ) = 2 und Rang(ϕ3 ) = 1. Damit sehen wir, dass es 7 − Rang(ϕ) = 3
unabhängige Jordanketten geben muss, eine der Länge 4, keine der Länge 3, eine der Länge 2 und
eine der Länge 1.
Die Kette der Länge 4 erhalten wir, indem wir einen Vektor b4 suchen, für den ϕ3 (b4 ) 6= 0 gilt, z.B.
b4 = e6 . Es ist
b3 = ϕ(b4 ) = (0, 0, 0, 0, 1, 0, 0)t ,
b2 = ϕ2 (b4 ) = (0, 0, 0, −1, 0, 0, 0)t ,
b1 = ϕ3 (b4 ) = (1, 1, 1, 1, 1, 1, 1)t .
Diese vier Vektoren ergänzen wir zu einer Basis von C7 mit Vektoren aus Kern ϕ2 . Es ist
 
1




0


 




0
2

Kern ϕ = spann 0
,
 


0


 

0



0
 
0
1
 
0
 
0 ,
 
0
 
0
 
0
0
 
1
 
0 ,
 
0
 
0
 
0
0
 
0
 
1 ,
 
0
 
0
0
0
0
 
0 


0

 
0

 
0 .
 
1
 


1



1
Also gilt e1 , e2 , e3 ∈ Kern ϕ2 und b1 , b2 , b3 , b4 , e1 , e2 , e3 linear unabhängig. Es ist ϕ(e1 ) = e3 , daher
ist J(e1 ) eine Jordankette der Länge 2, welche oensichtlich linear unabhangig zur Kette J(b4 ) ist.
J(e2 ) ist die noch fehlende Kette der Länge 1, welche linear unabhängig von den vorherigen ist.
Damit erhalten wir die Jordanketten
0←−b1 ←−b2 ←−b3 ←−b4
0←−e3 ←−e1
0←−e2
Bezüglich der Basis β : b1 , b2 , b3 , b4 , e3 , e1 , e3 erhalten wir die Jordanmatrix





ϕβ = 




0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0










G30 Wir betrachten zuerst den Fall, dass A schon in JNF ist. Hier sind im Wesentlichen zwei Fälle zu
unterschieden:
1.) A ist diagonalisierbar, d.h. A =
λ 0
, wobei λ und µ auch gleich sein können. Die Matrix
0 µ
√
λ 0
B=
ist dann eine Quadratwurzel von A.
√
0
µ
!
√
λ 2√1 λ
λ 1
√
2.) A ist nicht diagonalisierbar, also A =
. Ist λ 6= 0, so ist die Matrix B =
0 λ
0
λ
eine Quadratwurzel von A. Gilt λ = 0, so kann es zu A keine Quadratwurzel geben. Denn gäbe es
eine solche Matrix B mit B 2 = A 6= 0, so würde B 2 = A2 = 0 gelten, was nicht sein kann. Ist A also
nilpotent und nicht die Nullmatrix, gibt es keine Quadratwurzel.
Für den allgemeinen Fall, d.h. dass A nicht in JNF ist, argumentieren wir ähnlich. Wir wissen, dass
es eine invertierbare Marix S und eine Matrix J in JNF gibt mit A = SJS −1 . Ist A entweder gleich
der Nullmatrix oder nicht nilpotent, so wissen wir, dass es eine Matrix M gibt mit M 2 = J . Damit
ist B = SM S −1 eine Quadratwurzel von A.
G31 Potenzreihen
von MatrizenI

0 1
0 ... 0


.
.
.


. ..

,
Ist A =  .

.
 .
0 1 
0 ...
0
dann ist An = 0 und

1 1 1/2 . . .
1/(n − 1)
 0 1
1 1/2 . . . 1/(n − 2)

exp(A) = 
.
.. ...

0 ...
1



,

Sollten wir das Glück haben, dass A eine Diagonalmatrix ist, so können wir exp(A) sehr leicht
bestimmen: Ist
A = diag(a0 , . . . , an )
so ist
Ak = diag(ak0 , . . . , akn )
und somit
exp(A) = diag(exp(a0 ), . . . , exp(an ))
Weiterhin ist exp(A) dann einfach zu bestimmen, wenn A nilpotent und von geringer Ordnung ist:
In diesem Fall erhalten wir exp(A) durch das Berechnen der abbrechenden Summe.
Gilt etwa A5 = 0,1 so bestimmen wir A2 , A3 , . . . , A4 und erhalten
1
1
exp(A) = A0 + A1 + A2 + · · · + A4
2
4!
G32 Potenzreihen von Matrizen I
Wir erhalten die erste Gleichung durch Einsetzen von SAS −1 in die Potenzreihendarstellung von
exp(SAS −1 ) und die bereits bekannte Tatsache, dass (SAS −1 )k = SAk S −1 für alle k ∈ N.
Die zweite Frage ist schwieriger zu beantworten. Im allgemeinen gilt: Sind A, B ∈ M at(n, R), so dass
AB = BA, so gilt
exp(A + B) = exp(A) · exp(B)
1
und damit Ak = 0 für alle k ≥ 5
G33 Potenzreihen von Matrizen II
Im Einklang mit der vorherigen Aufgabe geben wir zwei kleine Matrizen an, die das so bekannte
Rechengesetz aus dem reellen verletzen:
A=
Dann gilt
exp(A) =
1 0
0 0
B=
e 0
0 1
Auÿerdem gilt
k
(A + B) =
und somit
exp(A + B) =
0 1
0 0
exp(B) =
1 1
0 0
1 1
0 1
∀k ≥ 1
X
∞
1 1 1
1 0
+
0 1
k! 0 0
k=1
Also
exp(A + B) =
e e−1
0
1
Wir sehen, dass
exp(A + B) 6= exp(A) · exp(B)
exp(A + B) 6= exp(B) · exp(A)
G34 Potenzreihen von Matrizen III
Wir nutzen an dieser Stelle unser Wissen über die Jordan-Normalform einer Matrix aus: Sei S eine
Transformationsmatrix, so dass
SAS −1 = J(A) = D + N
wobei D eine Diagonalmatrix und N eine nilpotente Matrix ist, so dass auÿerdem DN = N D.
Dann gilt
A = S −1 J(A)S = S −1 (D + N )S
und somit
exp(A) = S −1 (exp(D + N ))S
Da DN = N D und somit exp(D+N ) = exp(D)·exp(N ), können wir exp(A) also dadurch ausrechnen,
dass wir
a)
b)
c)
d)
S und S −1 bestimmen
D und N bestimmen
exp(D) und exp(N ) ausrechnen - beides ist nicht allzu schwer.
das Matrizenprodukt S −1 (exp(D) · exp(N ))S bestimmen.
G35 Jeder EW loest eine polynomiale Gleichung n-ten Grades. Somit ist jede transzendente Zahl, z.B.
π, e niemals ein EW einer solchen Matrix.
Hausübungen
H28 Aus ((0, a0 , a1 , . . . , )) = R((a0 , a1 , . . . , )) = λ((a0 , a1 , . . . , )) folgt:
1.Fall λ 6= 0 dann ist (a0 , a1 , . . . , ) = 0. Es gibt also keinen EW ungleich 0.
2. Fall λ = 0.
Dann ist (a0 , a1 , . . . , ) = 0.
Somit hat R keinen EW.
Aus ((a1 , . . . , )) = L((a0 , a1 , . . . , )) = λ((a0 , a1 , . . . , )) folgt:
1.Fall λ 6= 0 dann ist (1, λ, λ2 , . . .) ein EV zum EW λ.
2. Fall λ = 0.
Dann ist (1, 0, . . . , ) ein EV, der den Eigenraum aufspannt.
H29 Aus Spur(AB) = Spur(BA) folgt, dass Spur(B −1 AB) = Spur(A), falls B invertierbar ist. Da A
mit Hilfe einer Basistrafo auf Jordan-Normalgestalt gebracht werden kann, koennen wir also A in
Jordan-Form annehmen. Da auf der Diagonalen nun die EW liegen, folgt die Beh.
H30 a) mA (x) ist das Polynom minimalen Grades mit 0 = mA (A) =
0. Damit ist mAt (x) = mA (x).
Pr
i=0 ai A
i.
Dann ist auch
Pr
i=0 ai A
ti
=
b)Es ist 0 = mA (A) = ri=0 ai Ai Multiplizieren mit A−r ergibt: 0 = ri=0 ai Ai−r = ri=0 ai (A−1 )r−i
Somit ist mA (x) ∗ x−r = mA−1 (x).
c) Wegen Rang(A − λEn ) ≥ n − 1 für alle λ ∈ C ist die geometrische Vfh =1. Damit ist mA (x) =
det(A − xEn ). Die rest. Beh. erfolgt per Ind. nach n und der Entwicklung nach der 1. Zeile
P
P
P
H31 a) Es genügt die Behauptung für p(x) = xi zu zeigen. Dies ist jedoch oensichtlich.
b) Wenn ϕ(v) = λv ist, dann gilt
p(ϕ)v = p(λ)v
c) Oensichtlich ist ϕ(U1 + U2 ) = ϕ(U1 ) + ϕ(U2 ) ⊆ U1 + U2 .
Es sei u ∈ U1 ∩ U2 . Dann ist ϕ(u) ∈ ϕ(U1 ) ∩ ϕ(U2 ) ⊆ U1 ∩ U2 . Folglich ist U1 ∩ U2 ϕ-invariant.
d) Nachrechnen.
e) Es sei ker(ϕk ) = ker(ϕk+1 ). V ist endlich dimensional. Nach dem Homomorphiesatz genügt zu
zeigen, dass ker(ϕk ) ∩ Bi(ϕk ) = 0 ist. Es sei v ∈ ker(ϕk ) ∩ Bi(ϕk ) = 0. Dann ist v = ϕk (w) und
ϕk (v) = 0. Also w ∈ ker(ϕ2k ) = ker(ϕk ). Somit v = ϕk (w) = 0.
f) ϕ − λ operiert auf ker((ϕ − λ)n ) nilpotent und auf dem Komplement Bi((ϕ − λ)n ) als Automorphismus.
g) Nach (d) ist für einen Eigenwert λ V = ker((ϕ − λ)n ) ⊕ Bi((ϕ − λ)n ) mit dim(Bi((ϕ − λ)n )) =:
n0 < n
ϕ0 := ϕ|Bi(ϕn ) : Bi(ϕn ) → Bi(ϕn )
Folglich nden wir einen neuen Eigenwert λ0 , so dass
0
Bi(ϕn ) = V 0 = ker((ϕ0 − λ0 )n ) ⊕ Bi((ϕ0 − λ0 )n )
Per Induktion folgt die Behauptung.
Herunterladen