1 Die Jordansche Normalform - TUM

Werbung
Matthias Tischler
Karolina Stoiber
Ferienkurs Lineare Algebra für Physiker
WS 14/15
A
Vierter Tag (19.03.2015)
1 Die Jordansche Normalform
Im Zusammenhang mit der Lösung komplexer Differentialgleichungssysteme hilft die Jordansche
Normalform. Die ist ein einfacher Vertreter der Äquivalenzklasse der zu einer trigonalisierbaren
(charakteristisches Polynom zerfällt vollständig in Linearfaktoren) Matrix ähnlichen Matrix.
Definition 1.1 Jordan
1. (λ ∈ K, l ∈ N>0 ) Ein Jordan-Block (alt: Jordan-Kästchen) der Länge l ist eine Matrix der
Form


λ 1
0


..
..


.
.

 ∈ K l×l

1
0
λ
2. A in Jordanscher Normalform

J1


A=

0
0
J2
..





.
Jr
3. B heißt Jordansche Normalform von A, falls B in JNF und ähnlich zu A.
Satz 1.1
A hat genau dann eine JNF, wenn χA in Linearfaktoren zerfällt. (Für abgeschlossene Körper
gilt das für jede quadratische Matrix.)
Meistens ist die JNF nicht eindeutig, da das Vertauschen der Jordan-Blöcke erlaubt ist, da dies
nur eine Umordnung der Basisvektoren entspricht.
Satz 1.2
A und B sind genau dann ähnlich, wenn ihre JNF bis auf die Reihenfolge der Blöcke übereinstimmen.
Um nun die JNF zu berechnen, sind folgende Formeln wichtig:
Satz 1.3
χA zerfällt in Linearfaktoren, B ist JNF von A, λ ∈ K Eigenwert von A:
1. Anzahl der Jordan-Blöcke der Länge e mit λ:
rg(A − λIn )e−1 − 2rg(A − λIn )e + rg(A − λIn )e+1
2. Gesamtlänge der Jordan-Blöcke mit λ=m
ˆ a (λ)
1
3. Anzahl der Jordan-Blöcke mit λ=m
ˆ g (λ)
Beispiel 1.1: JNF


5 −3 6
1. A = 0 1 2 ∈ R3×3
0 5 4
χA = (5 − λ) · (6 − λ) · (1 + λ) = 0
Damit sind die Eigenwerte -1, 5 und 6, jeweils mit ma = 1. Also ist B = diag(−1, 5, 6).
(Reihenfolge vertauschbar)


−3 −1 2
1 −4 ∈ R3×3
2. A =  4
0
0 −1
Eigenwert -1 mit ma = 3. A+I3 hat Rang 1, da Spaltenvektoren paarweise linear abhängig.
Daher jeein Jordanblock
 mit Länge 1 und 2. 

−1 1
0
−1 0
0
JN F =  0 −1 0  ∈ R3×3 oder JN F =  0 −1 1  ∈ R3×3
0
0 −1
0
0 −1
3. A ∈ R4×4 mit nur einem Eigenwert λ, rg(A − I4 ) = 2. Also gibt es 2-2=2 Jordanblöcke,
entweder mit den Längen 2,2 oder 1,3.
Berechne die Anzahl der Jordanblöcke
 1 mit Formel aus
 Satz 1.3: 
 mit Länge
λ 1 0 0
λ 0 0 0
0 λ 1 0
0 λ 1 0



1. Fall: Ergebnis:1, dann JN F = 
 0 0 λ 1  oder JN F =  0 0 λ 0 
0 0 0 λ
0 0 0 λ


λ 1 0 0
0 λ 0 0

2. Fall: Ergebnis:0, dann JN F = 
0 0 λ 1
0 0 0 λ
Neben der JNF an sich, ist auch die tranformierende Matrix von Interesse. Die erhält man aus
der Jordan-Basis.
Definition 1.2 Jordan-Basis
Basis bezüglich der ϕA , die JNF von A als Darstellungsmatrix hat
Zusatz 1.1 Berechnen der Jordan-Basis
1. JNF von A bekannt
2. Suche die Basisvektoren zu dem längsten Jordan-Kästchen von λ
3. Berechne Hauptraum:
(e)
Eλ := {v ∈ K n |(A − λIn )e · v = 0}
4. Ergänze Basis des Unterraums E (e−1) zu einer Basis von E (e) mit Keimen der Basisvektoren der Jordan-Kästchen
2
5. Ist v ∈ E (e) ein Keim: ve := v, ve−1 := Ave − λve , ..., v1 := Av2 − λv2
6. (falls vorhanden) nun Jordan-Kästchen mit niedrigerer Länge (e-1): Gegen lineare Abhängigkeit
mit den schon vorhandenen Vektoren: ergänze Basen von E1(e − 2) und (A − λIn ) · E (e)
zu einer Basis von E (e−1)
Beispiel 1.2:
Wir verwenden aus Beispiel 1.1 die zweite Matrix. Wir kennen den (einzigen) Eigenwert -1 und
den Eigenraum E−1 = {(−0, 5 + κ κ)T |, κ ∈ R}
Für das große Jordankästchen wählen wir einen Vektor außerhalb von E−1 , zBsp. v2 := e1 .
Damit ergibt sich
v1 := Av2 − (−1)v2 = (−2 4 0)T
Damit haben wir das Jordan-Kästchen mit Länge 2 fertig, jetzt zu dem mit Länge 1.
Wir suchen den Eigenvektor, der v1 zu einer Basis von E−1 ergänzt, also einen Vektor v3 ∈ E−1 ,
der linear unabhängig von v1 ist. Eine Möglichkeit ist v3 = (0 2 1).
Damit ergibt sich die transformierende Basis


0 −2 1
2 4 0
1 0 0
Satz 1.4 exp(A)
Für A ∈ Cn×n konvergiert
exp(A) = eA :=
∞
X
Ak
k=0
k!
Zusatz 1.2 Für B = S −1 AS mit S ∈ GLn (C) gilt
exp(B) = S −1 exp(A)S
Zusatz 1.3 A,B ∈ Cn×n kommutierend
Pn
n
1. (A + B)n = i=0
Ai B n−i
r
2. exp(A + B) = exp(A) · exp(B)
2 Skalarprodukte
Bisher haben wir uns in beliebigen Körpern bewegt. Dabei gab es keinen Begriff im Zusammenhang mit ”Abstand’.’ Zur Bestimmung von Längen, Abständen und Winkeln führen wir daher
in diesem Kapitel das Skalarprodukt wie folgt ein:
Für den reellen Vektorraum ist dies gleich, wie das Skalarprodukt aus der Schule.
3
Definition 2.1 Standard-Skalarprodukt


 
v1
w1
 .. 
 .. 
n
Das Standard-Skalarprodukt auf R von ~v =  .  und w
~ =  .  ∈ Rn ist:
vn
hv, wi :=
n
X
xi yi
wn
(= v T · w) ∈ R
i=1
Es gelten folgende Eigenschaften:
1. Bilinearität (a ∈ R): hu, v + a · wi = hu, vi + a · hu, wi
& hu + a · v, wi = hu, wi + a · hv, wi
2. Symmetrie: hv, wi = hw, vi
3. (Positiv semi-definit:) hv, vi > 0 für ~v 6= 0
Durch das Skalarprodukt erhält man neue Möglichkeiten zur Charakterisierung von Abbildungen.
Definition 2.2 symmetrische Bilinearform
V × V → R, (v, w) 7→ hv, wi
heißt ∼, falls sie symetrisch und bilinear ist. Die zusätzliche Eigenschaft positiv definit führt zum
Skalarprodukt.
(Skalarprodukt und reeller Vektorraum zusammen heißen euklidischer Raum.)
Im komplexen Raum funktioniert die Definition des Standard-Skalarproduktes nicht, da es auch
negativ sein kann. Daher müssen wir hier anders vorgehen.
Mit Hilfe der Komplex-konjugierten z̄ := a−ib (statt + bei z) definiert man mit den Rechenregeln
für komplexe Zahlen:
z + w = z̄ + w̄
z · w = z̄ · w̄
z̄ · z = a2 + b2
√
|z| := z̄ · z
Mit diesen Regeln erhält man als Skalarprodukt im komplexen Vektorraum:
Definition 2.3 komplexes Skalarprodukt
hv, wi :=
n
X
x̄i yi
(v̄ T · w) ∈ C
i=1
Zusätzlich weichen auch die Begrifflichkeiten im komplexen Vektorraum von denen des reellen
ab:
Definition 2.4 V komplexer Vektorraum: V × V → C, (v, w) 7→ hv, wi heißt
4
1. sesquilinear, falls hu, v + a · wi = hu, vi + a · hu, wi
& hu + a · v, wi = hu, wi + ā · hv, wi
2. hermitesch, falls hv, wi = w, v
3. positiv definit, falls
hv, vi ∈ R&hv, vi ≥ 0 bei ~v 6= 0
1. heißt Sesquilinearform, 2. hermitesche Form, 1. ∧ 2. ∧ 3. komplexes Skalarprodukt.
Kompl. Vektorraum und kompl. Skalarprodukt ergeben den unitären Raum.
Mit dem Skalarprodukt haben wir nun ein Mittel für die Bestimmung von Längen:
Definition
p 2.5 Länge/Norm und Abstand
||v|| := hv, vi ∈ R≥0 ist die Länge bzw. Norm von v.
d(v, w) := ||v − w|| ∈ R≥0 ist der Abstand von v und w.
Für diese gilt nun:
Zusatz 2.1 Schwarzsche Ungleichung
|hv, wi| ≤ ||n|| · ||w|| (Gleicheit bei linearer Abhängigkeit ((anti-)parallele Vektoren))
Und zusätzlich:
Satz 2.1 Eigenschaften
1. ||v|| > 0 bei v̄ 6= 0
2. ||a · v|| = |a| · ||v|| (a Skalar)
3. ||v + w|| ≤ ||v|| + ||w|| (Dreiecksungleichung)
4. d(v, w) > 0beiv 6= w
5. d(v, w) = d(w, v)
6. d(u, w) ≤ d(u, v) + d(v, w) (siehe 3.)
Zusatz 2.2 (für spätere Vorlesungen interessant)
1. v 7→ ||v|| erfüllt 1. - 3. ⇒ normierter Vektorraum
2. d: V × V → R≥0 erfüllt 4. - 6. ⇒ Metrik ⇒ metrischer Raum
3. Banachraum (vollständig (jede Cauchy-Folge konvergiert) und normiert), Hilbertraum (vollständig
und euklidisch/unitär)
Außer für den Abstandsbegriff benötigt man das Skalarprodukt auch für die Festlegung von
Winkeln zwischen Vektoren:
Definition 2.6 Winkel (zwischen v und w)
cos(α) =
hv, wi
||v|| · ||w||
V euklidisch/unitär
5
1. orthogonale (senkrechte) Vektoren: hv, wi = 0
2. S ⊆ V Orthogonalsystemn, falls zwei verschiedene Vektoren paarweise orthogonal
3. S Orthonormalsystem, falls 2. und ||v|| = 1∀v
4. S Orthonormalbasis, falls 3. und Basis
5. orthogonales Kompliment zu Unterraum U ⊆ V : U ⊥ := {v ∈ V |hv, uiu ∈ U }
Um für den durch die Vektoren aufgespannten Raum eine ONB zu erzeugen, geht man wie folgt
vor:
Zusatz 2.3 Schmidtsches Orthogonalisierungsverfahren
Vektoren v1 , ..., vk → Orthonormalbasis {u1 , ..., um } des erzeugten Unnterraums.
1. m := 0
2. Für i=1,...,k : Schritte 3. und 4.
3.
w i = vi −
m
X
huj , vi i · uj
j=1
4. wi 6= 0 m := m+1 und
um :=
wi
||wi ||
Beispiel 2.1:
     
1
1
3
V := h0 , 0 , 0i
2
0
4
Als erster normieren wir einen der Vektoren.
   
3/5
3
w1
1    
0
u1 =
= · 0 =
||w1 ||
5
4
4/5
Den zweiten normierten Vektor erhalten wir mit w2 = v2 − hu1 , u2 i · u1 =


4/5
u2 =  0 
−3/5
1
25 (16
0
− 12)T :
Der dritte Vektor ist u3 = w3 = v3 − hu1 , v3 i · u1 − hu2 , v3 i · u2 = 0. Die ONB ist also {u1 , u2 }.
(Man sieht schon aus den Vektoren am Anfang, dass nur zwei Vektoren übrig bleiben, da v3 =
1
2 · (v1 + v3 ).)
Zwischen euklidischen bzw. unitären Veoktorräumen kann man ”strukturerhaltende” Abbildungen studieren.
6
Definition 2.7 orthogonale bzw. unitäre Abbildung
V, W euklidisch/unitär, ϕ : V → W orthogonal, falls
hϕ(v), ϕ(w)i = hv, wi∀v, w
∼ ist injektiv und abstandserhaltend ( d(ϕ(v), ϕ(w)) = d(v, w) ⇐ ||ϕ(v)|| = ||v|| (∼ =
ˆ Isometrie)
Zum Abschluss legen wir noch ein paar Begriffe fest:
Definition 2.8 spezielle Matrizen
1. A ∈ Rn×n orthogonal, wenn Satz 2.5 erfüllt. Gleichbedeutend:
Spalten bzw Zeilen bilden Orthonormalbasis von Rn
2. A ∈ Cn×n unitär, wenn Satz 2.1 erfüllt. Gleichbedeutend:
Spalten bzw Zeilen bilden Orthonormalbasis von Cn
3. orthogonale Gruppe: On := {A ∈ Rn×n |AT · A = In } ⊆ GLn (R)
spezielle orthogonale Gruppe: SOn := On ∩ SLn (R)
4. unitäre Gruppe: Un := {A ∈ Cn×n |AT · A = In } ⊆ GLn (C)
spezielle unitäre Gruppe: SUn := Un ∩ SLn (C)
3 Hauptachsentransformation
Vereinbarung: A ∈ Rn×n Ziel des Kapitels ist der Nachweis, dass jede symmetrische, reelle Matrix
diagonalisierbar ist. Wir fangen mit drei Hilfssätzen an:
Zusatz 3.1
1. Sei λ ∈ C ein Eigenwert von A (∈ Cn×n ), dann λ ∈ R
2. Unterraum {0} =
6 U ⊆ Rn mit ∀u ∈ U : A · u ∈ U ⇒ U enthält einen Eigenvektor von A
3. λ und µ verschiedenen Eigenwerte von A und v ∈ Eλ , w ∈ Eµ : hv, wi = 0
Das Hauptergebis des Kapitels ist die Hauptachsentransformation. (Sie dient dazu, um Gleichungen von Hyperflächen (Dimension um 1 geringer als umgebenden Raum) zweiter Ordnung
in einer NOrmalform darzustellen.)
Satz 3.1 Hauptachsentransformation
Für symmetrischen Matrizen A gibt es eine Orthonormalbasis aus Eigenvektoren. ⇔ ∃S ∈ On (R)
mit, S −1 AS = S T AS Diagnomalmatrix. ⇔ A ist diagonalisierbar.
(Satz gilt allgemein für R, jedoch nicht für C und Q.)
Beispiel

2
A = 1
1
3.1: 
1 1
2 1 hat χA = (x − 1)2 (x − 4).
1 2
7
 
 
1
1
Mit E4 =i 1 h haben wir schon den ersten normierten Vektor u3 = √13 1.
1
1   
1
1
Auf E1 =i  0  , −1 h erhalten wir duch das Schmidtsche Orthogonalisierungsverfahren
−1
0
 
 
1
1
u1 = √12  0  und u1 = √16 −2.
−1
1


1 0 0
Damit ist S bekannt und S −1 AS = 0 1 0.
0 0 4
WICHTIG: Dies gilt alles nur für R, nicht für C oder Q.
Zusätzlich sind folgende Definitionen sinnvoll.
Definition 3.1 Eine symmetrische Matrix A heißt
1. positiv definit: alle Eigenwerte positiv
2. pos. semidefinit: alle Eigenwerte nicht negativ
3. negativ definit: alle Eigenwerte negativ
4. neg. semidefinit: alle Eigenwerte nicht positiv
5. indefinit: pos. und neg. Eigenwerte
Gleichbedeutend ist folgendes:
Satz 3.2
A positiv definit genau dann, wenn ∀v ∈ Rn \{0} : hv, A · vi > 0
Für die anderen Fälle, ersetze > durch ≥, < oder ≤.
8
Herunterladen