lineare Algebra

Werbung
122
KAPITEL 4
Lineare Algebra
1. Der Vektorraum Rn
Definition
der Form
Basis
n
4.1
. Der Vektorraum R besteht aus allen Spaltenvektoren

a1
 a2 


~a =  . 
.
 . 
an
und wird von der kanonischen oder naturlichen


0
1
 1
 0 

 
~e1 =  .  , ~e2 =  .
 ..
 .. 
0
0





,


0
 0 
 
. . . , ~en =  .  .
 .. 
1
Das Skalarprodukt zweier Vektoren ~a und ~b ist deniert als
~a · ~b = a1 b1 + a2 b2 + . . . + an bn
Der Vektorraum Rn versehen mit diesem Skalarprodukt heit Euklidischer Raum. Der Vektor ~a besitzt die L
ange (den Betrag, die Norm)
v
uX
√
u n 2
|~a| := ~a · ~a = t
aj
j=1
und der Winkel zwischen den Vektoren ~a und ~b wird deniert als
cos ^(~a, ~b) :=
Beispiel
Satz
~a · ~b
|~a| · |~b|
4.1. Gram-Schmidtsches Orthonormierungsverfahren. Es gilt
n
4.1. Sind die
( Vektoren ~v1 , ~v2 , . . . , ~vn des R paarweise orthogonal,
d.h. gilt ~vi · ~vj =
1,
0,
i = j,
i 6= j,
so sind die Vektoren linear unabhangig.
123
124
4. LINEARE ALGEBRA
Beweis:
Es sei
α1~v1 + . . . + αn~vn = ~0 ⇒ (α1~v1 + . . . + αn~vn ) · ~vj = αj ~vj · ~vj = αj |~vj2 | = 0.
#
4.2. (Gram-Schmidtsches Orthonormierungsverfahren) Es sei~
en b1 , . . . , ~bk ∈ Rn (k ≤ n) linear unabhangige Vektoren des Rn . Hieraus
wird nun eine Orthonormalbasis ~c1 , . . . , ~ck ∈ Rn (k ≤ n) der linearen
Hulle Lin (~b1 , . . . , ~bk ) konstruiert:
Satz
(1) Man setzt
1 ~
b1 .
~
|b1 |
(2) Der zweite Vektor soll nun zu ~c1 bzw. ~b1 orthogonal sein. Deshalb
zerlegt man den Vektor ~b2 in die zu ~c1 parallele Komponente =
Projektion von ~b2 auf ~c1 und den dazu orthogonalen Vektor:
~c1 =
~c20 = ~b2 − (~b2 · ~c1 )~c1
und normiert
~c2 =
~c20
.
|~c20 |
(3) Nun wird der Vektor ~c3 aus ~b3 so konstruiert, dass ~c3 orthogonal
zu ~c1 und ~c2 ist, d.h. wir bilden zunachst die Projektionen von
auf ~c1 und ~c2 und berechnen dann
~b3
~c30 = ~b3 − (~b3 · ~c1 )~c1 − (~b3 · ~c2 )~c2
und normieren
~c3 =
(4) Man fahrt so fort bis
~ck0
und normiert
= ~bk −
~c30
.
|~c30 |
k−1
X
(~bk · ~ci )~ci
i=1
~ck =
~ck0
.
|~ck0 |
4.1. In jedem Schritt ist ein Element ~ci konstruierbar. Ware
dem nicht so, so ware der Vektor ~bi linear abhangig von ~c1 , . . . , ~ci−1 und damit
Bemerkung
~b1 , . . . , ~bi−1 .
Das ist aber nach Voraussetzung ausgeschlossen!
1. DER VEKTORRAUM
v
Rn
125
vu┴
vu
u
Sind nur 2 linear unabhangige Vektoren ~u, ~v zu orthogonalisieren, so entsteht
das orthogaonale System durch ~u1 = ~u und ~u2 = ~v~u⊥ der orthogonale Vektor zur
Projektion von ~v auf ~u. Durch Normieren der Vektoren erhalt man orthonor-
w
w┴
u3
u2
wu2
E
wu1
u1
male Vektoren.
Im Fall von 3 Vektoren ~u, ~v, w~ gewinnt man zunachst 2 orthogonale bzw. orthonormale Vektoren von ~u, ~v wie bereits beschrieben. Der dritte Vektor w~ lasst sich
in einen Anteil, der in der von ~u und ~v aufgespannten Ebene liegt, und einen
dazu orthogonalen Anteil aufspalten. Dieser orthogonale Anteil ist die gesuchte
dritte Richtung, durch Normieren erhalt man den 3. normierten Vektor.
Es seien die folgenden 3 Vektoren gegeben:



~v1 = 

1
2
0
3






,
~
v
=
 2 


4
0
5
8






,
~
v
=
 3 


8
1
5
6



.

Man benutze das Gram-Schmidtsche-Orthonormierungsverfahren, um eine Basis fur Lin (~v1 , ~v2 , ~v3 ) zu konstruieren.
126
4. LINEARE ALGEBRA

(1) ~u1 :=
1
~v
|~v1 | 1
=
√1
14




1
2
0
3



.


(2)
~u02
:= ~v2 − (~v2 )~u1 = ~v2 − (~v2 · ~u1 )~u1 = ~v2 −

2
−4
5
2




1
√ 2
14






und wir erhalten ~u2 = |~u1 | ~u02 = 17 


0
2



· 28 

2
−4
5
2
1
2
0
3


 
 
=
 


 
2

 
 
 −4  
  1
28   − 72 · 49 
=
 5  
 
2


4


 1 
~u3 = |~u10 | ~u03 = √121 
.
3
 0 
−2


8−2−2
1−4+4
5+0−5
6−6−2



=



.

(3) ~u03 := ~v3 − (~v3 )~u1 − (~v3 )~u2 = ~v3 − (~v3 · ~u1 )~u1 − (~v3 · ~u2 )~u2 = 

1
2
0
3




4−2
0−4
5−0
8−6

 
 
=
 
4
1
0
−2
8
1
5
6



−

√
1
2
14
·





und wir erhalten
2. LINEARE ABBILDUNGEN UND KOORDINATENDARSTELLUNGEN
127
2. Lineare Abbildungen und Koordinatendarstellungen
2.1. Lineare Abbildungen und ihre Basisdarstellung. Seien V, W Vektorraume
uber R. Mit einer Abbildung f : V → W ( von V in W \) wird jedem Vektor ~v ∈ V
"
ein eindeutig bestimmter Vektor w~ = f (~v ) ∈ W, das sogenannte Bild von ~v unter f
zugeordnet.
Definition
4.2. Eine Abbildung heit linear, wenn gilt
ist homogen; d.h. f (α~v) = α f (~v) fur alle α ∈ R, ~v ∈ V,
ist additiv; d.h. f (~u + ~v) = f (~u) + f (~v) fur alle ~u, ~v ∈ V.
Man nennt lineare Abbildungen auch lineare Transformationen oder
auch lineare Operatoren.
L.1: f
L.2: f
Beispiele fur lineare Abbildungen:
Beispiel
4.2. Die Multipliaktion mit einer festen m × n-Matrix A
l : Rn → Rm ,
Beispiel
l(~x) := A~x.
4.3. Der Dierentialoperator
d
: C 1 (I) → C 0 (I),
dx
d
f (x) := f 0 (x).
dx
Mit
C 0 (I) bzw. C 1 (I) bezeichnet man den Vektorraum aller
I ⊆ R stetigen bzw. stetig dierenzierbaren Funktionen.
Beispiel
auf dem Intervall
4.4. Das Integral
Z
f→
b
f (x) dx,
f ∈ C 0 (I).
a
4.5. Die Werkstobeanspruchung eines elastischen Korpers, auf den
von auen Krafte wirken, wird in der linearen Elastostatik durch den Spannungstensor S (3 × 3- Matrix) beschrieben.
Beispiel
Bemerkung
Summe
4.2. Da zu linearen Abbildungen f, g : V → W und α ∈ R, die
f + g : V → W,
(f + g)(~v ) := f (~v ) + g(~v )
und das α-fache
αf : V → W,
(αf )(~v ) := αf (~v )
wieder lineare Abbildungen sind, bilden die linearen Abbildungen selbst wieder
einen Vektorraum
L(V, W ) := {f ; f : V → W
ist linear.}
128
4. LINEARE ALGEBRA
Im folgenden sei V = W = Rn . Wir betrachten also nur noch lineare Abbildungen
des Rn in sich.
Satz
4.3. Gegeben sei eine lineare Abbildung f : Rn → Rn . Mit der
Matrix F = (f (~e1 , f (~e2 ), . . . , f (~en )), deren Spalten aus den Bildern der
naturlichen Basisvektoren bestehen, gilt
f (~x) = F ~x.
Man nennt F die Abbildungsmatrix von f bezuglich der naturlichen Basis.
Beweis: F
ur ~x = x1~e1 + . . . + xn~en folgt
!
n
n
X
X
f (~x) = f
xi~ei =
xi f (~ei ) = F ~x.
i=1
Bemerkung
#
i=1
4.3. Man beachte, dass die Matrix F die Abbildungsmatrix der
linearen Abbildung bzgl. der naturlichen Basis ist. In einer anderen Basis sieht
die Matrix anders aus!
Beispiel
4.6. Die Abbildung
f : R3 → R3 , f ((x, y, z)T ) = (x, y + 2z, z)T
ist linear, da







x2
x1
x2
x1








αf  y1  + βf  y2  = α  y1 + 2z1  + β  y2 + 2z2 
z2
z1
z2
z1




αx1 + βx2
αx1 + βx2




=  αy1 + βy2 + 2(αz1 + βz2 )  = f  αy1 + βy2  .
αz1 + βz2
αz1 + βz2

Die Abbildung besitzt bezuglich der Basis

 

1

 
~e1 =  0  ,


0


0
 
~e2 =  1  ,
0

0 

 
~e3 =  0 

1 

die Abbildungsmatrix


1 0 0


F = (f (~e1 ) f (~e2 ) f (~e3 )) =  0 1 2 
0 0 1
2. LINEARE ABBILDUNGEN UND KOORDINATENDARSTELLUNGEN
129
und damit ist



  

1 0 0
1 0 0
x
x



  

f (~x) = f ((x, y, z)T ) =  0 1 2  ~x =  0 1 2   y  =  y + 2z  .
0 0 1
0 0 1
z
z
4.3. Eine Basis B = {~b1 , ~b2 , . . . , ~bn } heit orthogonal, wenn
die Vektoren ~bi , i = 1, 2, . . . , n, paarweise orthogonal sind, d.h.
Definition
~bi · ~bj = 0
fur
i 6= j.
Die Basis B = {~b1 , ~b2 , . . . , ~bn } heit orthonormal, wenn sie orthogonal
ist und alle Basisvektoren normiert sind.
Beispiel
4.7. Die naturliche Basis ist orthonormal.
Definition
4.4. Eine n × n-Matrix heit orthogonal, wenn gilt:
AT A = E,
(also AT = A−1 ).
4.4. Fur eine n × n-Matrix A sind aquivalent
(1) A ist orthogonal.
(2) Die Abbildung T (~x) = A~x ist isometrisch (langentreu), d.h.
Satz
fur alle ~x ∈ Rn .
(3) Die Abbildung T (~x) = A~x ist kongruent (langen- und winkeltreu),
d.h., T erhalt das Skalarprodukt
(A~x) · (A~y ) = ~xT AT A~y = ~xT ~y = ~x · ~y , f
ur alle ~x, ~y ∈ Rn .
(4) Die Spalten (Zeilen) von A bilden eine orthonormale Basis des
|A~x| = |~x|,
Rn .
Beweis: Wir beweisen nur (1) ⇐⇒ (4) :
 T 
~a1
(
 ~aT  0,
 2 
T
T
A A = E ⇔  .  ~a1 ~a2 . . . ~an = E ⇐⇒ ~ai ~aj = ~ai ·~aj =
.
1,
 . 
T
~an
i 6= j,
i = j.
#
130
4. LINEARE ALGEBRA
Beispiel
4.8. Drehungen in der Ebene um den Nullpunkt lauten in kartesi-
schen Koordinaten:
d : R2 → R2 ,
!
x
y
d
x cos ϕ − y sin ϕ
x sin ϕ + y cos ϕ
=
!
,
mit dem Drehwinkel ϕ, wie man sich leicht uberzeugt, ist wegen |d(~x)| = |~x| :
~x =
0
d(~x) =
x
y0
!
x
y
!
|~x| cos ψ
|~x| sin ψ
=
!
und
!
!
|~x| cos(ϕ + ψ)
|~x|(cos ϕ · cos ψ − sin ϕ · sin ψ)
=
|~x| sin(ϕ + ψ)
|~x|(sin ϕ · cos ψ + cos ϕ · sin ψ)
!
!
x cos ϕ − y sin ϕ
−y
⊥
⊥
= (cos ϕ) ~x + (sin ϕ) ~x , ~x =
x sin ϕ + y cos ϕ
x
=
=
y'
d  x 
sinφ  x ┴
y
cos φ x
φ
ψ
x'
x
x
Die Abbildung d ist linear mit der orthogonalen Abbildungsmatrix
D=
cos ϕ − sin ϕ
sin ϕ cos ϕ
!
,
det D = 1.
3. EIGENWERTE UND EIGENVEKTOREN
3. Eigenwerte und Eigenvektoren
Wozu benotigt man Eigenwerte und Eigenvektoren?
• Diagonalmatrizen sind leicht zu handhaben. Eigenvektoren werden
zur Diagonalisierung von Matrizen verwendet. (siehe spater)
• Zur Analyse von Quadriken bzw. quadratischen Formen. Darauf gehen wir nicht ein.
• F
ur die Langzeitvorhersage von Wetter oder auch der Entwicklung
einer Population basierend auf Wahrscheinlichkeitsmatrizen bzw. sogenannten Markovschen Ketten. Sollte in der Statistik/Stochastik
behandelt werden.
• F
ur stochastische Modelle.
• Matrizen reprasentieren lineare Abbildung (Drehung, Scherung,
Spiegelung). Eigenvektoren geben die Geraden an, die dabei erhalten
bleiben. Und Strecken auf diesen Geraden werden um die Eigenwerte
gestreckt bzw. gestaucht.
• Invarianten physikalischer Systeme: Eigenfrequenzen, Eigenformen
und gegebenenfalls auch Dampfungscharakteristik eines schwingfahigen Systems, Knicklast eines Knickstabs (siehe Balkentheorie),
Hauptspannungen in der Festigkeitslehre: Umrechnung der Spannungen in ein Koordinatensystem, in dem es keine Schubspannungen gibt. Eigenwerte spielen in der Quantenmechanik eine besondere
Rolle.
• Anwendung in der Bildverarbeitung: In der Bildverarbeitung werden Eigenvektoren gerne benutzt, um Objekte auszurichten. Wenn
man beispielsweise Mikroskopbilder von ellipsenformigen Bakterien
hat, gibt der grote Eigenvektor die Lage der Hauptachse an (daher
auch Hauptachsentransformation). Mit dieser Hauptachse konnen alle Bilder gleich ausgerichtet (gedreht) werden. Die Eigenwerte geben
die Verteilung entlang der Achsen an. Sie sind unabhanging von der
Ausrichtung, so da man sie zum Vermessen oder Klassizieren benutzten kann, ohne das Bild vorher zu drehen.
• Systeme gewohnlicher Dierentialgleichungen 1. Ordnung.
131
132
4. LINEARE ALGEBRA
Definition
4.5. Eine Zahl λ ∈ C heit Eigenwert der Matrix einer reellen
oder komplexen n×n-Matrix A, wenn es mindestens einen Spaltenvektor
~b ∈ Cn , ~b 6= ~0, gibt mit
A~b = λ~b.
Jeder Vektor ~b 6= ~0, der diese Gleichung erfullt, heit Eigenvektor von A
zum Eigenwert λ.
3.1. Bestimmung von Eigenwerten. Wenn λ ein Eigenwert der Matrix A ist,
dann gibt es einen Spaltenvektor ~b 6= ~0 mit
A~b = λ~b ⇔ (A − λE)~b = ~0.
Folglich besitzt das Gleichungssystem (16) nichttriviale Losungen und damit ist die
Determinante der Koezientenmatrix gleich Null, also det (A − λE) = 0. Umgekehrt, ist diese Determinate gleich Null, dann hat das Gleichungssystem nichttriviale
Losungen (vgl. Rechenregeln fur Determinanten (2.7) bzw. Cramersche Regel 2.9).
Insgesamt haben wir damit, λ ist ein Eigenwert der Matrix A genau dann wenn
gilt:
det (A − λE) = 0.
Deshalb
Zur Berechnung der Eigenwerte einer n×n-Matrix betrachtet man (mit einer
Variablen λ) das charakteristische Polynom von A
χA (λ) := det (A − λE).
Die Nullstellen des charakteristischen Polynoms sind die Eigenwerte der Matrix A.
Beispiel
4.9. Wir betrachten die Matrix


0 −1 0


A =  −1 −1 1  ,
0
1 0

es ist

−λ
−1
0


A − λE =  −1 −1 − λ 1 
0
1
−λ
und damit
det (A − λE) = (−λ)(−1 − λ)(−λ) + 0 + 0 − 0 − (−λ) − (−λ) = −λ2 − λ3 + 2λ = 0
⇔ λ2 + λ3 − 2λ = λ(λ2 + λ − 2) = 0
3. EIGENWERTE UND EIGENVEKTOREN
133
und ergibt die Nullstellen λ1 = 0 sowie
2
λ + λ − 2 = 0 ⇐⇒ λ2,3
1
=− ±
2
r
1
+2
4
und die Nullstellen λ2 = 1 und λ3 = −2.
Wenn man die Determinante det (A − λE) = χA (λ) berechnet und nach Potenzen
von λ ordnet, so erhalt man
χA (λ) = (−λ)n + (spur A)(−λ)n−1 + . . . + det A,
wobei spur A = a11 + a22 + . . . + ann die Summe der Elemente der Hauptdiagonale ist.
Beispiel
4.10. Fur obige Matrix


0 −1 0


A =  −1 −1 1 
0
1 0
ist spur A = 0 − 1 + 0 = −1 und
Polynom
det A = 0,
was auch aus dem charakteristischen
χA (λ) = (−λ)3 + (−1)λ2 + 2λ + 0
ablesbar ist.
3.2. Algebraische Vielfachheit. Das charakteristische Polynom
χA (λ) = (−λ)n + (spur A)(−λ)n−1 + . . . + det A
ist folglich ein Polynom n-ten Grades (fur eine n × n-Matrix) und hat deshalb n
nicht notwendigerweise voneinander verschiedene komplexe Nullstellen λ1 , λ2 , . . . λn .
D.h. wir haben die Nullstelle λ1 mit der Vielfachheit k1 , die Nullstelle λ2 mit der
Vielfachheit k2 , . . . , die Nullstelle λr mit der Vielfachheit kr . Dabei kann man die
Eigenwerte der Groe nach ordnen λ1 ≤ λ2 ≤ . . . λr und es ist k1 + k2 + . . . + kr = n.
4.6. Man bezeichnet die Vielfachheit ki der Nullstelle λi als
die algebraische Vielfachheit des Eigenwertes λi .
Definition
3.3. Eigenvektoren, Eigenräume und geometrische Vielfachheit. Hat man
nun alle Eigenwerte der Matrix A bestimmt, so werden dann die Eigenvektoren be-
rechnet, d.h. man lost das Gleichungssystem
(A − λi E)~b = ~0,
i = 1, 2, . . . , r.
Da die Determinate der Koezientenmatrix gleich Null ist, besitzt das Gleichungssystem nichttriviale Losungen mit n − Rang (A − λi E) freien Parametern.
134
4. LINEARE ALGEBRA
Definition
4.7. Jede Losung ~b 6= ~0 von (A−λi E)~b = ~0 ist ein Eigenvektor
zum Eigenwert λi .
V (λi ) = {~b ∈ Cn : (A − λi E)~b = ~0} = Kern (A − λi E)
heit Eigenraum zum Eigenwert λi , (1 ≤ i ≤ r). Man nennt die Dimension des Eigenraumes Dim V (λi ) die geometrische Vielfachheit des
Eigenwertes λi .
Die algebraische und die geometrische Vielfachheit stimmen i. Allg. nicht uberein!
Wie man leicht sieht ist:
Dim V (λi ) = n − Rang (A − λi E).
Bemerkung
4.4. Da die Eigenwerte die Nullstellen des charakteristischen
Polynoms sind, gilt
χA (λ) = (−λ)n + (spur A)(−λ)n−1 + . . . + det A
= (λ − λ1 )k1 (λ − λ2 )k2 · · · (λ − λr )kr
= (−λ)n + (k1 λ1 + k2 λ2 + . . . + kr λr ) + . . . + λk11 λk22 · · · λkr r
mit den algebraischen Vielfachheiten ki ,
i = 1, 2, . . . , r.
Hieraus liest man ab,
spur A = k1 λ1 + k2 λ2 + . . . + kr λr
det A = λk11 λk22 · · · λkr r
Diese Formeln sind nutzlich fur Rechenkontrollen, auerdem gestattet insbesondere die 2. Formel Eigenwerte zu erraten, da die Eigenwerte Teiler des
Absolutgliedes des charakteristischen Polynoms sind.
Beispiel
4.11. Es sei

5 4 2


A =  4 5 2 .
2 2 2

3. EIGENWERTE UND EIGENVEKTOREN
135
Wir bestimmen die Eigenwerte als Nullstellen des charakteristischen Polynoms:
5−λ
1 − λ −1 + λ
4
2
0
=
det (A − λE) = 4
5−λ
2 5−λ
2 4
~z1 − ~z2
2
2
2
2−λ 2
2−λ 1−λ
0
0
=
9−λ
2 = (1 − λ)[(9 − λ)(2 − λ) − 8]
4
~s2 − ~s1
2
4
2−λ = (1 − λ)[18 − 11λ + λ2 − 8] = (1 − λ)(λ − 10)(λ − 1) = −(λ − 10)(λ − 1)2 .
Folglich hat die 3 × 3-Matrix A den Eigenwert λ1 = 1 mit der algebraischen Vielfachheit k1 = 2 und den Eigenwert λ2 = 10 mit der algebraischen Vielfachheit
k2 = 1.
Wir bestimmen nun die Eigenvektoren, zunachst fur λ1 = 1. Dazu losen wir das
Gleichungssystem

  
0
b1
4 4 2

  

(A − λ1 E)~b = ~0 ⇔  4 4 2   b2  =  0  ,
0
b3
2 2 1

das die Losung b1 = s, b2 = t, b3 = −2s − 2t mit
Eigenraum zum Eigenvektor λ1 = 1 :
t, s ∈ R
besitzt. Folglich ist der







0
1
s







V (λ1 ) = V (1) = 
t
 = s 0  + t 1 ,

 −2s − 2t
−2
−2

Die Vektoren

1


 0 
−2



s, t ∈ R .




0

und 
 1  bilden eine Basis von V (1). Deshalb hat
−2
Dimension 2 und der Eigenwert λ1 = 1 die geometrische
der Eigenraum die
Vielfachheit 2.
Nun zum Eigenwert λ2 = 10.


  
b1
0
−5 4
2


  
~
~
(A − λ2 E)b = 0 ⇔  4 −5 2   b2  =  0 
2
2 −8
0
b3
136
4. LINEARE ALGEBRA
und wird mittels Gau-Algorithmus umgeformt zu

−5 4
2

 4 −5 2
2
2 −8

≈
0

~z1 + 5~z3
 0
1
~z2 − 4~z3


0

0 
0
−5 4
2
≈

 4 −5 2
1
~z
2 3
1
1 −4
 
9
18 0
0 1 −2
 
−9 −18 0  ≈  0 1 −2
1 −4 0
1 1 −4

0

0 
0

0

0 
0
und hat die Losung b3 = r, b2 = 2r und b1 = −b2 + 4b3 = −2r + 4r = 2r mit r ∈ R
Folglich ist der Eigenraum zum Eigenvektor λ2 = 10 :



 


2

 2r


 
V (λ2 ) = V (10) =  2r  = r  2  , r ∈ R .




r
1
 
2
 
Eine Basis fur den Eigenraum V (10) ist der Vektor  2  und die Dimension
1
des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ2 = 10 die geometrische Vielfachheit 1. In diesem Beispiel stimmen die algebraische und die
geometrische Vielfachheit der Eigenwerte uberein, dass ist i.Allg. aber nicht so.
In diesem Beispiel stimmen die algebraische und die geometrische Vielfachheit
der Eigenwerte uberein, dass ist i.Allg. aber nicht so.
Beispiel
4.12. Gegeben sei
A=
a b
c d
!
∈ R2×2 .
Es werden zunachst die Eigenwerte als Nullstellen des charakteristischen Polynoms bestimmt:
a−λ
b
χA (λ) = c
d−λ
= (a − λ)(d − λ) − cb
= λ2 − (a + d)λ + (ad − bc)
= λ2 − (spur A)λ + det A = (λ − λ1 )(λ − λ2 ) = 0
Anschlieend wird fur jeden Eigenwert λi , i = 1, 2, der Eigenraum und eine
Basis des Eigenraums bestimmt. Dazu lost man das Gleichungssystem
a − λi
b
c
d − λi
!
b1
b2
!
=
Im Fall n = 2 gibt es somit 4 verschiedene Falle:
(1) λ1 , λ2 ∈ R,
λ1 6= λ2 ,
0
0
!
.
3. EIGENWERTE UND EIGENVEKTOREN
137
(2) λ1 = λ2 ∈ R algebraische = geometrische Vielfachheit = 2,
(3) λ1 = λ2 ∈ R algebraische Vielfach. = 2 6= geometrische Vielfachheit = 1,
(4) λ2 = λ1 ∈ C, λ1 6∈ R.
Es seien konkrete Zahlenbeispiele fur alle 4 Falle angegeben:
Es sei
!
1 2
2 1
A=
.
Wir bestimmen die Eigenwerte
χA (λ) = det (A−λE) =
1−λ
2
2
1−λ
hat die Nullstellen:
λ1,2 = 1 ±
!
= (1−λ)2 −4 = 1−2λ+λ2 −4 = λ2 −2λ−3 = 0
p
1 − (−3) = 1 ± 2.
Folglich hat A die beiden Eigenwerte λ1 = −1 und λ2 = 3. Die algebraische
Vielfachheit von λ1 = −1 und λ2 = 3 ist 1. Wir bestimmen nun die Eigenraume:
Fur λ1 = −1 :
!
x
y
(A − λ1 E)
2 2
2 2
=
!
x
y
!
−1
1
!
!
0
0
=
ergibt die Losung y = t und x = −t, d.h.
(
V (λ1 ) = V (−1) =
−t
t
!
=t
)
t∈R .
,
−1
1
Eine Basis fur den Eigenraum V (−1) ist der Vektor
!
und die Dimension
des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ1 = −1 die geometrische Vielfachheit 1. Nun fur λ2 = 3 :
(A − λ2 E)
x
y
!
=
−2 2
2 −2
!
x
y
!
=
0
0
!
ergibt die Losung y = t und x = t, d.h.
(
V (λ2 ) = V (3) =
t
t
!
1
1
=t
!
)
,
t∈R .
!
1
Eine Basis fur den Eigenraum V (3) ist der Vektor
und die Dimension
1
des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ2 = 3 die geometrische
Vielfachheit 1.
Es sei
A=
3 0
0 3
!
.
138
4. LINEARE ALGEBRA
Wir bestimmen die Eigenwerte
3−λ
0
0
3−λ
χA (λ) = det (A − λE) =
!
= (3 − λ)2 = 0
hat die Nullstelle:
λ1,2 = 3.
Folglich hat A die beiden Eigenwerte λ = λ1 = λ2 = 3. Die algebraische Vielfachheit von λ = 3 ist 2. Wir bestimmen nun den Eigenraum:
Fur λ = 3 :
!
!
!
!
(A − λE)
x
y
0 0
0 0
=
x
y
0
0
=
ist erfullt fur alle (x, y)T ∈ R2 , d.h. V (3) = R2 und der Eigenraum hat die
Dimension 2. D.h. der Eigenwert λ = 3 hat die algebraische und geometrische
Vielfachheit 2.
Es sei
!
2 1
0 2
A=
.
Wir bestimmen die Eigenwerte
2−λ
1
0
2−λ
χA (λ) = det (A − λE) =
!
= (2 − λ)2 = 0
hat die Nullstelle:
λ1,2 = 2.
Folglich hat A die beiden Eigenwerte λ = λ1 = λ2 = 2. Die algebraische Vielfachheit von λ = 2 ist 2. Wir bestimmen nun den Eigenraum:
Fur λ = 2 :
!
!
!
!
(A − λE)
x
y
=
0 1
0 0
x
y
!
!
0
0
=
und der Eigenraum ist
(
V (λ) = V (2) =
Eine Basis fur den Eigenraum
t
0
V (2)
=t
1
0
)
,
ist der Vektor
t∈R .
1
0
!
und die Dimension
des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ = 2 die geometrische
Vielfachheit 1.
Es sei
!
A=
cos ϕ − sin ϕ
sin ϕ cos ϕ
3. EIGENWERTE UND EIGENVEKTOREN
139
Bestimmung der Eigenwerte:
χA (λ) = det (A − λE) = det
cos ϕ − λ − sin ϕ
sin ϕ
cos ϕ − λ
!
= (cos ϕ − λ)2 + sin2 ϕ = 1 − 2λ cos ϕ + λ2 = 0
fur
λ1,2 = cos ϕ ±
p
cos2 ϕ − 1 = cos ϕ ± i sin ϕ.
Falls ϕ 6= kπ, k ∈ Z gibt es keine reellen Eigenwerte und damit auch keine
reellen Eigenvektoren. Die komplexen Eigenraume sind: Fur λ1 = cos ϕ + i sin ϕ :
x
y
(A − λ1 E)
!
=
!
cos ϕ − cos ϕ − i sin ϕ
− sin ϕ
sin ϕ
cos ϕ − cos ϕ − i sin ϕ
!
!
−i −1
x
= sin ϕ
=
1 −i
y
x
y
!
0
0
!
und hat die Losung y = t und x = it, und der Eigenraum ist
(
V (λ1 ) = V (cos ϕ + i sin ϕ) =
Eine Basis fur den Eigenraum
it
t
!
=t
V (cos ϕ + i sin ϕ)
i
1
!
)
t∈C .
,
ist der Vektor
erhalt man fur λ2 = cos ϕ − i sin ϕ :
(A − λ2 E)
x
y
!
=
i
1
!
.
!
cos ϕ − cos ϕ + i sin ϕ
− sin ϕ
sin ϕ
cos ϕ − cos ϕ + i sin ϕ
!
!
i −1
x
= sin ϕ
=
1 i
y
x
y
!
0
0
!
und hat die Losung y = t und x = −it, und der Eigenraum ist
(
V (λ) = V (cos ϕ + i sin ϕ) =
−it
t
!
=t
−i
1
!
)
,
t∈C .
Eine Basis fur den Eigenraum V (cos ϕ − i sin ϕ) ist der Vektor
Beispiel
4.13. Es sei


5 −7 7


A =  4 −3 4 
4 −1 2
−i
1
Analog
!
.
140
4. LINEARE ALGEBRA
Bestimmung der Eigenwerte
5−λ
−7
7
det (A − λE) = 4
−3 − λ
4
4
−1
2−λ
= (5 − λ)(−3 − λ)(2 − λ) − 16 · 7 − 28 + 28(3 + λ) + 4(5 − λ) + 28(2 − λ)
= (−15 − 2λ + λ2 )(2 − λ) − 112 − 28 + 28 · 5 + 20 − 4λ
= −30 − 4λ + 2λ2 + 15λ + 2λ2 − λ3 − 140 + 140 + 20 − 4λ
= −λ3 + 4λ2 + 7λ − 10 = 0.
Wir mussen den ersten Eigenwert "erraten\. Man ndet schnell, dass λ1
ein Eigenwert ist, die ubrigen Eigenwerte ndet man durch abdividieren:
(−λ3 + 4λ2 + 7λ− 10) : (λ − 1) = −λ2 + 3λ + 10
=1
−λ3 + λ2
3λ2 + 7λ
3λ2 − 3λ
10λ − 10
10λ − 10
0
Folglich ergeben sich die beiden anderen Eigenwerte aus
zu λ2,3
also λ2 = 5 und
sind fur λ1 = 1 :
λ3 = −2.
λ2 − 3λ + 10 = 0
r
3
3 7
9
= ±
+ 10 = ± ,
2
4
2 2
Die dazugehorigen Eigenvektoren und Eigenraume

(A − λ1 E)~x = ~0

≈
0 −6 6 0

~z1 − ~z3  0 −3 3 0
~z2 − ~z3
4 −1 1 0
Damit ist
λ1 = 1 ist
x3 = x2 = t
und

4 −7 7 0


⇐⇒  4 −4 4 0 
4 −1 1 0
 

0 −1 1 0
 

 ≈  0 −1 1 0  .
4 −1 1 0
x1 = 14 (t − t) = 0.
Der Eigenraum zum Eigenvektor
 
 

0
 0
 
 
V (λ1 ) = V (1) =  t  = t  1  ,

 t
1
t∈R





.
3. EIGENWERTE UND EIGENVEKTOREN
141
Fur λ2 = 5 :


0 −7 7 0


(A − λ2 E)~x = ~0 ⇐⇒  4 −8 4 0 
4 −1 −3 0
Damit ist
λ2 = 5 ist
x3 = x2 = t
und
x1 = 14 (t + 3t) = t.

0 −7 7 0
≈


 0 −7 7 0 
~z2 − ~z4
4 −1 −3 0

Der Eigenraum zum Eigenvektor
 
 

1
 t
 
 
V (λ2 ) = V (5) =  t  = t  1  ,

 t
1
t∈R



.


Fur λ3 = −2 :
(A − λ3 E)~x = ~0

≈
~z2 − ~z3
Damit ist
ist
1 −1 1

 0 0 0
4 −1 4
x2 = 0, x1 = t
und


−1 1 0

−1 4 0 
−1 4 0

0 1 0

0 0 0 .
1 0 0
x3 = −t.
Der Eigenraum zum Eigenvektor
 
1
7 −7 7 0
 

⇐⇒  4 −1 4 0  ≈  4
4 −1 4 0
4
 
 
1 −1 1 0
1
0
 
 
0 ≈ 0 0 0 0 ≈ 0
0
0 3 0 0
0





1
t





V (λ3 ) = V (−2) =  0  = t  0  ,

 −t
−1
λ3 = −2



t∈R .


Alle Eigenwerte λ1 , λ2 , λ3 haben die algebraische und die geometrische Vielfachheit 1.
3.4. Invarianten.
4.5. Es sei A eine reelle oder komplexe n × n-Matrix. Dann gilt:
(1) A und die transponierte Matrix AT haben dasselbe charakteristische Polynom, deshalb besitzen sie dieselben Eigenwerte ( aber
im Allg. andere Eigenraume).
(2) Die ahnlichen Matrizen A und B −1 AB haben dasselbe charakte-
Satz
ristische Polynom und deshalb auch dieselben Eigenwerte; ~b ist
ein Eigenvektor zu A genau dann wenn B −1~b Eigenvektor von
B −1 AB ist.
(3) Die Matrix A ist genau dann invertierbar, wenn alle Eigenwerte
6= 0 sind. Ist λ ein Eigenwert von A mit dem Eigenvektor ~b, dann
ist λ−1 Eigenwert von A−1 mit demselben Eigenvektor ~b.
142
4. LINEARE ALGEBRA
Beweis: zu (1): Es gilt (A − λE)T = AT − λE T = AT − λE und
det (A − λE) = det (A − λE)T = det (AT − λE).
Beide Polynome sind also identisch und haben damit dieselben Nullstellen = Eigenwerte.
zu (2): Es gilt
det (A−λE) = det B −1 ·det (A−λE)·det B = det (B −1 (A−λE)B) = det (B −1 AB−λE).
Damit sind beide charakteristische Polynome identisch und haben dieselben Nullstelle = Eigenwerte. Weiterhin gilt
A~b = λ~b ⇐⇒ ABB −1~b = λBB −1~b = B(λB −1~b) ⇐⇒ (B −1 AB)(B −1~b) = λ(B −1~b).
zu (3): det A = λk11 λk22 · · · λkr r 6= 0 ⇐⇒ λi 6= 0 fur alle i = 1, 2, . . . , r. Auerdem
ist
1
A~b = λ~b ⇐⇒ ~b = λA−1~b ⇐⇒ A−1~b = ~b.
λ
#
4.5. Die Koezienten des charakteristischen Polynoms χA (λ)
sind Invarianten der n × n-Matrix A, bzw. Invarianten der zugehorigen linearen
Bemerkung
Abbildung ~x → A~x, da sie sich bei einem Basiswechsel nicht andern.
Satz
4.6. Eigenvektoren ~b1 , ~b2 , . . . , ~br zu paarweise verschiedenen Eigen-
werten sind linear unabhangig.
Beweis: Aus
α1~b1 + α2~b2 + . . . + αr~br = ~0
folgt nach Anwendung von A :
α1 A~b1 + α2 A~b2 + . . . + αr A~br = α1 λ1~b1 + α2 λ~b2 + . . . + αr λr~br = ~0
und nach Subtraktion von
λ1 (α1~b1 + α2~b2 + . . . + αr~br ) = ~0
erhalt man
(λ1 − λ2 )α2~b2 + (λ1 − λr ) . . . + αr~br = ~0.
Wendet man auf diese Gleichung wiederum A an und subtrahiert das λ2 -fache dieser
Gleichung, so folgt:
(λ1 − λ3 )(λ2 − λ) α3~b3 + . . . + (λ1 − λr )(λ2 − λr )αr~br = ~0.
Sukzessive Fortsetzung ergibt
(λ1 − λr )(λ2 − λr ) · · · (λr−1 − λr )αr~br = ~0
3. EIGENWERTE UND EIGENVEKTOREN
143
woraus αr = 0 folgt. Dies ergibt ruckwarts eingesetzt αr−1 = . . . = α2 = α1 = 0.
#
3.5. Diagonalisierung. Besonders g
unstig ist der Fall, wenn man eine Basis aus
Eigenvektoren bilden kann:
Satz
4.7. Besitzt eine reelle oder komplexe n × n-Matrix n linear un-
abhangige Eigenvektoren ~b1 , ~b2 , . . . , ~bn mit A~bi = λi~bi , und den nicht notwendiger Weise verschiedenen Eigenwerten λi , dann bringt die Transformationsmatrix
B = (~b1
~b2 . . .
~bn )
(mit den Eigenvektoren als Spalten) die Matrix A auf Diagonalform,
d.h., es gilt, wenn die Reihenfolge der λi mit den der ~bi ubereinstimmt,




B −1 AB = 


Beweis: AB = (A~b1
Beispiel
A~b2 . . .
λ1 0 0 . . .
0 λ2 0 . . .
0 0 λ3 . . .
0
0
0
..
.
..
.
.. . . . ..
.
.
0
0
0
A~bn ) = (λ1~b1




 =: D.


. . . λn
λ2~b2 . . .
λn~bn ) = BD.
#
4.14. Es sei


−2 −8 −12


A= 1
4
4 .
0
0
1
Man berechne A100 . Es ist von sehr groem Nutzen, wenn es gelingt A durch
eine entsprechende Transformation auf Diagonalgestalt zu bringen, denn dann
gilt:
Ak = (BDB −1 )k = (BDB −1 )(BDB −1 )(BDB −1 ) · · · (BDB −1 )

 k
λ1 0 . . . 0
 0 λk . . . 0 
2

 −1
k −1
= BD B = B  .
B .
.
.
.
.
.
.
.
 .
. . 
.
0 0 . . . λkn
144
4. LINEARE ALGEBRA
1. Wir bestimmen die Eigenwerte von A :
−2 − λ −8
−12
det (A − λE) = 1
4−λ
4
0
0
1−λ
= (−2 − λ)(4 − λ)(1 − λ) + 8(1 − λ) = (−2λ + λ2 )(1 − λ) = λ(λ − 2)(1 − λ) = 0
und wir erhalten die Eigenwerte λ1 = 0, λ2 = 1, λ3 = 2.
2. Wir bestimmen die Eigenvektoren: zu losen ist des GS (A − λi E)~b = ~0 :
fur
λ1 = 0 :

−2 −8 −12 0
−2 −8 0 0
0 0 0 0

 
 

4
4 0 ≈ 1
4 0 0 ≈ 1 4 0 0 
 1
0
0
1 0
0
0 1 0
0 0 1 0









4
4
4t








V (λ1 ) = V (0) =  −t  = t  −1  , t ∈ R , ~b1 =  −1  .




0
0
0





fur



−3 −8 −12 0
0 1

 
3
4 0 ≈ 1 3
 1
0
0
0 0
0 0





4
4t





V (λ2 ) = V (1) =  0  = t  0  ,

 −t
−1
λ2 = 1 :

0 0
0 1 0 0
 

4 0 ≈ 1 0 4 0 
0 0
0 0 0 0




4



t ∈ R , ~b2 =  0  .


−1


fur
λ3 = 2 :

−4 −8 −12 0
−4 −8 0 0
0 0 0 0

 
 

2
4 0 ≈ 1
2 0 0 ≈ 1 2 0 0 
 1
0
0 −1 0
0
0 1 0
0 0 1 0









2t
2
2








V (λ1 ) = V (0) =  −t  = t  −1  , t ∈ R , ~b1 =  −1  .




0
0
0




3. Diagonalisierung:

4
4
2


B =  −1 0 −1 
0 −1 0


3. EIGENWERTE UND EIGENVEKTOREN
145
Wir bestimmen B −1 :

 
 

4
4
2 1 0 0
4 4 2 1 0
0
2 4 0 1 2
0

 
 

 −1 0 −1 0 1 0  ≈  1 0 1 0 −1 0  ≈  1 0 1 0 −1 0 
0 −1 0 0 0 1
0 1 0 0 0 −1
0 1 0 0 0 −1

 

4
1
2
2 0 0 1 2
1 0 0 12

 

≈  1 0 1 0 −1 0  ≈  0 0 1 − 12 −2 2 
0 1 0 0
0 1 0 0 0 −1
0 −1
Damit ist

1
2

B −1 =  0
− 21
und

1
2

0 −1 
−2 2


4
4
2
0 0 0


100
100 −1
A = BD B =  −1 0 −1   0 1 0
0 −1 0
0 0 2100


 
1
0 4
2101
1
2
−2100
2


 
0 −1  =  299
 0 0 −2100   0
0
0 −1
0
− 21 −2 2
Satz


1
2


0 −1 
 0
− 21 −2 2

−2102 −4 − 2102

2101
2101
.
0
1
1
2
4.8. (Eigenwertproblem für symmetrische Matrizen)
Fur jede reelle symmetrische n × n-Matrix gilt:
(1) Alle Eigenwerte von A sind reell.
(2) Eigenvektoren zu verschiedenen Eigenwerten von A sind orthogonal.
(3) Algebraische und geometrische Vielfachheit jedes Eigenwertes
sind gleich.
Beweis: Wir beweisen nur die erste Eigenschaft. Ist λ ∈ C ein Eigenwert und ~b ∈ Cn
ein Eigenvektor von A, so folgt A~b = λ ~b und durch komplexe Konjugation
A~b = λ ~b ⇐⇒ A~b = λ~b ⇐⇒ A~b = λ~b,
da A reell ist. Damit erhalt man
λ~bT~b = (A~b)T~bT = ~bT AT~b = ~bT λ~b = λ~bT~b
und wegen
~bT~b =
n
X
i=1
bi bi =
n
X
i=1
|bi |2 > 0
146
4. LINEARE ALGEBRA
ergibt sich λ = λ und folglich ist λ eine reelle Zahl.
#
4. Positiv definite Matrizen
Die Bestimmung der Extremwerte einer reellen Funktion in n Veranderlichen ist
eng verbunden mit der Frage, wann eine quadratische Form q(~x) = ~xT A~x fur ~x 6= ~0
nur positive oder nur negative Werte annimmt.
Definition
4.8. Eine quadratische Form q(~x) = ~xT A~x bzw. die zugehori-
ge symmetrische Matrix A, heit positiv definit (negativ definit), wenn
aus ~x 6= ~0 stets q(~x) = ~xT A~x > 0 (q(~x) = ~xT A~x < 0) folgt.
Die quadratische Form heit indefinit, wenn sie sowohl positive als auch
negative Werte annimmt. Sie heit positiv (negativ) semidenit, wenn
stets q(~x) = ~xT A~x ≥ 0 (q(~x) = ~xT A~x ≤ 0) gilt.
Bemerkung
4.6. In der speziellen Relativitatstheorie spielen die nach H.A.Lorentz
benannten Transformationen





x0
y0
z0
t0




=W





x
y
z
t



,

mit einer 4 × 4 Matrix W des Raum-Zeit-Kontinuums, so dass die quadratische
Form
q(x, y, z, t) = x2 + y 2 + z 2 − c2 t2
invariant bleibt, eine wichtige Rolle. Diese quadratische Form ist indenit; es
gibt "raumartige\ Vektoren ~u ∈ R4 mit q(~u) > 0 und "zeitartige\ Vektoren ~v ∈ R4
mit q(~v) < 0.
4.9. Notwendige Bedinung: Wenn die symmetrische Matrix A
positiv denit ist, so mussen alle Hauptdiagonalelemente positiv sein.
Satz
Beweis: Ist die Matrix A positiv denit, so muss insbesondere f
ur die EinheitsvekT
toren e~i gelten ~ei A~ei = aii > 0.
#
4. POSITIV DEFINITE MATRIZEN
Beispiel
147
4.15. Die Matrix


1
2 −2


A =  2 −5 −4 
−2 −4 5
ist nicht positiv denit.
4.10. Positivitat reeller symmetrischer Matrizen:
(1) D = diag (α1 , α2 , . . . , αn ) ist genau dann positiv denit, wenn
Satz
positiv sind.
(2) Die reelle symmetrische Matrix A (also A = AT ) ist genau dann
positiv denit, wenn W T AW fur irgend eine invertierbare n × n
Matrix W positiv denit ist.
(3) Die relle symmetrische Matrix A ist genau dann positiv denit,
wenn samtliche Eigenwerte von A positiv sind.
alle αi
P
ur alle ~x 6= ~0 ⇐⇒ alle αi > 0.
Beweis: zu 1) q(~x) = ~xT D~x = ni=1 αi x2i > 0 f
zu 2) A positiv denit, dann gilt ~xT (W T AW )~x = (~xW )T A(W ~x) > 0 fur alle ~x 6= ~0,
ist dagegen W T AW positiv denit, so folgt (W −1 )T (W T AW )W −1 = A ist positiv
denit.
3) folgt aus 1) und 2) mit einem Hauptachsensystem W.
Beispiel
#
4.16. Die Matrix


1
2 −2


A= 2
5 −4 
−2 −4 5
ist positiv denit mit den Eigenwerten λ1 = 1, λ2 = 5 +
√
24
und λ3 = 5 −
√
24.
Herunterladen