Lineare Algebra

Werbung
TECHNISCHE UNIVERSITÄT MÜNCHEN
FERIENKURS
Lineare Algebra
FLORIAN NIEDERREITER & AILEEN WOLF
07.03.2016 - 11.03.2016
Inhaltsverzeichnis
Inhaltsverzeichnis
1 Darstellungsmatrizen
2
2 Diagonalisierbarkeit
3
3 Jordan Normalform
4
4 Gram-Schmidt-Verfahren zur Bestimmung einer Orthonormalbasis
4.1 Orthonormalbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Gram-Schmidt-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
5
6
5 Matrixexponential
6
1
1
1
Darstellungsmatrizen
Darstellungsmatrizen
Satz 1.0.1 Sei stets f : V → W eine lineare Abbildung eines n-dimensionalen K-Vektorraums V in einen mdimensionalen K-Vektorraum W. Es gibt nicht die Matrix, die eine lineare Abbildung f beschreibt, sondern viele,
und zwar zu jeder Basis von V und jeder Basis von W genau eine.
Wir wählen also eine Basis B = v1 , ..., vn von V und eine Basis C = w1 , ..., w m von W und halten diese
Bezeichnungen fest. Der entscheidende Punkt ist, dass wir die Bilder der Elemente v j aus B als Linearkombination der Basis C ausdrücken:
f (v j ) = a1 j w1 + a2 j w2 + ... + am j w m ( j = 1, ..., n)
mit ai j ∈ K.
Dadurch werden m · n Körperelemente ai j definiert; diese fassen wir in der Matrix A zusammen:

a11
 a21
A = MB,C ( f ) = 
 ...
am1
a12
a22
..
.
···
···

a1n
a2n 
.
.. 
. 
am2 · · · amn
Jede so gewonnene Matrix MB,C ( f ) wird eine Darstellungsmatrix der linearen Abbildung f genannt. Wie
kann man sich eine solche Darstellungsmatrix A vorstellen? Die Merkregel lautet:
Die Koeffizienten des Bildes von v j sind die Einträge in der j-ten Spalte von A.
Beispiel 1.0.1 Sei f die Abbildung von R2 in sich, die durch folgende Vorschrift definiert ist:
f : (x, y) 7→ (3x − 2 y, x + y).
Wir unterscheiden verschiedene Wahlen der Basen B und C.
• Sei zunächst B = C = {(1, 0), (0, 1)}. Dann ist
3 −2
MBC ( f ) = MBB ( f ) =
1 1
• Sei jetzt B = {(5, 8), (−1, 1)} und C = {(0, 1), (1, 1)}. Dann ist
14 5
MBC ( f ) =
−1 −5
da f (5, 8) = (−1, 13) = 14 · (0, 1) + (−1) · (1, 1) und f (−1, 1) = (−5, 0) = 5 · (0, 1) + (−5) · (1, 1).
Satz 1.0.2 Wenn A eine Darstellungsmatrix der linearen Abbildung f : V → W ist, so gilt
dim(Bild(f)) = Rang(A) .
Insbesondere ist Rang(A) unabhängig von der Wahl der Darstellungsmatrix A von f. Man nennt diese Zahl
daher auch den Rang von f.
2
2
Diagonalisierbarkeit
Satz 1.0.3 Darstellungsmatrix des Produkts von linearen Abbildungen:
Seien V1 , V2 , V3 Vektorräume über dem Körper K; seien g : V1 → V2 und f : V2 → V3 lineare Abbildungen. Sei
Bi eine Basis von Vi (i = 1, 2, 3) und sei A = MB1 B2 (g), B = MB2 B3 ( f ). Dann ist
MB1 B3 ( f ◦ g) = BA.
Kurz: Hintereinanderausführungen von linearen Abbildungen entspricht der Multiplikation von Matrizen.
Satz 1.0.4 Ähnlichkeit von Darstellungsmatrizen:
Sei f eine lineare Abbildung eines n-dimensionalen K-Vektorraums V in sich, und seien B, B’ Basen von V. Seien
A = MBB ( f ) und A0 = MB0 B0 ( f ). Dann gibt es eine invertierbare Matrix S mit
A0 = S −1 AS
2
Diagonalisierbarkeit
Wir haben gesehen, dass sich jede lineare Abbildung eines Vektorraums V in einen Vektorraum W durch eine
Matrix darstellen lässt. Diese Darstellungsmatrix hängt von der Auswahl einer Basis von V und einer Basis
von W ab. Es stellt sich somit die Frage, ob man durch geeignete Wahl dieser Basen die Darstellungsmatrix
möglichst einfach gestalten kann. Einfach heißt in diesem Sinne: Man muss mit Matrizen gut rechnen
können! Insbesondere müssen die Multiplikation mit einem Vektor bzw. einer weiteren Matrix einfach
auszuführen sein. Das Ideal sind hier Matrizen, die möglichst viele Nullen haben, in diesem Fall: Matrizen
die außerhalb ihrer Diagonalen nur Nullen haben, sogenannte „Diagonalmatrizen“.
Definition 2.0.1 Sei f eine lineare Abbildung des K-Vektorraums V in sich. Dann heißt f diagonalisierbar,
wenn es eine Basis B von V gibt, so dass in der Darstellungsmatrix MBB ( f ) höchstens auf der Diagonalen von
Null verschiedene Elemente stehen. Eine solche Matrix heißt auch Diagonalmatrix.
Satz 2.0.1 0. Kriterium zur Diagonalisierbarkeit Eine lineare Abbildung f von V in sich ist genau dann
diagonalisierbar, wenn es eine Basis von V aus Eigenvektoren gibt.
Satz 2.0.2 1. Kriterium zur Diagonalisierbarkeit Eine lineare Abbildung f von V in sich ist genau dann
diagonalisierbar, wenn die Summe der Dimension ihrer Eigenräume mindestens n ist.
Satz 2.0.3 2. Kriterium zur Diagonalisierbarkeit Die lineare Abbildung f ist genau dann diagonalisierbar,
wenn
(a) Das charakteristische Polynom χ f über K vollständig in Linearfaktoren zerfällt, und
(b) für jeden Eigenwert k gilt, dass die Dimension seines Eigenraumes seiner Vielfachheit entspricht:
d im(Ei g( f , k)) = v( f , k).
Verfahren zur Überprüfung der Diagonalisierbarkeit:
1. Berechne irgendeine Darstellungsmatrix der linearen Abbildung.
2. Bestimme das charakteristische Polynom.
3. Zerlege, wenn möglich, das charakteristische Polynom in Linearfaktoren.
4. Bestimme die Dimension der Eigenräume.
3
3
Jordan Normalform
Beispiel 2.0.1 Wir betrachten die folgende reelle 3 × 3 Matrix


0 2 −1
M = 2 −1 1  .
2 −1 3
Das charakteristische Polynom bestimmt sich zu: −(λ − 2)2 (x + 2).
Nun ist zu überprüfen, ob Eig(M,2) die Dimension 1 (M nicht diagonalisierbar) oder 2 (M diagonalisierbar)
hat.
Sei v = (a, b, c) T ein Eigenvektor zum Eigenwert 2 von M. Dann gilt:

   
0 2 −1
a
2a
M v = 2 −1 1   b = 2b ,
2 −1 3
c
2c
also: 2b − c = 2a, 2a − b + c = 2b, 2a − b + 3c = 2c .
Man sieht unmittelbar, dass dann b = 0 sein muss, und es folgt
Ei g(M , 2) = {(a, 0, −2a)|a ∈ R}.
Da dieser Eigenraum nur die Dimension 1 hat, ist M also nicht diagonalisierbar.
Kann eine Matrix A nun in eine Diagonalmatrix D übergeführt werden, bedeutet das:
D = T −1 AT
Es existiert somit eine invertierbare Transformationsmatrix T, die A in Diagonalgestalt bringt.
Die Spalten von T sind die Eigenvektoren zu je einem der Eigenwerte von A (d.h. die Basen der Eigenräume).
3
Jordan Normalform
Es ist nicht immer möglich, eine Matrix in Diagonalgestalt und somit möglichst einfach darzustellen. Die
nächstbeste Darstellung ist damit die Darstellung als Jordan-Matrix, die sich dadurch auszeichnet, dass in
der oberen Nebendiagonale zusätzlich 1-er (und je nachdem auch 0-er) stehen:
Definition 3.0.1 Ein Jordan-Block der Länge e ist eine Matrix von der Form

λ

J =

1
..
.
0
..
.


 ∈ K e×e ,
1
λ
0
wobei λ ∈ K und e ∈ N>0 .
Eine quadratische Matrix A ∈ K n×n heißt in Jordan Normalform, falls A eine Block-Diagonalmatrix ist mit
Jordan-Blöcken Ji als Diagonalblöcke.
Satz 3.0.1 Es seien A ∈ K n×n eine Matrix, deren charakteristisches Polynom in Linearfaktoren zerfällt, B ∈
K n×n eine Jordan-Normalform von A und λ ∈ K ein Eigenwert von A.
4
4
Gram-Schmidt-Verfahren zur Bestimmung einer Orthonormalbasis
a) Für e ∈ N>0 ist die Anzahl der Jordan-Blöcke in B der Länge e mit Diagonaleinträgen λ
r g(A − λ1n )e−1 − 2r g(A − λ1n )e + r g(A − λ1n )e+1 .
b) Die Gesamtlänge aller Jordan-Blöcke mit Diagonaleinträgen λ ist die algebraische Vielfachheit ma (λ).
c) Die Anzahl der Jordan-Blöcke mit Diagonaleinträgen λ ist die geometrische Vielfachheit m g (λ).
Weiterhin entspricht n − r g(A − λ1) der Anzahl der Jordan-Blöcke.
Beispiel 3.0.1 Gegeben ist die Matrix


3 4 3
A = −1 0 −1 ,
1 2 3
das charakteristische Polynom ist −(λ − 2)3 .
Damit wissen wir schonmal:
• Es gibt nur den Eigenwert λ = 2
• Die algebraische Vielfachheit ist 3, was der Gesamtlänge der Jordan-Blöcke zum Eigenwert 2 entspricht.
Nun berechnen wir



1
4
3
1 0 −1
r g(A − 21) = r g −1 −2 −1 r g 0 1 1  = 2
1
2
1
0 0 0

somit gibt es n − 2 = 3 − 2 = 1 Jordan-Kästchen zum Eigenwert 2.
Die Jordan-Normalform sieht also folgendermaßen aus:


2 1 0

2 1 .
2
4
4.1
Gram-Schmidt-Verfahren zur Bestimmung einer Orthonormalbasis
Orthonormalbasis
Vektoren sind orthogonal, wenn sie senkrecht aufeinander stehen.
Ein Vektor ist normiert, wenn er den Betrag 1 hat.
⇒ eine Basis ist orthonormal, wenn ihre Vektoren senkrecht aufeinander stehen und die Länge (den Betrag)
1 haben.
5
5
4.2
Matrixexponential
Gram-Schmidt-Verfahren
→
→
→
Seien −
x ,−
y und −
z für dieses Beispiel 3 Vektoren im R3 . Ein Vektor wird gewählt und als erster Basisvektor
−
→
→
b1 definiert. Dieser Vektor wird nun normiert. FÃ 14 r diese Erklärung wurde der Vektor −
x gewählt.
−
→
x
b1 = −
→
|x|
(1)
−
→
Im nächsten Schritt wird die Basiskomponente senkrecht zu b1 gesucht. Über Vektorsubtraktion bestimmen
−
→
−
→
−
→
→
wir b2 indem wir die Projektion des Vektors −
y auf b1 von ihm subtrahieren. B2 sei nun der noch nicht
normierte Basisvektor.
−
→
−
→
−
→ →
→
B2 = −
y−<−
y · b1 > b1
(2)
−
→
B2
b2 = −
→
| B2 |
(3)
−
→
Um nun den dritten Basisvektor zu bestimmen wird, der vorherige schritt auf beide Basisvektoren b1 und
−
→
b2 angewendet. Dies erreicht man indem man beide Projektionen vom ursprünglichen Vektor abzieht.
5
−
→
−
→
−
→
−
→
−
→ →
→
→
B3 = −
z −<−
z · b1 > b1 − < −
z · b2 > b2
(4)
−
→
B3
b3 = −
→
| B3 |
(5)
Matrixexponential
Sei A eine Matrix und S die Matrix mit den zugehörigen Eigenwerten von A auf der Diagonale. Zur Erinnerung die Summenformel der Exponentialfunktion ist:
ex = Σ
xn
n!
(6)
Dies gilt auch fà 14 r Matrizen
An
(7)
n!
Dies ist jedoch mit viel Rechenarbeit verbunden, da Matrizen mit Potenzen mit sich selbst multipliziert
werden. Sollten also die höheren Glieder die 0-Matrix ergeben, so ist es über die Summenform lösbar. Dies
ist allerdings nicht immer der Fall. (Bsp. 3)
eA = Σ
A3 = A · A · A
(8)
Einfacher geht es mit der Eigenschaften der Eigenvektoren und Eigenwerte. Da Multiplikation einer Matrix
die Eigenvektoren nicht verändert, jedoch nur die Eigenwerte in der Potenz erhöht. Man kann die Matrix
A zur Matrix S umschreiben, indem man die Transformationsmatrix T = <EV> verwendet. Mit A = T S T −1
wird das Beispiel mit A3 zu
A3 = T S T −1 · T S T −1 · T S T −1 = T S 3 T −1
(9)
Nun wirkt die e-Funktion nur noch auf die Diagonalelemente und wir können unser Matrixeponential wie
folgt lösen
−1
U = eA = e T ST = T · eS · T −1
(10)
6
Herunterladen