1 Lineare Algebra

Werbung
1
Lineare Algebra
1.1
Slide 3
Matrizen und Vektoren
Matrizen
• Eine Matrix ist ein rechteckiges Zahlenschema
• eine n × m-Matrix A besteht aus n Zeilen
Matrixelementen aij , i=1...n und j=1...m

a11 a12 . . .
 a21 a22 . . .

A = A =  ..
..
...
 .
.
an1 an2 . . .
und m Spalten mit den
a1m
a2m
..
.





anm
• die aij sind reelle oder komplexe Zahlen
• eine n × 1-Matrix (Spaltenmatrix) heißt (Spalten)Vektor

 

v11
v1
 v21   v2 
 

~v = v = 
 ...  =  ... 
vn1
vn
• Zwei Matrizen A und B sind gleich, wenn die Zahl der Zeilen in A und
B gleich sind, die Zahl der Spalten in A und B gleich sind, und wenn
gilt aij = bij ∀i, j.
Slide 4
Matrixoperationen
• Wenn A und B beides n × m-Matrizen sind, dann ist die Summe der
Matrizen C = A + B definiert als
cij = aij + bij
mit
3
1≤i≤n
und
1≤j≤m
• Wenn A eine m × l-Matrix und B eine l × n-Matrix ist, dann ist das
Matrixprodukt C = A · B definiert als
cij =
l
X
aik · bkj
mit
1≤i≤m
und
1≤j≤n
k=1
Die Zahl der Spalten von A muss gleich der Zahl der Zeilen von B
sein!!
• skalare Multiplikation:
B = kA bedeutet bij = k · aij
∀i, j
k∈R
• Die Multiplikation von Matrizen ist assoziativ aber ia. nicht kommutativ. Für Addition und Multiplikation gilt das Distributivgesetz.
A · B 6= B · A
A · (B · C) = (A · B) · C
A · (B + C) = (A · B) + (A · C)
1.2
Slide 5
Spezielle Matrizen
Spezielle Matrizen
• Eine quadratische Matrix hat genauso viele Zeilen wie Spalten (n × nMatrix). n heißt die Ordnung der Matrix.
• Eine diagonale Matrix D besitzt lediglich auf der Hauptdiagonalen (i =
j) von Null verschiedene Elemente.


d11 0
0
... 0
 0
d22 0
... 0 


 0

0
d
.
.
.
0
33
dij = dij δij = 

 ..

..
..
..
.
.

 .
. .
.
.
0
0
0
. . . dnn
mit dem Kronecker-δ-Symbol δij = 1, wenn i = j und δij = 0 wenn
i 6= j.
4
• Die spezielle diagonale Matrix E mit eij = δij heißt Einheitsmatrix.
• Eine Obere Dreiecksmatrix hat

u11
 0


uij =  0
 ..
 .
0
die Form
u12
u22
0
..
.
u13
u23
u33
..
.
...
...
...
..
.
u1n
u2n
u3n
..
.
0
0
. . . unn







also uij = 0 wenn i > j.
• Analog heißt L eine Untere Dreiecksmatrix, wenn Sie die folgende Form
(lij = 0 wenn i < j) besitzt:


l11 0 0 . . . 0
 l21 l22 0 . . . 0 




lij =  l31 l32 l33 . . . 0 
 ..
..
..
. . . .. 
 .
.
.
. 
ln1 ln2 ln3 . . . lnn
• Die Matrix N mit nij = 0 ∀i, j heißt Nullmatrix.
• Die Matrix T = S T heißt die Transponierte von S, wenn gilt
tij = sji
∀i, j
• Eine 1 × n-Matrix S heißt Zeilenvektor. S ist die Transponierte eines
Spaltenvektors A, also
oder S = AT
s1n = an1
.
• Das Produkt eines Zeilenvektors mit einem Spaltenvektor
S ·V =
n
X
i=1
heißt Skalarprodukt
5
si vi
• Das Produkt eines Spaltenvektors mit einem Zeilenvektor
V · S = A mit aij = vi sj
heißt äußeres Produkt oder Tensorprodukt und ist eine quadratische
Matrix.
• Die Matrix S heißt symmetrisch, wenn gilt
sij = sji
∀i, j
• Die Matrix A heißt antisymmetrisch, wenn gilt
aij = −aji
∀i, j
. Insbesondere gilt hier aii = 0
• Die Matrix B = A† ist die Adjungierte von A, wenn gilt
bij = (aji )∗
• Die Matrix H heißt hermitesch, wenn sie gleich Ihrer Adjungierten ist
(wenn sie also selbstadjungiert ist). Dann gilt
hij = (hji )∗
∀i, j
Insbesondere gilt, dass die Diagonalelemente reell sind, also hii = (hii )∗ .
Wenn alle Matrixelemente reell sind, ist die Matrix sowohl hermitesch
als auch symmetrisch.
1.3
Slide 6
Die Spur einer Matrix
Die Spur einer Matrix
• Die Summe der Diagonalelemente aii einer Matrix A
T r(A) =
N
X
aii
i=1
heißt die Spur der Matrix A.
• die Spur der n-dimensionalen Einheitsmatrix ist gleich n: T r(En ) = n
6
1.4
Slide 7
Matrixdeterminanten
Determinanten
I
• Es gibt N ! verschiedene Permutationen der Zahlen 1, 2, . . . N
• Die Determinante einer N × N -Matrix A ist eine Zahl, berechnet nach
a11 . . . a1N ..
det(A) = |A| = ...
.
aN 1 . . . aN N N!
X
=
(−1)pi Pi a11 a22 . . . aN N
i=1
• Pi ist ein Permutationsoperator, der die Spaltenindizes vertauscht. Die
Summe läuft über alle N ! Permutationen.
Slide 8
Determinanten
II
N!
X
detA =
(−1)pi Pi a11 a22 . . . aN N
i=1
• pi ist die Zahl der Transpositionen (Vertauschungen), die zur Wiederherstellung der Diagonalform notwendig sind.
• Es ist nur wichtig, ob die Zahl der Transpositionen gerade oder ungerade
ist.
Slide 9
7
Determinanten von 1 × 1 und 2 × 2-Matrizen
a11 a12
• Sei A =
a21 a22
• Es gibt 2 Permutationen der Zeilenindizes
1 2 (p1 = 0)
2 1 (p1 = 1)
• Nach der Definition ist also
a11 a12 0
1
a21 a22 = (−1) a11 a22 + (−1) a12 a21
= a11 a22 − a12 a21
• Die Determinante einer 1 × 1-Matrix ist das Matrixelement a11
det(a11 ) = a11
Slide 10
3 × 3-Determinanten
• Entwicklungssatz
a11 a12 a13
a21 a22 a23
a31 a32 a33
= a11 a22 a23 a32 a33 a21 a22 a21 a23 −a12 + a13 a31 a33 a31 a32 = a11 a22 a33 − a11 a23 a32 − a12 a21 a33
+a12 a31 a23 + a13 a21 a32 − a13 a31 a22
• Die 2 × 2-Determinante, die sich durch Streichen der i. Reihe und j.
Spalte einer Determinante ergibt, heißt Minore oder Unterdeterminante
Mij
• Der Cofaktor Cij (oft auch ãij ) ist definiert als
Cij = (−1)i+j Mij
Slide 11
8
Determinanten gößerer Matrizen
• Verallgemeinerung: (n−1)×(n−1)-Unterdeterminanten Mij entstehen
durch Streichen der i. Reihe und j. Spalte einer n × n-Determinante
• Verallgemeinerung des Entwicklungssatzes
a11 . . . a1N N
N
X
X
..
det(A) = ...
=
a
C
=
alk Clk
kl kl
.
l=1
aN 1 . . . aN N l=1
• Entwicklung nach beliebigen Zeilen oder Spalten möglich
• jede der n verschiedenen (n − 1) × (n − 1)-Determinanten kann dann
(rekursiv) wieder nach dem Entwicklungssatz berechnet werden, bis zur
Ordnung 2 (oder 1).
Slide 12
Eigenschaften von Determinanten
• det(AT ) = det(A) ⇒
det(A† ) = det(A)∗
• det(A · B) = det(A) · detB
• det A = 0, wenn alle Elemente einer Zeile (Spalte) gleich 0 sind
• Vertauschen von zwei Reihen (Spalten) ändert das Vorzeichen der Determinante
• det A = 0, wenn zwei Reihen (Spalten) identisch sind
• Der Wert der Determinante bleibt unverändert, wenn man ein beliebiges Vielfaches einer Reihe (Spalte) zu einer anderen Reihe (Spalte)
addiert.
• die Determinanten einer Diagonalmatrix oder einer (oberen oder unteren) Dreiecksmatrix sind gleich dem Produkt der Diagonalelemente!
1.5
Slide 13
Inverse Matrizen
9
Inverse Matrix
I
• Die Matrix B = A−1 heißt die Linksinverse von A, wenn gilt
A−1 · A = E
.
• Analog heißt die Matrix C = A−1 die Rechtsinverse von A, wenn gilt
A · A−1 = E
.
• Für quadratische Matrizen sind die Rechts- und die Linksinverse gleich
und heißt die Inverse Matrix von A
A · A−1 = A−1 · A = E
• Hermitesche Matrizen haben (i.d.R.) eine Inverse.
Slide 14
Inverse Matrix
II
• Für nichtquadratische Matrizen sind Rechtsinverse AR −1 und Linksinverse AL −1 nicht gleich. Wenn A eine n × m-Matrix ist, dann ist
AL −1 · A = Em
A · AR −1 = En
Einheitsmatrix der Ordnung m
Einheitsmatrix der Ordnung n
Beispiel
Slide 15
10
Inverse einer 2 × 2-Matrix
• Gegeben sei eine 2 × 2-Matrix A mit A =
a11 a12
a21 a22
• Dann ist die Inverse A−1 gegeben durch
1
a22 −a12
−1
A =
a11
a11 a22 − a12 a21 −a21
• Die Inverse existiert also genau dann, wenn det(A) 6= 0 ist.
• Dies kann auf beliebig große quadratische Matrizen verallgemeinert
werden.
Slide 16
Orthogonale und Unitäre Matrizen
• Eine Matrix O heißt orthogonal, wenn ihre Transponierte gleich ihrer
Inversen OT = O−1 ist, also
O · OT = E
• Eine Matrix U heißt unitär, wenn ihre Adjungierte gleich ihrer Inversen
U † = U −1 ist, also
U · U† = E
• Beachte: Aufgrund der Definition sind symmetrische, antisymmetrische, hermitesche, orthogonale und unitäre Matrizen notwendigerweise
quadratisch!.
1.6
Eigenwerte und Eigenvektoren
Slide 17
11
Matrixeigenwertgleichungen
I
• Multipliziert man einen Spaltenvektor von links mit einer quadratischen
Matrix, so erhält man wieder einen Spaltenvektor.
• Multipliziert man einen Zeilenvektor von rechts mit einer quadratischen
Matrix, so erhält man wieder einen Zeilenvektor.




a11 a12 . . . a1n
c1
 a21 a22 . . . a2n 
 c2 




• A =  ..
 und ~c =  ..  seien eine quadra..
..
.
.
 .

 . 
. .
.
an1 an2 . . . ann
cn
tische n × n-Matrix bzw. ein n-dimensionaler Spaltenvektor. λ sei ein
Skalar (=Zahl).
Slide 18
Matrixeigenwertgleichungen
II
• Wenn ~c die Gleichung
A~c = λ~c oder (A − λE)~c = 0
erfüllt, dann heißt ~c Eigenvektor von A, und λ heißt der dazugehörige
Eigenwert von A.
• Eine solche Matrixeigenwertgleichung ist äquivalent zu einem gekoppelten homogenen linearen Gleichungssystem aus n Gleichungen
(a11 − λ)c1
+a12 c2 + . . .
+a1n cn
a21 c1 +(a22 − λ)c2 + . . .
+a2n cn
...
...
...
...
an1 c1
+an2 c2 + . . . +(ann − λ)cn
Slide 19
12
=0
=0
=0
=0
Matrixeigenwertgleichungen
III
• nichttriviale Lösungen der Matrixeigenwertgleichung
A~c = λ~c = λE~c
existieren nur, wenn
det(A − λE) = 0
(∗)
• (∗) heißt die charakteristische Gleichung (oder das charakteristische
Polynom) der Matrix A.
• Das charakteristische Polynom hat n Wurzeln für λi .
• Einige der Wurzeln können gleich sein. Die Eigenwerte heißen dann
entartet.
Slide 20
Eigenwerte und Eigenvektoren
• Ist A diagonal, so sind die Wurzeln λi = aii , da
det(A − λE) = (a11 − λ) · (a22 − λ) . . . (ann − λ)
• Eigenvektoren können durch Multiplikation mit einer Konstante normiert werden.
• Die Eigenwerte einer hermiteschen Matrix sind reell.
• Eigenvektoren zu zwei verschiedenen Eigenwerten λ1 und λ2 sind orthogonal, d.h. c~1 † · c~2 = 0
• Für Eigenvektoren, die zu zwei entarteten Eigenwerten (also λ1 = λ2 )
gehören, lassen sich immer 2 zueinander orthogonale Linearkombinationen der Eigenvektoren konstruieren!
Slide 21
13
Der n-dimensionale Vektorrraum
• eine n × n-Matrix hat also n Eigenvektoren, die alle zueinander orthogonal sind.
• Man sagt, dass die n Eigenvektoren einen n-dimensionalen (Vektor)Raum
aufspannen.
• Jeder Vektor in diesem Raum kann durch eine Linearkombination der
Eigenvektoren ausgedrückt werden.
• Die Eigenvektoren sind ein vollständiger Satz von Basisvektoren
Beispiel
1.7
1.7.1
Slide 22
Beispiele
Inverse einer Rechtecksmatrix
Inverse einer Rechtecksmatrix
I
• Betrachte die 1 × 2 Matrix
A=
1 2
• Eine Rechtsinverse ist offensichtlich
AR
−1
=
1
0
denn A · AR −1 = 1 · 1 + 2 · 0 = 1 = E1 .
• Eine andere Rechtsinverse ist offensichtlich
0
0 −1
AR =
0.5
denn A · AR −1 = 1 · 0 + 2 · 0.5 = 1 = E1
Slide 23
14
Inverse einer Rechtecksmatrix
II
• die Matrix A hat offensichtlich keine Linksinverse, denn es müsste gelten:
!
−1
(a−1
L )11 · a11 = (aL )11 · 1 = 1 = e11
!
−1
(a−1
L )21 · a11 = (aL )21 · 1 = 0 = e21
!
−1
(a−1
L )11 · a12 = (aL )11 · 2 = 0 = e12
!
−1
(a−1
L )21 · a12 = (aL )21 · 2 = 1 = e22
Zurück
1.7.2
Slide 24
Eigenwerte einer 3 × 3-Matrix
Eigenwerte einer 3 × 3-Matrix


1 0 0
• Beispielmatrix: A =  0 2 0 
0 0 3
• Die Matrix ist diagonal.
• Die Eigenwertgleichung lautet: A~c(i) = λi~c(i) für i = 1, 2, 3
• Es gibt also 3 verschiedene Eigenwerte und Eigenvektoren.
1−λ 0
0
2−λ 0
• Die charakteristische Gleichung lautet 0
0
0
3−λ
• Die Wurzeln lauten: λ1 = 1, λ2 = 2 und λ3 = 3.
• Wie erhält man nun aus den Eigenwerten die Eigenvektoren?
Slide 25
15
=0
Eigenvektoren einer 3 × 3-Matrix
• Man setzt für jeden Eigenvektor separat den entsprechenden Eigenwert
in die Eigenwertgleichung ein.
• also, für i = 1
 (1) 



  (1) 
c
c1
1 0 0
1 0 0
1



(1)
(1)
 0 2 0  ~c =  0 2 0   c  = 1 ·  c (1) 

2
2
(1)
(1)
0 0 3
0 0 3
c3
c3
• Das dazugehörige Gleichungssystem lautet:
(1)
(1)
(1)
(1)
= 1c1
+0c3
+0c2
1c1
(1)
(1)
(1)
(1)
0c1
+2c2
+0c3
= 1c2
(1)
(1)
(1)
(1)
0c1
+0c2
+3c3
= 1c3
(1)
(1)
(1)
• Die offensichtliche Lösung lautet: c1 ist beliebig, c2 = c3 = 0.
Slide 26
Eigenvektoren
(1)
• 
Wählen
 wir c1
1
 0 
0
= 1, erhält man den normierten Eigenvektor ~c (1) =

• Analog erhält man für λ2 = 2 den Eigenvektor ~c (2)

0
= 1 
0

• und für λ3 = 3 erhält man ~c (3)

0
= 0 
1
• Die drei Vektoren sind orthogonal und spannen den gesamten dreidimensionalen Raum auf!
Zurück
16
Herunterladen