Lineare Algebra III

Werbung
Kapitel 11
Lineare Algebra III
11.1
Exkurs über komplexe Polynome
Bekanntlich ist ein Polynom in einer reellen Variablen x eine (reellwertige) Funktion der Form
p(x) = an xn + an−1 xn−1 + . . . + a1 x + a0 ,
wobei n ∈ N und a0 , a1 , . . . , an ∈ R gegebene Koeffizienten sind. Wenn an 6= 0, dann heißt n der Grad
des Polynoms p. Auch mag es zweckmäßig sein, Polynome vom Grad 0 zuzulassen, also konstante
Funtionen p(x) = a0 mit einer Konstanten a0 6= 0. Das Nullpolynom p(x) = 0 (konstant) hingegen
hat keinen Grad. Jetzt wollen wir komplexe Polynome betrachten, also komplexwertige Funktionen
einer komplexen Variablen z ∈ C :
p(z) = an z n + an−1 z n−1 + . . . + a1 z + a0 ,
wobei n ∈ N und a0 , a1 , . . . , an ∈ C gegebene komplexe Koeffizienten sind. Wenn an 6= 0, dann heißt n
der Grad des (komplexen) Polynoms p; ein konstantes Polynom p(z) = a0 mit einem a0 ∈ C, a0 6= 0,
hat den Grad 0; das Nullpolynom p(z) = 0 (konstant) hat keinen Grad.
Von besonderem Interesse sind die Nullstellen eines Polynoms. Die herausragende Bedeutung komplexer Polynome (im Unterschied zu reellen Polynomen) liegt in folgendem Resultat.
Theorem 11.1 (Fundamentalsatz über komplexe Polynome)
Jede komplexe Polynom p vom Grad n ≥ 1 besitzt (mindestens) eine Nullstelle, d.h. es existiert ein
z1 ∈ C mit p(z1 ) = 0 .
Wenn nun z1 ∈ C eine Nullstelle des komplexen Polynoms
p(z) = an z n + an−1 z n−1 + . . . + a1 z + a0 ,
(wobei an 6= 0) ,
ist, dann lässt sich das Polynom p schreiben als:
p(z) = (z − z1 ) q(z) ,
für alle z ∈ C ,
wobei q ein anderes (komplexes) Polynom vom Grad n − 1 ist.
Das sieht man wie folgt. Für beliebiges z ∈ C gilt:
p(z)
=
=
£
¤
p(z) − p(z1 ) = an z n + an−1 z n−1 + . . . + a1 z + a0 − an z1n + an−1 z1n−1 + . . . + a1 z1 + a0
| {z }
=0
¡ n
¢
¡
¢
an z − z1n + an−1 z n−1 − z1n−1 + . . . + (z − z1 ) .
27
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Nun sieht man unschwer die folgende allgemeine Formel ein:
ak − bk = (a − b)
k−1
X
ak−j−1 bj
für alle k ∈ N und a, b ∈ C .
j=0
(Dabei wird die übliche Konvention verwendet: c0 = 1 für c ∈ C) .
Daher gilt für jede Differenz z k − z1k , (k = 1, 2, . . . , n), als Funktion der Variablen z gesehen:
z k − z1k = (z − z1 ) qk (z) ,
mit einem Polynom qk vom Grad k − 1.
Wir haben somit:
p(z)
=
=
an (z − z1 )qn (z) + an−1 (z − z1 )qn−1 (z) + . . . + a1 (z − z1 )
£
¤
(z − z1 ) an qn (z) + an−1 qn−1 (z) + . . . + a1 ,
und die Linearkombination der Polynome qk (z), (k = 2, . . . , n), in der eckigen Klammer stellt ein Polynom q(z)
vom Grad n − 1 dar, (da qk den Grad k − 1 hat für jedes k = 2, . . . , n und an 6= 0).
Wendet man nun (im Fall n − 1 ≥ 1) den Hauptsatz auf das Polynom q (vom Grad n − 1) an, so ergibt
dies die Existenz einer Nullstelle z2 ∈ C von q, und wir können wiederum (wie oben) schließen:
q(z) = (z − z1 ) q̃(z) ,
für alle z ∈ C ,
mit einem weiteren Polynom q̃ vom Grad n − 2, so dass wir insgesamt haben:
p(z) = (z − z1 ) (z − z2 ) q̃(z) ,
für alle z ∈ C ,
(q̃ ein Polynom vom Grad n − 2). Wenn n − 2 ≥ 1, dann wende die obige Argumentation auf das
Polynom q̃ an; (wenn n = 2, dann ist q̃ eine Konstante ungleich Null und das Verfahren ist beendet).
Sukzessive Anwendung des Verfahrens (bis das “Restpolynom ” den Grad Null hat) liefert daher das
folgende Resultat:
Theorem 11.2 (Andere Version des Fundamentalsatzes für komplexe Polynome)
Sei p ein komplexes Polynom vom Grad n ≥ 1,
p(z) = an z n + an−1 z n−1 + . . . + a1 z + a0 ,
(wobei an 6= 0) .
Dann existieren z1 , z2 , . . . , zn ∈ C, so dass gilt:
p(z) = an (z − z1 ) (z − z2 ) · · · (z − zn )
für alle z ∈ C .
Bemerkung 11.3 (Vielfachheit einer Nullstelle)
Es ist klar, dass die (komplexen) Zahlen z1 , z2 , . . . , zn von Theorem 11.2 genau die Nullstellen des
Polynoms p sind. Beachte aber, dass z1 , z2 , . . . , zn nicht unbedingt alle verschieden sein müssen. Allgemein ist die Situation so: Unter den z1 , z2 , . . . , zn sind insgesamt r verschiedene komplexe Zahlen
vorhanden; die Nummerierung sei etwa so gewählt, dass die Zahlen z1 , . . . , zr die verschiedenen Nullstellen sind. Jede dieser (verschiedenen) Zahlen zj (1 ≤ j ≤ r) tritt unter allen z1 , . . . , zn mit den
Häufigkeiten mj (1 ≤ j ≤ r) auf:
µ
¶
z1 . . . zr
.
m1 . . . mr
Die Anzahl mj heißt
P die Vielfachheit der Nullstelle zj , für jedes j = 1, . . . , r. Natürlich gilt: mj ∈ N
(1 ≤ j ≤ r) und rj=1 mj = n . Mit den verschiedenen Nullstellen z1 , . . . , zr des Polynoms p und ihren
Vielfachheiten schreibt sich die Faktorisierung des Hauptsatzes auch so:
p(z) = an (z − z1 )m1 · · · (z − zr )mr =
r
Y
(z − zj )mj
j=1
28
für alle z ∈ C .
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Man formuliert Theorem 11.2 daher auch so:
Jedes komplexe Polynom vom Grad n ≥ 1 hat genau n Nullstellen, wobei die Vielfachheiten mitgezählt
werden.
Ein wichtiger Spezialfall, der später im Zusammenhang mit Matrizen auftreten wird, ist der eines
komplexen Polynoms, dessen Koeffizienten aber alle reell sind:
p(z) = an z n + an−1 z n−1 + . . . + a1 z + a0 ,
z ∈ C,
mit reellen Koeffizienten a0 , a1 , . . . , an ∈ R .
Wir sprechen dann von einem komplexen Polynom mit reellen Koeffizienten. Dann gilt für jedes z ∈ C,
mit der Operation des Konjugierens komplexer Zahlen (z die konjugiert komplexe Zahl zu z ∈ C) und
den Rechenregeln z1 + z2 = z 1 + z 2 und z1 z2 = z 1 z 2 :
p(z) = an z n + an−1 z n−1 + . . . + a1 z + a0 = p(z) .
Ist daher z0 ∈ C eine Nullstelle des komplexen Polynoms p mit reellen Koeffizienten, dann ist auch
die konjugiert komplexe zahl z 0 eine Nullstelle von p. Die nicht-reellen Nullstellen eines komplexen
Polynoms mit reellen Koeffizienten treten daher in Paaren z0 und z 0 auf.
11.2
Exkurs über komplexe Matrizen
Als Hilfsmittel werden wir in den weiteren Abschnitten auch Matrizen mit komplexen Einträgen betrachten. Eine komplexe p × n Matrix (wobei p, n ∈ N) ist ein p × n Schema mit komplexen Einträgen:


a1,1 a1,2 . . . a1,n
 a2,1 a2,2 . . . a2,n 
¢
¡


A =  .
..
..
..  = ai,j 1≤i≤p , wobei ai,j ∈ C für alle i, j .
.
1≤j≤n
 .
.
.
. 
ap,1 ap,2 . . . ap,n
Die Menge aller komplexen p × n Matrizen sei mit Cp×n bezeichnet. Eine komplexe p × 1 Matrix wird
auch ein komplexer Spaltenvektor genannt, eine komplexe 1 × n Matrix ein komplexer Zeilenvektor.
Die Matrixoperationen, die wir für reelle Matrizen kennen, lassen sich auf komplexe Matrizen erweitern.
¡
¢
¡ ¢
Für komplexe p × n Matrizen A = ai,j 1≤i≤p und B = bi,j 1≤i≤p sowie (komplexe) Skalare λ ∈ C
1≤j≤n
1≤j≤n
wird definiert:
¢
¡
A + B = ai,j + bi,j 1≤i≤p ∈ Cp×n ,
1≤j≤n
¡
¢
λ A = λai,j 1≤i≤p ∈ Cp×n ,
1≤j≤n
¡
¢
At = ãi,j 1≤i≤n ∈ Cn×p mit ãi,j = aj,i für 1 ≤ i ≤ n , 1 ≤ j ≤ p ;
1≤j≤p
und für eine komplexe q ×p Matrix A =
wird das Matrixprodukt definiert durch
AB = C =
¡
ci,j
¢
1≤i≤q
1≤j≤n
∈ Cq×n
¡
ai,j
¢
1≤i≤q
1≤j≤p
und eine komplexe p×n Matrix B =
mit ci,j =
p
X
¡
bi,j
¢
1≤i≤p
1≤j≤n
ai,k bk,j für alle 1 ≤ i ≤ q , 1 ≤ j ≤ n .
k=1
Die Rechenregeln in Theorem 9.30 für diese Matrixoperationen sind auch für komplexe Matrizen gültig;
die Regel (d) jenes Theorems, (λA)B = A(λB) = λ(AB) gilt dabei für alle komplexen Zahlen λ .
29
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
¡
¢
Auch für komplexe quadratische Matrizen, also für A = ai,j 1≤i,j≤n ∈ Cn×n , definiert man die
Determinante wie in Definition 10.12 durch die Formel:
X
det(A) =
sgn(σ) a1,σ(1) a2,σ(2) · · · an,σ(n) ∈ C .
σ∈Sn
Der Blick auf die Herleitung der fundamentalen Eigenschaften der Determinante in Theorem 10.15
bzw. in Bemerkung 10.18 (Multilinearität und alternierenden Eigenschaft bezgl. Zeilen und auch bezgl. Spalten), zeigt, dass diese auch für die Determinante komplexer n × n Matrizen gelten, wobei jetzt
eine Linearkombination zweier komplexer Zeilen bzw. Spalten beliebige komplexe Koeffizienten haben
darf. Als Konsequenzen haben wir auch die Rechenregeln
det(At )
=
det(A)
det(AB)
=
det(A) det(B)
für A ∈ Cn×n ,
für A, B ∈ Cn×n ,
sowie die Entwicklungsformeln von Theorem 10.20 auch für die Determinante einer komplexen n × n
Matrix A.
Wohlgemerkt: Wir wollen im Folgenden nicht die gesamte Lineare Algebra auf den komplexen Fall
ausdehnen (obwohl das möglich ist). Nach wie vor liegt unser Interesse auf Vektoren (von Rn ) und
reellen Matrizen. Wenn wir in den nächsten Abschnitten von Matrizen sprechen, so meinen wir in
aller Regel reelle Matrizen. Als Hilsmittel aber greifen wir auch zu komplexen Matrizen und den oben
genannten Rechenregeln für diese (und für die Determinante komplexer quadratischer Matrizen), was
dann auch deutlich gesagt werden wird. Ein weiteres Resultat der “komplexen” Linearen Algebra
werden wir bisweilen verwenden, das uns im reellen Fall wohlbekannt ist:
Theorem 11.4
Sei A eine komplexe n×n Matrix. Dann sind die beiden folgenden Bedingungen (i) und (ii) äquivalent.
(i)
det(A) = 0 .
(ii) Es gibt einen komplexen Vektor z ∈ Cn×1 mit z 6= 0 und Az = 0 , (0 bezeichnet hier den
n × 1 Nullvektor).
Das ls̈st sich so einsehen:
“(ii) −→ (i)” : Sei z = (z1 , z2 , . . . , zn )t ∈ Cn×1 , x 6= 0 mit Az = 0 , und sei etwa z1 6= 0 . Wie man aus der
Definition der (komplexen) Matrixmultiplikation sieht, gilt
Az =
n
X
ak zk ,
wobei A =
£
¤
a1 , a2 , . . . , an ,
k=1
(a1 , a2 , . . . , an also die Spalten der komplexen Matrix A). Wir können also Az = 0 nach a1 auflösen (da
z1 6= 0) :
n
X
zk
a1 =
−
ak ,
z1
k=2 |{z}
= αk
d.h. die erste Spalte a1 ist eine Linearkombination der übrigen Spalten a2 , . . . , an . Mit der Multilinearität und
der alternierenden Eigenschaft (bezügl. Spalten) der Determinante erhalten wir:
det(A) =
n
X
£
¤
αk det ak , a2 , . . . , an = 0 .
{z
}
|
k=2
=0
“(i) −→ (ii)” : Diesen Nachweis führen wir durch vollständige Induktion nach n.
Für n = 1 ist die Behauptung offensichtlich richtig (eine komplexe 1 × 1 Matrix ist eine komplexe Zahl, und
30
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
ihre Determinante ist diese Zahl). Sei nun
¡ ein
¢ n ≥ 2 gegeben, und die Behauptung sei für jede komplexe
(n − 1) × (n − 1) Matrix richtig. Sei A = ai,j 1≤i,j≤n eine komplexe n × n Matrix mit det(A) = 0 . Wenn die
¡
¢t
erste Spalte von A gleich 0 ist, dann leistet offensichtlich der Vektor z = 1 , 0 , . . . , 0 das Verlangte. Jetzt
sei die erste Spalte von A ungleich 0. Bei Vertauschung zweier Zeilen von A bleibt die Determinante gleich Null
(s. alternierende Eigenschaft), und auch die Lösungsmenge (für z ∈ Cn×1 ) von Az = 0 bleibt dieselbe. Daher
können wir voraussetzen, dass der Eintrag Nr. (1, 1) von A ungleich Null ist: a1,1 6= 0 . Bezeichne a1 , a2 , . . . , an
die Spalten von A. Führe die folgenden elementaren Spaltenoperationen durch:
Für jedes j = 2, . . . , n ersetze Spalte Nr. j von A durch ãj = aj − (a1,j /a1,1 ) a1 .
Wir erhalten damit eine neue komplexe n × n Matrix der Form


0 ... 0
a1,1
 a2,1

£
¤

e = a1 , ã2 , . . . , ãn = 
A
(11.1)

 ,
..
(1)
A


.
an,1
e =
wobei A(1) eine komplexe (n − 1) × (n − 1) Matrix ist. Die Determinante ist unverändert gleich Null: det(A)
det(A) = 0 (Multilinearität und alternierende Eigenschaft ergeben, dass sich die Determinante bei den durche nach der ersten Zeile ergibt:
geführten elementaren Spaltenoperationen nicht ändert). Entwicklung von A
¡
¢
e = a1,1 det A(1) ,
0 = det(A)
¡
¢
folglich det A(1) = 0 .
Nach Induktionsvoraussetzung gibt es einen komplexen Vektor y = (y2 , . . . , yn )t ∈ C(n−1)×1 , der nicht der
((n − 1)-dimensionale) Nullvektor ist, mit A(1) y = 0 . Mit Blick auf (11.1) haben wir daher, wobei wir bilden
ỹ = (0, y2 , . . . , yn )t ∈ Cn×1 :
e = 0,
Aỹ
oder anders geschrieben:
n
X
ãk yk = 0 .
k=2
Jetzt setzen wir wieder ein: ãk = ak − (a1,k /a1,1 ) a1 , für alle k = 2, . . . , n, und wir erhalten:
n ³
X
ak −
k=2
a1,k ´
a1 yk = 0 ,
a1,1
d.h.
n
n
´
³ 1 X
X
a1,k yk a1 +
aj yj = 0 .
−
a1,1
j=2
k=2
Definiere nun den Vektor z = (z1 , z2 , . . . , zn )t ∈ Cn×1 durch
z1 = −
n
1 X
a1,1
a1,k yk ,
und zj = yj für j = 2, . . . , n .
k=2
Dann ist z nicht der Nullvektor (da nicht alle y2 , . . . , yn gleich Null sind), und es gilt Az = 0 .
31
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
11.3
Eigenwerte und Eigenvektoren quadratischer Matrizen
Definition 11.5 (Charakteristisches Polynom und Eigenwerte)
¡ ¢
Sei A = ai,j 1≤i,j≤n eine (reelle) n × n Matrix. Für beliebiges z ∈ C ist dann A − zI n eine komplexe
n × n Matrix,


a1,1 − z
a1,2
a1,3 . . .
a1,n
 a2,1
a2,2 − z a2,3 . . .
a2,n 


A − zI n = 
 ,
..
..


.
.
an,1
an,2
an,3 . . . an,n − z
und diese hat eine Determinante det(A − zI n ) ∈ C . Die komplexwertige Funktion der komplexen
Variablen z ∈ C :
¡
¢
χA (z) = det A − zI n , für alle z ∈ C ,
heißt das charakteristische Polynom der (reellen) Matrix A . Die Nullstellen dieser Funktion, also die
komplexen Zahlen λ ∈ C mit χA (λ) = 0 , heißen die Eigenwerte der (reellen) Matrix A.
In der Tat ist die Funktion χA ein komplexes Polynom vom Grad n, denn: Schreiben wir die ndimensionale Einheitsmatrix I n als
½
¡ ¢
1 , falls i = j
,
I n = δi,j 1≤i,j≤n mit δi,j =
0 , falls i 6= j
so ist A − zI n =
¡
ai,j − zδi,j
det(A − zI n ) =
X
¢
1≤i,j≤n
, und die definierende Determinantenformel ergibt:
sgn(σ) (a1,σ(1) − zδ1,σ(1) ) (a2,σ(2) − zδ2,σ(2) ) · · · (an,σ(n) − zδn,σ(n) ) .
σ∈Sn
Denken wir uns für jedes σ ∈ Sn das Produkt (a1,σ(1) −zδ1,σ(1) ) (a2,σ(2) −zδ2,σ(2) ) · · · (an,σ(n) −zδn,σ(n) )
ausmultipliziert, so ergibt dieser Produktterm ein Polynom in z (mit Koeffizienten, die sich durch
diverse Produkte der Einträge der Matrix A ergeben). Auch sehen wir, dass die auftetenden Potenzen
von z nur bis zur Ordnung n gehen können; genauer: Die Potenz z n tritt nur für die identische
Permutation σ = σid auf, und zwar als (−1)n z n . Insgesamt, durch Summation über alle Permutationen
σ ergibt sich daher ein komplexes Polynom vom Grad n,
χA (z) = αn z n + αn−1 z n−1 + . . . + α1 z + α0 ,
mit αn = (−1)n .
Die übrigen Koeffizienten α0 , α1 , . . . , αn−1 sind gewisse algebraische Ausdrücke der Einträge der Matrix
A und sind daher reell :
α0 , α1 , . . . , αn−1 ∈ R .
Das charakteristische Polynom der (reellen) n × n Matrix A ist also ein komplexes Polynom vom Grad
n mit reellen Koeffizienten. Außer dem höchsten Koeffizienten αn = (−1)n können wir weitere zwei
Koeffizienten konkreter identifizieren:
αn−1 = (−1)n−1 Spur(A) = (−1)n−1
n
X
ai,i
und
α0 = det(A) .
i=1
Bemerkung 11.6 (Komplexe Matrix A)
Wenn wir in Definition 11.5 eine beliebige komplexe n × n Matrix zulassen, dann übertragen sich die Begriffe
charakteristisches Polynom und Eigenwerte von A wörtlich auf diese Situation. Das charakteristische Polynom
ist wiederum ein komplexes Polynom vom Grad n ,
χA (z) = αn z n + αn−1 z n−1 + . . . + α1 z + α0 ,
32
mit αn = (−1)n .
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Die übrigen Koeffizienten α0 , α1 , . . . , αn−1 sind gewisse algebraische Ausdrücke der Einträge der Matrix A, aber
sie sind jetzt komplexe Zahlen. Auch die Formeln für die Koeffizienten αn−1 und α0 bleiben gültig:
αn−1 = (−1)n−1 Spur(A)
und
α0 = det(A) ,
Pn
wobei Spur(A) =
i=1 ai,i (Summe der Diagonaleinträge von A). Die Eigenwerte von A sind die Nullstellen
des komplexen Polynoms χA (z).
Beispiel 11.7 (Dimensionen n = 2 und n = 3)
Betrachte eine beliebige (reelle) 2 × 2 Matrix:
¸
·
¸
·
a1,1 − z
a1,2
a1,1 a1,2
, folglich A − zI 2 =
,
A =
a2,1
a2,2 − z
a2,1 a2,2
¡
¢¡
¢
χA (z) = a1,1 − z a2,2 − z − a1,2 a2,1 = z 2 − (a1,1 + a2,2 )z + (a1,1 a2,2 − a1,2 a2,1 ) .
Betrachte eine beliebige (reelle) 3 × 3 Matrix:




a1,1 a1,2 a1,3
a1,1 − z
a1,2
a1,3
a2,2 − z
a2,3  ,
A =  a2,1 a2,2 a2,3  , folglich A − zI 3 =  a2,1
a3,1
a3,2
a3,3 − z
a3,1 a3,2 a3,3
¢
¡
und für das charakteristische Polynom χA (z) = det A − zI 3 erhalten wir:
χA (z)
=
(a1,1 − z) (a2,2 − z) (a3,3 − z) + a1,3 a2,1 a3,2 + a1,2 a2,3 a3,1
− (a1,1 − z) a2,3 a3,2 − a1,3 (a2,2 − z) a3,1 − a1,2 a2,1 (a3,3 − z)
=
−z 3 + [a1,1 + a2,2 + a3,3 ] z 2 + α1 z + det(A)
mit
α1 = −a2,2 a3,3 − a1,1 a3,3 − a1,1 a2,2 + a2,3 a3,2 + a1,3 a3,1 + a1,2 a2,1 .
Beispiel 11.8 (Eigenwerte einer ¡2 × ¢2 Matrix)
Für eine (reelle) 2 × 2 Matrix A = ai,j 1≤i,j≤2 haben wir nach Beispiel 11.7 :
χA (z)
=
=
=
z 2 − (a1,1 + a2,2 )z + (a1,1 a2,2 − a1,2 a2,1 )
h
a1,1 + a2,2 i2 ³ a1,1 + a2,2 ´2
z −
−
+ a1,1 a2,2 − a1,2 a2,1
2
2
h
h
i
a1,1 + a2,2 i2
z −
− 14 (a1,1 − a2,2 )2 + a1,2 a2,1 .
2
Wir verwenden die Abkürzung
∆(A) =
1
4
(a1,1 − a2,2 )2 + a1,2 a2,1 ,
(die “Diskriminante” von A ).
Desweiteren verwenden wir allgemeine Formel
α2 − β 2 = (α + β) (α − β)
Wir haben:
χA (z) =
für alle α, β ∈ C
h
a1,1 + a2,2 i2
z −
− ∆(A) .
2
Fall 1: ∆(A) > 0 .
¤2
£p
∆(A) , folglich:
Dann ist natürlich ∆(A) =
h
ih
i
p
p
a1,1 + a2,2
a1,1 + a2,2
+ ∆(A) z −
− ∆(A)
χA (z) =
z −
2
2
= (z − λ1 ) (z − λ2 )
mit
p
p
a1,1 + a2,2
a1,1 + a2,2
λ1 =
− ∆(A) und λ2 =
+ ∆(A) .
2
2
33
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Diese beiden reellen Zahlen λ1 und λ2 sind also die Eigenwerte von A .
Fall 2: ∆(A) < 0 .
¤2
£ p
Dann können wir schreiben ∆(A) = i |∆(A)| , und wir erhalten:
h
ih
i
p
p
a1,1 + a2,2
a1,1 + a2,2
χA (z) =
z −
+ i |∆(A)| z −
− i |∆(A)|
2
2
= (z − λ1 ) (z − λ2 )
mit
p
p
a1,1 + a2,2
a1,1 + a2,2
λ1 =
− i |∆(A)| und λ2 =
+ i |∆(A)| .
2
2
Diese beiden komplexen Zahlen λ1 und λ2 sind also die Eigenwerte von A .
Fall 3: ∆(A) = 0 .
Dann haben wir:
h
a1,1 + a2,2 i2
z −
= (z − λ)2
2
a1,1 + a2,2
mit λ =
.
2
χA (z) =
Diese reelle Zahl λ ist also der einzige Eigenwert von A ; er ist eine doppelte Nullstelle (Vielfachheit
2) des charakteristischen Polynoms, wir sagen auch: Der Eigenwert λ hat die algebraische Vielfachheit
2.
Aus der allgemeinen Theorie komplexer Polynome (Abschnitt 11.1) wissen wir, dass das charakteristische Polynom einer (reellen) n × n Matrix A stets n (komplexe) Nullstellen besitzt, wobei die
Vielfachheiten der Nullstellen mitgezählt werden. Diese Vielfachheiten nennt man auch die algebraischen Vielfachheiten der Eigenwerte der Matrix A. Desweiteren wissen wir, da die Koeffizienten des
charakteristischen Polynom alle reell sind, dass die “echt” komplexen Eigenwerte λ (d.h. Im(λ) 6= 0)
von A in Paaren vorhanden sind: Mit λ ist auch λ Eigenwert von A. Besonders interessant aber sind
reelle Eigenwerte (die aber im Allgemeinen nicht existieren müssen, s. Beispiel 11.8).
Theorem 11.9 (Reeller Eigenwert und Eigenvektor)
Sei A eine (reelle) n × n Matrix. Eine reelle Zahl λ ist genau dann ein Eigenwert von A, wenn es einen
Vektor x ∈ Rn×1 , x 6= 0, gibt mit der Eigenschaft:
Ax = λ x .
(11.2)
Jeder solche Vektor x heißt ein Eigenvektor von A zum (reellen) Eigenwert λ. Die Menge aller Vektoren
x ∈ Rn×1 (einschließlich des Nullvektors), die Gleichung (11.2) erfüllen, heißt der Eigenraum von A
zum (reellen) Eigenwert λ. Dieser Eigenraum ist gleich dem Nullraum der (reellen) Matrix A − λI n ,
Eigenraum von A zum (reellen) EW λ = N (A − λI n ) .
Bemerkung 11.10 (Komplexer Eigenwert und komplexer Eigenvektor)
Wenn λ ein komplexer Eigenwert der (reellen) Matrix A ist, d.h.
χA (λ) = det(A − λI n ) = 0 ,
dann ergibt Theorem 11.4, angewendet auf die komplexe Matrix A − λI n :
Es gibt einen komplexen Vektor z ∈ Cn×1 , z 6= 0 , mit (A−λI n )z = 0 , d.h. Az = λz . Einen solchen
Vektor z nennt man einen komplexen Eigenvektor von A zum (komplexen) Eigenwert λ. Komplexe
Eigenvektoren sind zwar relativ uninteressant, bisweilen aber als Hilfsmittel von theoretischem Nutzen.
34
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Theorem 11.9 lässt sich leicht einsehen:
Für λ ∈ R bedeutet χA (λ) = 0 , dass die Determinante der reellen n × n Matrix A − λI n gleich Null ist, d.h.
dass diese Matrix singulär ist, (Theorem 10.19(a)). Nach der Dimensionsformel von Theorem 9.21 wissen wir,
dass die Dimension des Nullraums N (A − λI n ) gleich n − Rang(A − λI n ) ist. Also können wir feststellen:
Die reelle Zahl λ ist genau dann ein Eigenwert von A, wenn N (A − λI n ) 6= {0} .
Nun sind äquivalent, für jedes x ∈ Rn×1 :
x ∈ N (A − λI n ) ⇐⇒ (A − λI n )x = 0 ⇐⇒ Ax = λx .
Definition 11.11 (Geometrische Vielfachheit eines reellen Eigenwertes)
Wenn λ ein reeller Eigenwert der (reellen) n × n Matrix A ist, dann heißt
dim N (A − λI n )
die geometrische Vielfachheit des Eigenwertes λ.
Auf der anderen Seite haben wir für einen Eigenwert λ der Matrix A seine algebraische Vielfachheit,
d.h. die Vielfachheit von λ als Nullstelle des charakteristischen Polynoms χA . Für einen reellen Eigenwert haben wir also die geometrische und die algebraische Vielfachheit. Im Allgemeinen können diese
verschieden sein; es gilt aber:
Theorem 11.12 (Algebraische/geometrische Vielfachheit eines reellen EW’s)
Wenn λ ein reeller Eigenwert der (reellen) n × n Matrix A ist, dann gilt für seine algebraische Vielfachheit und seine geometrische Vielfachheit:
geometrische Vielfachheit ≤ algebraische Vielfachheit .
Beweis: Bezeichne d die geometrische Vielfachheit des reellen Eigenwertes λ, d.h.
d = dim N (A − λI n ) .
Der Fall d = n : Dann gilt Ax = λx für alle Vektoren x ∈ Rn×1 , d.h. A = λI n , und für das characteristische
Polynom folglich:
¡
¢
χA (z) = det(λI n − zI n ) = det (λ − z)I n = (λ − z)n = (−1)n (z − λ)n .
Die algebraische Vielfachheit von λ ist daher ebenfalls gleich n.
Der Fall d < n : Wähle eine Orthonormalbasis v 1 , . . . , v d des Eigenraumes N (A − λI n ), (Theorem 9.10).
Ergänze diese zu einer Orthonormalbasis v 1 , . . . v d , v d+1 , . . . , v n des ganzen Raumes Rn×1 , (Theorem 9.11).
Betrachte die n × n Matrix V , die diese Vektoren als Spalten hat:
£
¤
V = v 1 , . . . , v d , v d+1 , . . . , v n .
Es gilt: V t V =
¡
v ti v j
¢
1≤i,j≤n
t
= I n , d.h. V ist regulär und V −1 = V t , (man nennt V eine orthogonale
Matrix). Nun hat die Matrix V AV dasselbe charakteristische Polynom wie die Matrix A, da
¡
¢
V t AV − zI n = V t AV − zV t V = V t A − zI n V , folglich
¡
¢
det V t AV − zI n = det(V t ) det(A − zI n ) det(V ) = det(A − zI n ) ,
wobei die letzte Gleichheit wegen V t = V −1 , also det(V t ) = 1/ det(V ) gilt. Nun haben wir, gemäß der Wahl
der Orthonormalbasis:
Av j = λv j für 1 ≤ j ≤ d , folglich
v ti Av j = δi,j λ für 1 ≤ i ≤ n und 1 ≤ j ≤ d .
35
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Nun macht man sich leicht klar, dass
V t AV =
¡
v ti Av j
¢
1≤i,j≤n
.
Wir sehen also, dass die Matrix V t AV von der folgenden Form ist:
·
¸
λI d
B
V t AV =
,
0(n−d)×d C
mit einer (reellen) d × (n − d) Matrix B und einer (reellen) (n − d) × (n − d) Matrix C. Wir erhalten für das
charakteristische Polynom von A (das mit dem von V t AV übereinstimmt):
·
¸
¡
¢
(λ − z)I d
B
χA (z) = det V t AV − zI n = det
.
0(n−d)×d C − zI n−d
Man macht sich leicht klar (sei es an Hand der Definition oder der Entwicklungsformeln für Determinanten),
dass die letztere Determinante gleich (λ − z)d det(C − zI n−d ) ist. Also gilt:
χA (z) = (−1)d (z − λ)d χC (z) ,
wobei natürlich χC ein komplexes Polynom vom Grad n − d ist. Damit ist gezeigt, dass die Vielfachheit der
Nullstelle λ des Polynoms χA mindestens d betragen muss, also die algebraische Vielfachheit des Eigenwertes
λ von A größer oder gleich d (geometrische Vielfachheit) ist.
Die geometrische Vielfachheit eines reellen Eigenwertes kann in der Tat echt kleiner sein als seine
algebraische Vielfachheit:
Beispiel 11.13
Betrachte die 2 × 2 Matrix
·
A =
1 1
0 1
¸
.
Das charakteristische Polynom ist, (vergl. Beispiel 11.7) :
χA (z) = (1 − z)2 ;
die Matrix A hat also den Eigenwert λ = 1 mit der algebraischen Vielfachheit 2. Der zugehörige
Eigenraum besteht aus allen Vektoren x = (x1 , x2 )t mit
Ax = x ,
d.h. x1 + x2 = x1 , x2 = x2 ,
also aus allen x = (x1 , 0)t mit beliebigem x1 ∈ R. Der Eigenraum ist daher span{e1 }, also eindimensional. Die geometrische Vielfachheit des Eigenwertes 1 ist somit gleich 1 .
Wenn aber die (reelle) n×n Matrix A so beschaffen ist, dass alle n Eigenwerte λ1 , λ2 , . . . , λn verschieden
und reell sind, dann ist die algebraische Vielfachheit jedes Eigenwertes λi gleich 1 und folglich auch
(nach Theorem 11.12) die geometrische Vielfachheit von λi gleich 1. In diesem Fall lässt sich noch
mehr aussagen:
Theorem 11.14 (n × n Matrix mit n verschiedenen, reellen Eigenwerten)
Sei A eine (reelle) n × n Matrix, deren Eigenwerte λ1 , λ2 , . . . , λn alle verschieden und reell sind. Seien
v 1 , v 2 , . . . , v n zugehörige Eigenvektoren, d.h.
v i ∈ Rn×1 , v i 6= 0 und A v i = λi v i
für jedes i = 1, 2, . . . , n .
Dann sind die Eigenvektoren
v 1 , v¤2 , . . . , v n linear unabhängig und bilden daher eine Basis von Rn×1 .
£
Die Matrix V = v 1 , v 2 , . . . , v n leistet dann eine Diagonalisierung von A :
¡
¢
V −1 AV = Λ = diag λ1 , λ2 , . . . , λn .
36
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
In der Tat sagt die Gleichung V −1 AV = Λ, dass AV = V Λ ; nun ist
£
¤
£
¤
AV = Av 1 , Av 2 , . . . , Av n und V Λ = λ1 v 1 , λ2 v 2 , . . . , λn v n ,
so dass die Matrixgleichung V −1 AV = Λ nur die Eigenwert-Eigenvektor-Eigenschaften Av i = λi v i , (1 ≤ i ≤
n), wiedergibt. Das Wesentliche am Theorem ist die lineare Unabhängigkeit der Eigenvektoren v 1 , v 2 , . . . , v n .
Es gilt auch das etwas allgemeinerere Resultat:
Wenn A eine (reelle) n × n Matrix, λ1 , . . . , λk (mit einem k ≤ n) verschiedene reelle Eigenwerte von A und
v 1 , . . . , v k zugehörige Eigenvektoren sind, dann sind v 1 , . . . , v k linear unabhängig.
Bemerkung 11.15 (Diagonalisierbarkeit)
Man nennt eine (reelle) n × n Matrix A diagonalisierbar, wenn es eine reguläre (reelle) n × n Matrix
V gibt, so dass V −1 AV eine Diagonalmatrix ist:
¡
¢
V −1 AV = Λ = diag λ1 , λ2 , . . . , λn .
(11.3)
Dann sind λ1 , λ2 , . . . , λn die (nicht notwendig alle verschiedenen) Eigenwerte der Matrix A, und die
Spalten v 1 , v 2 , . . . , v n der Matrix V sind zugehörige Eigenvektoren. Denn:
Das charakteristische Polynom von A stimmt überein mit dem der Matrix V −1 AV (und daher mit
dem der Diagonalmatrix Λ) :
¡
¢
χA (z) = det(A − zI n ) = det V −1 det(A − zI n ) det(V )
³
´
³
¤ ´
£
−1
−1
AV
−
z
V
V
= det V −1 A − zI n V = det V
| {z }
| {z }
=Λ
=
= In
n
Y
n
¡
¢
det diag(λ1 − z , λ2 − z , . . . , λn − z) = (−1)
(z − λi ) .
i=1
Desweiteren
ist die Gleichung
V −1 AV = Λ äquivalent mit AV = V Λ, und mit
£
¤
V = v 1 , v 2 , . . . , v n bedeutet das: Av j = λj v j für alle j = 1, 2, . . . , n . Die j-te Spalte von V (die
nicht gleich 0 ist, da V regulär) ist also ein Eigenvektor von A zum Eigenwert λi , für j = 1, 2, . . . , n.
Diagonalisierbarkeit einer Matrix A gemäß (11.3) lässt sich auch so interpretieren: Die Wirkung der
Matrix A auf Vektoren x ∈ Rn×1 (im Sinne der durch A gegebenen linearen Funktion x 7−→ Ax
von Rn×1 in Rn×1 ) ist ähnlich wie die der Diagonalmatrix Λ, wenn wir Vektoren x ∈ Rn×1 durch
Koordinaten bezüglich der Basis v 1 , v 2 , . . . , v n (die Spalten von V ) beschreiben. Denn aus (11.3)
sehen wir:
Schreiben wir x =
n
X
αj v j , dann Ax =
j=1
n
X
j=1
αj Av j =
n
X
αj λj v j .
j=1
Bei der Bildung Ax werden also die Koordinaten αj , (1 ≤ j ≤ n) von x jeweils mit den Diagonaleinträgen λj , (1 ≤ j ≤ n) multipliziert, wobei aber die “Koordinaten” auf die Basis v 1 , v 2 , . . . , v n
bezogen sind.
Es gilt das folgende Resultat, wovon Theorem 11.14 ein Spezialfall ist:
Eine (reelle) n × n Matrix A ist genau dann diagonalisierbar, wenn alle Eigenwerte von A reell sind
und für jeden Eigenwert seine geometrische Vielfachheit gleich seiner algebraischen Vielfachheit ist.
Beispiel 11.16 (Zwei-Massen-Linearschwinger)
Zwei Massen m1 und m2 , die jeweils einer linear-elastischen Kraft unterliegen sowie linear-elastische
miteinander gekoppelt sind, führen eine lineare Schwingung (d.h. Schwingung auf einer Geraden) um
37
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
ihre jeweilige Gleichgewichtslage aus. Bezeichne s1 = s1 (t) und s2 = s2 (t) die jeweilige Auslenkung
(mit Vorzeichen behaftet) zur Zeit t ≥ 0. Diese genügen den Differentialgleichungen:
¡
¢
¡
¢
m1 s̈1 (t) = −k1 s1 (t) − k1,2 s1 (t) − s2 (t)
und m2 s̈2 (t) = −k2 s2 (t) − k1,2 s2 (t) − s1 (t) .
Dabei sind k1 , k2 , k1,2 positive Konstanten (“Steifigkeiten”). Bezeichne
"
#
µ
¶
(k1 + k1,2 )/m1
−k1,2 /m1
s1 (t)
s(t) =
und A =
.
s2 (t)
−k1,2 /m2
(k2 + k1,2 )/m2
Dann schreiben sich die Differentialgleichungen als
s̈(t) + A s(t) = 0
(für alle t ≥ 0) .
(11.4)
Für die Eigenwerte λ1 und λ2 der Matrix A erhalten wir nach Beispiel 11.8 :
2
k1,2
1 ³ k1 + k1,2 k2 + k1,2 ´2
−
+
> 0 , folglich
4
m1
m2
m1 m2
p
p
k1 + k1,2
k2 + k1,2
− ∆(A) und λ2 =
+
+ ∆(A).
2m1
2m2
Die Diskriminante ist ∆(A) =
λ1 =
k1 + k1,2
k2 + k1,2
+
2m1
2m2
Beide Eigenwerte λ1 , λ2 sind also reell und verschieden, und sie sind überdies positiv, was für λ2
offensichtlich ist und man für λ1 unschwer nachrechnet. Man nennt
p
p
ω1 = λ1 und ω2 = λ2
die Eigenfrequenzen des Linearschwingers. In der Tat ist die Lösung s(t) der Differentialgleichung (11.4)
zu gegebenen Anfangsbedingungen s(0) , ṡ(0) eine Überlagerung zweier harmonischer Schwingungen
mit den Frequenzen ω1 und ω2 . Das sieht man wie folgt.
Nach Theorem 11.14 gibt es Eigenvektoren v 1 und v 2 von A zu den Eigenwerten λ1 bzw. λ2 , die
eine Basis von R2×1 bilden. (Wir verzichten hier auf ihre explizite Berechnung). Wir schreiben s(t) in
Koordinaten bezüglich dieser Basis,
s(t) = u1 (t) v 1 + u2 (t) v 2 = V u(t) , bzw. u(t) = V −1 s(t) ,
¡
¢t
wobei V = [ v 1 , v 2 ] und u(t) = u1 (t) , u2 (t) . Differentialgleichung (11.4) schreibt sich dann als
V ü(t) + AV u(t) = 0 .
(11.5)
Wegen V −1 AV = Λ = diag(λ1 , λ2 ) , also AV = V Λ , wird (11.5) durch Multiplikation von links
mit V −1 äquivalent zu:
ü(t) + Λu(t) = 0 ,
d.h.
ü1 (t) + λ1 u1 (t) = 0 und ü2 (t) + λ2 u2 (t) = 0 .
Das sind aber zwei Differentialgleichungen, die nicht miteinander gekopppelt sind, und die daher
separat gelöst werden können.
Bekannt ist, dass eine Differentialgleichung ϕ̈(t) + λ ϕ(t) = 0 , mit einem gegebenen λ > 0 die Lösung (zu
Anfangsbedingungen ϕ(0) und ϕ̇(0) ) hat:
√
ϕ(t) = c cos(ωt + α) , wobei ω = λ ,
mit c und α Lösungen von: c cos(α) = ϕ(0) und −ω c sin(α) = ϕ̇(0) .
Wir erhalten:
u1 (t) = c1 cos(ω1 t + α1 ) und u2 (t) = c2 cos(ω2 t + α2 ) ,
ci cos(αi ) = ui (0) und
− ωi ci sin(αi ) = u̇i (0) ,
38
i = 1, 2 .
wobei
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Transformieren wir auf die ursprüngliche Funktion s = ( s1 , s2 )t zurück, so haben wir:
s(t) = c1 cos(ω1 t + α1 ) v 1 + c2 cos(ω2 t + α2 ) .
Die Konstanten c1 , c2 und α1 , α2 sind – wie oben angegeben – durch die Anfangsbedingungen u1 (0),
u2 (0), u̇1 (0), u̇2 (0) gegeben, bzw. durch die Anfangsbedingungen s1 (0), s2 (0), ṡ1 (0), ṡ2 (0) , da ja
u(0) = V −1 s(0) ,
u̇(0) = V −1 ṡ(0) .
Wir sehen auch, dass sich eine reine harmonische Schwingung mit einer der beiden Eigenfrequenzen,
z.B. ω1 , nur für spezielle Anfangszustände ergibt: c2 = 0 bedeutet u2 (0) = 0 und u̇2 (0) = 0, und für s
heißt das: Die beiden Vektoren s(0) und ṡ(0) müssen skalare Vielfache des Eigenvektore v 1 sein.
Kommen wir noch zu weiteren allgemeinen Resultaten über die Eigenwerte einer beliebigen (reellen)
n × n Matrix A. Nach dem Fundamentalsatz über komplexe Polynome (Theorem 11.2) faktorisiert
das charakteristische Polynom zu
χA (z) = (−1)n
n
Y
(z − λi ) ,
z ∈ C,
i=1
wobei λ1 , λ2 , . . . , λn die (nicht notwendig verschiedenen) Eigenwerte von A sind. Vergleichen wir diese
faktorisierte Darstellung mit
χA (z) = αn z n + αn−1 z n−1 + . . . + α1 z + α0 ,
wobei wir wissen, dass
αn = (−1)n ,
αn−1 = (−1)n−1 Spur(A) und α0 = det(A) ,
so sehen wir:
Spur(A) =
n
X
λi
und
i=1
det(A) =
n
Y
λi .
(11.6)
i=1
Aus der letzten Gleichung folgt sofort Teil (a) des nachfolgenden Theorems, da die Regularität von A
äquivalent mit det(A) 6= 0 ist (s. Theorem 10.19) :
Theorem 11.17 (Regularität der Matrix)
(a) Die Matrix A ist genau dann regulär, wenn alle Eigenwerte von A ungleich Null sind.
(b) Wenn A regulär ist und λ1 , λ2 , . . . , λn ihre Eigenwerte bezeichnen, dann sind die Eigenwerte der
Inversen A−1 gegeben durch 1/λ1 , 1/λ2 , . . . , 1/λn . Ferner gilt für jeden reellen Eigenwert λ von A :
Der Eigenraum von A zum Eigenwert λ ist gleich dem Eigenraum von A−1 zum Eigenwert 1/λ.
Die Aussagen in (b) des Theorems ergeben sich so:
Für jedes z ∈ C, z 6= 0, schreiben wir:
³
´
³
£
¤´
χA−1 (z) = det A−1 − zI n = det A−1 I n − zA
³ £
¢
¢
¡
¢
¡
¡
1 ¤´
= det A−1 det I n − zA = det A−1 det −z A − I n
z
n ³
´
´
³
Y
¡
¢
¡ −1 ¢
1
1
− λi
= det A
(−1)n z n det A − I n = det A−1 (−1)n z n (−1)n
z
{z z }
|
i=1
= χA (1/z)
n
n h
³
¡
¢Y
¡
¢Y
1 ´i
= det A−1
(1 − λi z) = det A−1
−λi z −
λi
i=1
i=1
n
n ³
i
Y
¡
¢ hY
1´
z−
det A−1
λi (−1)n
.
λi
i=1
i=1
|
{z
}
=1
39
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Also sind 1/λ1 , 1/λ2 , . . . , 1/λn die Nullstellen des charakteristischen Polynoms der Inversen A−1 , also die Eigenwerte von A−1 .
Desweiteren, wenn λ ein reeller Eigenwert von A ist, haben wir für jeden Vektor x ∈ Rn×1 die Äquivalenz:
Ax = λx ⇐⇒ A−1 x =
1
x,
λ
woraus sich die Aussage über die Eigenräume ergibt.
Für eine (reelle) n × n Matrix A können wir Potenzen bilden, die jeweils wieder (reelle) n × n Matrizen
sind:
A2 , A3 , . . . , Ak ,
(wobei k ∈ N), sowie eine Linearkombinationen dieser Potenzen sowie A1 = A und A0 = I n :
p(A) = ck Ak + ck−1 Ak−1 + . . . + c1 A + c0 I n ,
wenn c0 , c1 , . . . , ck reelle Koeffizienten sind. Dann ist p(A) wiederum eine (reelle) n × n Matrix. Die
Bezeichnung p(A) haben wir deshalb gewählt, weil sich diese Matrix formal aus dem komplexen
Polynom (mit reellen Koeffizienten) ergibt,
p(z) = ck z k + cn−1 z k−1 + . . . + c1 z + c0 ,
(z ∈ C) ,
indem die komplexe Variable z durch die Matrix A ersetzt wird. Hinsichtlich der Eigenwerte der
Matrix p(A) lässt sich sagen:
Theorem 11.18 (Eigenwerte eines Polynoms einer Matrix)
Seien A eine (reelle) n × n Matrix und p(z) ein komplexes Polynom mit reellen Koeffizienten. Die
Eigenwerte von A seien mit λ1 , λ2 , . . . , λn bezeichnet. Dann sind die Eigenwerte der Matrix p(A)
gegeben durch p(λ1 ), p(λ2 ), . . . , p(λn ) . Ferner gilt für einen reellen Eigenwert λ von A :
Jeder Eigenvektor von A zum (reellen) Eigenwert λ ist auch ein Eigenvektor von p(A) zum (reellen)
Eigenwert p(λ).
11.4
Symmetrische Matrizen
Symmetrische (reelle) n × n Matrix weisen sehr angenehme Eigenschaften hinsichtlich Eigenwerten
und Eigenvektoren auf. Sie haben ausschließlich reelle Eigenwerte und die zugehörigen Eigenvektoren
lassen sich als eine Orthonormalbasis von Rn wählen. Insbesondere ist eine symmetrische Matrix
diagonalisierbar im Sinne von Bemerkung 11.15, und dies sogar durch eine orthogonale Matrix V ,
(“Hauptachsentransformation”).
Theorem 11.19 (Alle EW’e einer symmetrischen Matrix sind reell)
Wenn A eine symmetrische (reelle) n × n Matrix ist, dann sind alle Eigenwerte von A reell.
Beweis:
¡
¢
Sei λ ∈ C ein Eigenwert von A = ai,j 1≤i,j≤n . Nach Theorem 11.4 gibt es einen komplexen Vektor
z = (z1 , z2 , . . . , zn )t ∈ Cn×1 , z 6= 0, mit Az = λz . Ausgeschrieben haben wir also n Gleichungen:
n
X
ai,j zj = λzi ,
1 ≤ i ≤ n.
j=1
Multipliziere die i-te Gleichung mit z i und summiere dann alle Gleichungen:
n X
n
X
ai,j z i zj = λ
i=1 j=1
n
X
i=1
40
z i zi .
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Nun ist z i zi = |zi |2 , also reell und ≥ 0, und daher (und da nicht alle zi gleich Null sind):
n
X
z i zi =
i=1
Also haben wir:
n X
n
X
n
X
|zi |2 = c > 0 .
i=1
ai,j z i zj = λ c mit einem c ∈ R, c > 0 ,
(11.7)
i=1 j=1
und wir nehmen die konjugiert komplexen beider Seiten (unter verwendung der Rechenregeln für das Konjugieren
komplexer Zahlen):
n X
n
X
(11.8)
ai,j zi z j = λ c .
i=1 j=1
Nun ist die Matrix A symmetrisch, also ai,j = aj,i für alle i, j, folglich
n X
n
X
ai,j zi z j =
i=1 j=1
n X
n
X
aj,i zi z j ,
i=1 j=1
Pn Pn
und das ist dasselbe wie i=1 j=1 ai,j zj z i . Also sind die linken seiten von (11.7) und (11.8) identisch, und es
folgt: λc = λc und wegen c 6= 0 daher λ = λ . Also ist λ reell.
Theorem 11.20 (Orthogonalität der Eigenräume einer symm. Matrix)
Sei A eine (reelle) symmetrische n × n Matrix, und seien λ und µ zwei verschiedene Eigenwerte von
A, (die nach Theorem 11.19 beide reell sind). Dann gilt für jeden Eigenvektor x von A zum Eigenwert
λ und jeden Eigenvektor y von A zum Eigenwert µ :
x und y sind zueinander orthogonal, (d.h. xt y = 0 ).
Beweis: Aus Ax = λx und Ay = µy folgt:
y t Ax = λy t x
und xt Ay = µxt y .
Auf beiden Seiten beider Gleichungen stehen Skalare (1×1 Matrizen), und daher, mit den formalen Rechnregeln
für das Transponieren:
³
´t
y t Ax = y t Ax = xt At y = xt Ay ,
¡
¢t
y t x = y t x = xt y .
Wir haben daher: λ xt y = µ xt y, folglich (λ − µ) xt y = 0, und wegen λ − µ 6= 0 daher xt y = 0 .
Theorem 11.21 (Hauptachsentransformation/Spektralzerlegung einer symm. Matrix)
Sei A eine symmetrische (reelle) n × n Matrix, und bezeichne λ1 , λ2 , . . . , λn die Eigenwerte von A, (die
nach Theorem 11.19 alle reell sind). Dann gibt es zugehörige Eigenvektoren v 1 , v 2 , . . . , v n , (d.h. v i ist
Eigenvektor von A zum Eigenwert λi , 1 ≤ i ≤ n), die eine Orthonormalbasis von Rn bilden. Anders
gesagt:
Es gibt eine (reelle) orthogonale n × n Matrix V , d.h. V t V = I n , so dass
¡
¢
V t AV = Λ = diag λ1 , λ2 , . . . , λn .
Beweis:
Zu zeigen ist nur, dass für jeden Eigenwert von A seine geometrische Vielfachheit gleich seiner algebraischen Vielfachheit ist. Daraus ergibt sich dann, wenn mit λ1 , . . . , λr die verschiedenen unter den Eigenwerten λ1 , λ2 , . . . , λn
41
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
gegeben sind und m1 , . . . , mr ihre algebraischen Vielfachheiten, d1 , . . . , dr ihre geometrische Vielfachheiten bezeichnet werden:
r
X
dj = mj für alle j = 1, . . . , r , folglich
dj = n .
j=1
Nun ist dj die Dimension des Eigenraumes von A zum Eigenwert λj , und wir können daher eine Orthonormal(j)
(j)
basis v 1 , . . . , v dj dieses Eigenraumes wählen, für jedes j = 1, . . . , r. Nun sind die r Eigenräume zueinander
orthogonal (Theorem 11.20), so dass alle n Vektoren zusammen,
(j)
vi
, (1 ≤ i ≤ dj , 1 ≤ j ≤ r ),
paarweise zueinander orthogonal sind, und alle Betrag gleich 1 haben. sie bilden daher eine Orhonormalbasis
von Rn×1 .
Zu zeigen bleibt also, dass für jeden Eigenwert λ von A seine geometrische Vielfachheit d gleich seiner algebraischen Vielfachheit m ist. Aus Theorem 11.12 wissen wir jedenfalls: d ≤ m. Angenommen, es würde gelten d < m.
Wähle eine Orthonormalbasis v 1 , . . . , v d des Eigenraumes N (A − λI n ). Ergänze diese£ zu einer Orthonormalba¤
sis von Rn : v 1 , . . . , v d , v d+1 , . . . , v n , und bilde die orthogonale n × n Matrix V = v 1 , . . . , v d , v d+1 , . . . , v n ,
sowie
¡
¢
V t AV = v ti Av j 1≤i,j≤n .
Aus Av j = λv j für 1 ≤ j ≤ d und der Symmetrie von A (und daher auch der Symmetrie von V t AV ) ergibt
sich:
·
¸
λI d
0d×(n−d)
V t AV =
,
0(n−d)×d
C
mit einer symmetrischen (n − d) × (n − d) Matrix C. Für das charakteristische Polynom von A, das gleich dem
charakteristischen Polynom von V t AV ist, erhalten wir:
·
¸
¡
¢
(λ − z)I d
0d×(n−d)
χA (z) = det V t AV − zI n = det
0(n−d)×d C − zI n−d
= (−1)d (z − λ)d χC (z) .
Wegen d < m muss daher das charakteristische Polynom von C noch den Faktor z − λ enthalten, also muss λ
ein Eigenwert auch der Matrix C sein. Daher gibt es einen Eigenvektor ỹ von C zum Eigenwert λ :
ỹ = (yd+1 , . . . , yn )t ∈ R(n−d)×1 , ỹ 6= 0 ,
C ỹ = λỹ .
Bilde den Vektor y = (0, . . . , 0, yd+1 , . . . , dn )t ∈ Rn×1 . Dann ist y 6= 0 und
V t AV y = λy ,
bzw. Ax = λx mit x = V y .
Pn
Wegen y 6= 0 ist auch x 6= 0. Also ist der Vektor x = V y =
j=d+1 yj v j auch ein Eigenvektor von A zum
Eigenwert λ, und x ist orthogonal zu allen v 1 , . . . , v d , und damit orthogonal zu jedem Vektor des Eigenraumes
N (A − λI n ). Das ist natürlich ein Widerspruch, da x ja selbst zu diesem Eigenraum gehört und nicht der
Nullvektor ist. Die Annahme d < m war also falsch, und es muss d = m gelten.
Definition 11.22 (Quadratische Form einer symmetrischen Matrix)
Die zur symmetrischen (reellen) n × n Matrix A gebildete rellwertige Funktion
x 7−→ xt Ax ,
x ∈ Rn×1 ,
nennt man die quadratische Form zur (symmetrischen) Matrix A.
Man beachte, dass für zwei Spaltenvektoren x, y ∈ Rn×1 das “Matrixprodukt” xt y nichts anderes als
das Skalarprodukt der beiden Vektoren ist:


y1
n
 y2 
X


xi yi .
xt y = (x1 , x2 , . . . , xn )  .  =
 .. 
yn
42
i=1
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Daher ist xt Ax, für x ∈ Rn×1 , das Skalarprodukt
von x und dem Vektor y = Ax ∈ Rn×1 . Führen
¡
¢
wir die Einträge der Matrix A ein, A = ai,j 1≤i,j≤n , so haben wir expliziter:
 Pn

j=1 a1,j xj
 Pn

n ³ X
n
n X
n
´
X
X

j=1 a2,j xj 
t


x Ax = (x1 , x2 , . . . , xn ) 
xi
ai,j xj = =
ai,j xi xj .
..
 =
.


i=1
j=1
i=1 j=1
Pn
j=1 an,j xj
Zum Beispiel im Fall n = 2 :
xt Ax = a1,1 x21 + a2,2 x22 + a1,2 x1 x2 + a2,1 x2 x1 = a1,1 x21 + a2,2 x22 + 2a1,2 x1 x2 .
Und im Fall n = 3 erhált man:
xt Ax = a1,1 x21 + a2,2 x22 + a3,3 x33 + 2a1,2 x1 x2 + 2a1,3 x1 x3 + 2a2,3 x2 x3 .
Theorem 11.23 (Maximaler und minimaler Eigenwert einer symm. Matrix)
Sei A eine symmetrische (reelle) n × n Matrix, und bezeichne λ1 , λ2 , . . . , λn die Eigenwerte von A,
(die nach Theorem 11.19 alle reell sind). Betrachte
λmax
=
λmin
=
max λi
(der maximale Eigenwert von A) , und
min λi
(der minimale Eigenwert von A) .
1≤i≤n
1≤i≤n
Dann gilt:
λmax
=
λmin
=
n
o
max xt Ax : x ∈ Rn×1 , |x| = 1 ,
n
o
min xt Ax : x ∈ Rn×1 , |x| = 1 .
und
Das ist eine Konsequenz aus der Hauptachsentransformation von A, (Theorem 11.20). Wir wollen dies erläutern
für die erste Gleichung (maximaler Eigenwert), für die zweite (minimaler Eigenwert) sind die Argumente ähnlich.
Nach Theorem 11.20 haben wir
¡
¢
V t AV = Λ = diag λ1 , λ2 , . . . , λn
bzw. A = V ΛV t ,
wobei V eine gewisse orthogonale n × n Matrix ist. Sei nun x ∈ Rn×1 mit |x| = 1 beliebig gegeben. Bezeichne
y = V t x. Dann:
n
X
t
t
t
xt Ax = x
V
Λ
V
x
=
y
Λy
=
λi yi2 ,
|{z} |{z}
= yt
i=1
=y
wobei y = (y1 , y2 , . . . , yn )t . Aus λi ≤ λmax folgt λi yi2 ≤ λmax yi2 , 1 ≤ i ≤ n, folglich:
xt Ax ≤ λmax
n
X
yi2 = λmax |y|2 .
i=1
Nun ist
|y|2 = y t y = xt V
V }t x = xt x = |x|2 = 1 ,
| {z
= In
und wir haben:
xt Ax ≤ λmax
für alle x mit |x| = 1 .
Wählen wir speziell x als einen normierten (d.h. |x| = 1) Eigenvektor von A zum Eigenwert λmax , so gilt:
xt Ax = xt (λmax x) = λmax |{z}
xt x = = λmax ,
=1
43
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
womit die erste Gleichung des Theorems bewiesen ist.
Eine wichtige Teilklasse der symmetrischen n × n Matrizen ist die der positiv definiten n × n Matrizen;
auch die (etwas größere Teilklasse der positiv semi-definiten n × n Matrizen ist bisweilen interessant.
Definition 11.24 (Positiv (semi-) definite Matrix)
Eine symmetrische (reelle) n × n Matrix A heißt positiv definit, wenn gilt:
xt Ax > 0 für alle x ∈ Rn×1 , x 6= 0 .
Eine symmetrische (reelle) n × n Matrix A heißt positiv semi-definit, wenn gilt:
xt Ax ≥ 0 für alle x ∈ Rn×1 .
¡
¢
Die positive Definitheit einer (symmetrischen) n × n Matrix A = ai,j 1≤i,j≤n , besagt also, dass die
quadratische Form der (symmetrischen) Matrix A positiv auf Rn×1 \{0} ist; die positive Semidefinitheit
von A besagt, dass die quadratische Form von A nicht-negativ auf Rn×1 ist. Wir bemerken noch:
¡ ¢
Wenn A = ai,j 1≤i,j≤n positiv definit ist, dann sind ihre Diagonaleinträge positiv: ai,i > 0 für alle
i = 1, 2, . . . , n .
¡ ¢
Wenn A = ai,j 1≤i,j≤n positiv semi-definit ist, dann sind ihre Diagonaleinträge nicht-negativ:
ai,i ≥ 0 für alle i = 1, 2, . . . , n .
Das sieht man durch Einsetzen der elementaren Einheitsvektoren ei für x in die quadratische Form. Die
Umkehrungen dieser beiden Aussagen sind im Allgemeinen nicht richtig: Die Bedingung der positiven
Definitheit [positiven Semi-Definitheit] ist wesentlich stärker als nur die Positivität [Nicht-Negativität]
der Diagonaleinträge. Lediglich im Fall einer Diagonalmatrix A sind diese Bedingungen äquivalent.
Desweiteren definiert man auch negative [Semi-] Definitheit einer symmetrischen n × n Matrix A :
Die Matrix A heißt negativ definit, wenn die Matrix −A positiv definit ist.
Die Matrix A heißt negativ semi-definit, wenn die Matrix −A positiv semi-definit ist.
Im Folgenden werden wir weitere Charakterisierungen der positiven [Semi-] Definitheit einer (symmetrischen) Matrix kennen lernen. Zunáchst noch ein elementares Resultat, das sich unmittelbar mit
Definition 11.24 einsehen lässt:
Theorem 11.25
Wenn A eine positiv definite n × n Matrix ist und B eine reguläre n × n Matrix, dann ist auch die
Matrix B t AB positiv definit.
Wenn A eine positiv semi-definite n × n Matrix ist und B eine beliebige n × n Matrix, dann ist auch
die Matrix B t AB positiv semi-definit.
Theorem 11.26 (Eigenwerte und positive (Semi-) Definitheit)
Sei A eine symmetrische (reelle) Matrix. Dann gilt:
(a) A ist genau dann positiv definit, wenn alle Eigenwerte von A positiv sind.
Folgerung: Wenn A positiv definit ist, dann ist A regulär und die Inverse A−1 ist ebenfalls positiv
definit.
(b) A ist genau dann positiv semi-definit, wenn alle Eigenwerte von A nicht-negativ sind.
Aus Definition 11.24 sieht man nämlich leicht:
44
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
A ist genau dann positiv definit, wenn
xt Ax > 0 für alle x ∈ Rn×1 mit |x| = 1 ,
und zusammen mit Theorem 11.23 besagt dies: λmin > 0, d.h. alle Eigenwerte von A sind positiv.
Und analog: A ist genau dann positiv semi-definit, wenn
xt Ax ≥ 0 für alle x ∈ Rn×1 mit |x| = 1 ,
d.h. λmin ≥ 0, d.h. alle Eigenwerte von A sind nicht-negativ.
Beispiel 11.27 (Massenträgheitsmatrix eines 3-dim. Körpers)
Ein drei-dimensionaler Körper ist geometrisch durch eine kompakte Menge B ⊆ R3 von positivem
Volumen beschrieben; desweiteren besitzt er eine Massendichtefunktion ρ : B −→ [ 0 , ∞[ . Die Masse
des Körpers ist das Volumenintegral der Funktion ρ über die Menge B,
Z
m =
ρ(x) dV(x) .
B
Das Koordinatensystem sei so gelegt, dass der Nullpunkt der Massenmittelpunkt des Körpers ist:
Z
x ρ(x) dV(x) = 0 .
B
Die axialen Massenträgheitsmomente bezgl. der drei Koordinatenachsen sind dann gegeben durch:
Z
Z
¡ 2
¢
¡ 2
¢
2
|x| − x21 ρ(x) dV(x) ,
x2 + x3 ρ(x) dV(x) =
J1,1 =
B
B
Z
J2,2
¡
=
B
Z
J3,3
¡
=
B
¢
x21 + x23 ρ(x) dV(x) =
Z
x21 + x2 ρ(x) dV(x) =
¢
|x|2 − x22 ρ(x) dV(x) ,
¡
¢
|x|2 − x23 ρ(x) dV(x) .
B
Z
¢
2
¡
B
Man führt noch die deviatorischen Massenträgheitsmomente ein:
Z
Z
J1,2 = −
x1 x2 ρ(x) dV(x) , J1,3 = −
x1 x3 ρ(x) dV(x) ,
B
B
Z
J2,3 = −
B
x2 x3 ρ(x) dV(x) ,
und bildet die Massenträgheitsmatrix (oder den Trägheitstensor):


J1,1 J1,2 J1,3
J =  J1,2 J2,2 J2,3  .
J1,3 J2,3 J3,3
Die 3 × 3 Matrix J ist offensichtlich symmetrisch; sie ist positiv definit, denn:
Sei a = (a1 , a2 , a3 )t ∈ R3 , a 6= 0, gegeben. Dann:
at Ja
=
=
J1,1 a21 + J2,2 a22 + J3,3 a23 + 2J1,2 a1 a2 + 2J1,3 a1 a3 + 2J2,3 a2 a3
Z ³
´
(a21 + a22 + a32 ) |x|2 − (a21 x21 + a22 x22 + a23 x23 ) ρ(x) dV(x)
B Z
³
´
−2
a1 a2 x1 x2 + a1 a3 x1 x3 + a2 a3 x2 x3 ρ(x) dV(x)
Z ³
=
B
Z
=
¡
B
¡
¢2 ´
(a21 + a22 + a32 ) |x|2 − a1 x1 + a2 x2 + a3 x3
ρ(x) dV(x)
´
|a|2 |x|2 − (at x)2 ρ(x) dV(x) .
B
45
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
2
2
2
Nach der Cauchy-Schwarz-Ungleichung
gilt |a|
©
ª |x| − (ax) ≥ 0 für alle x ∈ B, und = 0 nur für
solche x, die auf der Geraden αa : α ∈ R liegen. Das zuletzt geschriebene Volumenintegral ist
daher positiv, und wir haben: at J a > 0 .
Ein Vektor a ∈ R3×1 mit |a| = 1 beschreibe eine Rotationsachse, d.h. wir betrachten eine Rotation
des Körpers um die Achse (Gerade durch den Nullpunkt):
©
ª
αa : α ∈ R .
Das Massenträgheitsmoment des Körpers bezgl. dieser Rotationsachse ist dann gegeben durch:
Z
¯
¯
¯ x − (at x) a ¯2 ρ(x) dV(x) ,
Ja =
B
¯2
¯
denn x − (at x) a ist die vektorielle Komponente von x orthogonal zu a und ¯ x − (at x) a ¯ ist daher
der quadrierte Abstand des Punktes x von der Rotationsachse. Es gilt auch:
¯
¯
¯ x − (at x) a ¯2 = |x|2 − (at x)2 ,
und Vergleich mit der obigen (letzten) Integralformal für at Ja liefert:
Ja = at J a für |a| = 1 .
Die quadratische Form der Massenträgheitsmatrix J liefert also (für Vektoren vom Betrag 1) gerade
die Massenträgheitmomente bezüglich beliebiger Rotationsachsen. Die Rotationsachsen, die durch normierte Eigenvektoren von J gegeben sind, heißen die Hauptträgheitachsen des Körpers. Insbesondere
sind die Rotationsachsen mit maximalem bzw. mit minimalem Massenträgheitmoment zwei Hauptträgheitsachsen, denn:
Ja = at J a ist maximal bezgl. aller a mit |a| = 1 genau für einen normierten Eigenvektor amax von
J zum maximalen Eigenwert λmax und das maximale Massenträgheitsmoment ist gleich λmax .
Ja = at J a ist minimal bezgl. aller a mit |a| = 1 genau für einen normierten Eigenvektor amin von
J zum minimalen Eigenwert λmin und das minimale Massenträgheitsmoment ist gleich λmin .
(S. Theorem 11.23 und die daran anschließenden Ausführungen).
Theorem 11.28 (Faktorisierung einer p.d bzw. p.s.d. Matrix)
Für eine symmetrische n × n Matrix A gilt:
A ist genau dann positiv definit, wenn es eine reguläre (reelle) n × n Matrix W gibt, so dass
A = WWt .
A ist genau dann positiv semi-definit, wenn es eine (reelle) n×n Matrix W gibt, so dass A = W W t .
Mit Theorem 11.21 (Hauptachsentransformation) lässt sich die symmetrische Matrix ja schreiben als
A = V ΛV t
mit einer orthogonalen n × n Matrix V und einer Diagonalmatrix Λ, die als Diagonaleinträge die Eigenwerte
von A hat:
¡
¢
Λ = diag λ1 , λ2 , . . . , λn .
Wenn A posutiv [semi-]definit ist, dann nach Theorem 11.26 : λi > 0 [λi ≥ 0] für alle i = 1, 2, . . . , n. Wähle als
Matrix W :
p
p ¢
¡p
λ1 , λ2 , . . . , λn .
W = V Λ1/2 , wobei Λ1/2 = diag
Diese Matrix leistet das Verlangte.
Wenn umgekehrt gilt: A = W W t mit einer n × n Matrix W , dann
¡
¢t ¡
¢
xt Ax = xt W W t x = W t x W x =
46
haben wir für jedes x ∈ Rn×1 :
¯ t ¯2
¯W x¯ ≥ 0 .
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Also ist A positiv semi-definit. Wenn die Matrix W regulär ist, dann auch W t und daher W t x 6= 0 für alle
x 6= 0, also:
¯
¯2
xt Ax = ¯W t x¯ > 0 für alle x 6= 0 ,
und A ist daher positiv definit.
Bemerkung 11.29 (Quadratwurzel einer p.d./p.s.d. Matrix)
Wenn A eine positiv definite [positiv semi-definite] n × n Matrix ist, dann gibt es eine eindeutig bestimmte
¢2
¡
positiv definite [positiv semi-definite] n × n Matrix A1/2 mit A = A1/2 A1/2 = A1/2 .
Die Existenz einer solchen “Quadratwurzel” A1/2 sieht man entlang der obigen Argumentation: Gemäß Hauptachsentransformation haben wir A = V ΛV t ; wähle A1/2 = V Λ1/2 V t . Diese Matrix ist positiv definit [positiv
semi-definit] und
t
1/2 t
1/2 1/2
t
A1/2 A1/2 = V Λ1/2 V
| {zV} Λ V = V Λ
| {zΛ } V = A .
= In
=Λ
Die Berechnung einer Faktorisierung einer positiv definiten Matrix gemäß Theorem 11.28 (oder der
Qudratwurzel gemäß Bemerkung 11.29) mittels der Hauptachsentransformation ist in der Regel sehr
aufwändig. Deutlich einfacher ist die Berechnung der folgenden Cholesky-Zerlegung, die in gängigen
Computerprogrammen zur Matrizenrechnung implementiert ist.
Theorem 11.30 (Cholesky-Zerlegung einer p.d. Matrix)
Sei A eine positiv definite n × n Matrix. Dann gibt es eine untere Dreiecksmatrix L (∈ Rn×n ), so dass
A = LLt .
Bisweilen von Nutzen ist das folgende Hilfsresultat:
Theorem 11.31 (Hilfsresultat zur Diagonalisierung einer Matrix)
Die n × n Matrix A sei das Produkt einer positiv definiten n × n Matrix P und einer symmetrischen
n × n Matrix B :
A = P B , P p.d. und B symmetrisch.
Beachte: A ist in der Regel nicht symmetrisch.
Dann sind alle Eigenwerte von A reell, und es gibt zugehörige Eigenvektoren v 1 , v 2 , . . . , v n von A, die
eine Basis von Rn×1 bilden. Anders gesagt: Die Matrix A ist diagonalisierbar :
A = V −1 ΛV
£
¤
mit einer regulären
n×n
¡
¢ Matrix V = v 1 , v 2 , . . . , v n und einer Diagonalmatrix
Λ = diag λ1 , λ2 , . . . , λn , (vergl. Bemerkung 11.15).
Wenn außerdem auch die Matrix B positiv definit ist, dann sind alle Eigenwerte von A positiv.
Beweis: Nach Theorem 11.28 ist P = W W t mit einer regulären n × n matrix W . Aus A = W W t B folgt
W −1 AW = W t BW ,
und diese Matrix ist symmetrisch, und im Fall, dass B positiv definit ist, ist W −1 AW sogar positiv definit.
Nach Hauptachsentransformation (Theorem 11.21) gibt es eine Darstellung
W −1 AW = U ΛU t
¡
¢
mit einer orthogonalen n × n Matrix U und einer Diagonalmatrix Λ = diag λ1 , λ2 , . . . , λn , und im Fall, dass
B positiv definit ist, sind alle λi positiv. Es folgt:
A = W U ΛU t W −1 ,
47
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
und mit V = W U daher:
A = V ΛV −1
bzw.
V −1 AV = Λ .
Die Eigenwerte von A sind die Diagonaleinträge λi von Λ, und zugehörige Eigenvektoren sind durch die Spalten
von V gegeben.
Beispiel 11.32 (n-Massen-Linearschwinger)
In Erweiterung von Beispiel 11.16 betrachten wir n ≥ 3 Massen m1 , m2 , . . . , mn (in linearer Anordnung), die jeweils einer linear-elastischen Kraft unterliegen sowie linear-elastisch mit ihren Nachbarn gekoppelt sind, (m1 hat nur m2 als Nachbar, mi hat die beiden Nachbarn mi−1 und mi+1 für
2 ≤ i ≤ n − 1, und mn hat nur den Nachbarn mn−1 ). Die Massen führen eine lineare Schwingung
(d.h. Schwingung auf einer Geraden) um ihre jeweilige Gleichgewichtslage aus. Bezeichne si = si (t)
die Auslenkung (mit Vorzeichen behaftet) der Masse mi zur Zeit t ≥ 0, (1 ≤ i ≤ n). Diese genügen
den Differentialgleichungen:
¡
¢
m1 s̈1 = −k1 s1 − k1,2 s1 − s2 ,
¡
¢
¡
¢
mi s̈i = −ki−1,i si − si−1 − ki,i+1 si − si+1 , 2 ≤ i ≤ n − 1 ,
¡
¢
mn s̈n = −kn sn − kn−1,n sn − sn−1 .
Dabei sind k1 , kn und ki,i+1 (1 ≤ i ≤ n − 1) positive Konstanten (“Steifigkeiten”). Dividieren wir die
Differentialgleichungen jeweils durch mi (1 ≤ i ≤) und schreiben wir
¡
¢t
s = s(t) = s1 (t) , s2 (t) , . . . , sn (t) , so können wir obige Differentialgleichungen in Vektor/MatrixForm schreiben als:
s̈ + As = 0 ,
¢
¡
wobei A = ai,j 1≤i,j≤n die folgende “Tridiagonal-Matrix” ist:


ai,i =
(k1 + k1,2 )/m1
, falls i = 1
(ki−1,i + ki,i+1 )/mi , falls 2 ≤ i ≤ n − 1

(kn + kn−1,n )/mn , falls i = n
ai,i+1 = −ki,i+1 /mi , (1 ≤ i ≤ n − 1) ,
ai,j = 0 ,
ai−1,i = −ki−1,i /mi , (2 ≤ i ≤ n) ,
falls |i − j| ≥ 2 .
Diese Matrix A können wir auch schreiben als
A = PB
¡
¢
mit der (positiv definiten) Diagonalmatrix
P = diag 1/m1 , 1/m2 , . . . , 1/mn und der symmetri¡ ¢
schen Tridiagonalmatrix B = bi,j 1≤i,j≤n :


bi,i
k1 + k1,2
, falls i = 1
ki−1,i + ki,i+1 , falls 2 ≤ i ≤ n − 1
=

kn + kn−1,n , falls i = n
bi,i+1 = −ki,i+1 , (1 ≤ i ≤ n − 1) ,
bi,j = 0 ,
falls |i − j| ≥ 2 .
Desweiteren ist B positiv definit.
48
bi−1,i = −ki−1,i , (2 ≤ i ≤ n) ,
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Das sieht man wie folgt. Für x = (x1 , x2 , . . . , xn )t ∈ Rn×1 , x 6= 0, erhalten wir:
xt Bx =
n
X
bi,i x2i + 2
i=1
n−1
X
bi,i+1 xi xi+1
i=1
= (k1 + k1,2 )x21 +
n−1
X
(ki−1,i + ki,i+1 )x2i + (kn + kn−1,n )x2n − 2
i=2
= (k1 + k1,2 )x21 +
= k1 x21 + kn x2n +
n−2
X
n−1
X
ki,i+1 xi xi+1
i=1
ki,i+1 x2i+1 +
n−1
X
ki,i+1 x2i + (kn + kn−1,n )x2n − 2
i=1
i=2
n−1
X
¡
¢
ki,i+1 x2i+1 + x2i − 2xi xi+1
n−1
X
ki,i+1 xi xi+1
i=1
i=1
= k1 x21 + kn x2n +
n−1
X
¡
¢2
ki,i+1 xi+1 − xi
> 0.
i=1
Nach Theorem 11.31 sind alle Eigenwerte λ1 , λ2 , . . . , λn der Matrix A reell und positiv, und es gibt
zugehörige Eigenvektoren v 1 , v 2 , . . . , v n , die eine Basis von Rn×1 bilden. Wir können daher s = s(t)
in Koordinaten bezüglich der Basis v 1 , v 2 , . . . , v n schreiben:
s(t) = u1 (t)v 1 + u2 (t)v 2 + . . . + un (t)v n ,
d.h.
−1
s(t) = V u(t) bzw. u(t) = V s(t) ,
¡
¢t
¤
£
mit u(t) = u1 (t) , u2 (t) , . . . , un (t) und der (regulären) Matrix V = v 1 , v 2 , . . . , v n . Die
Differentialgleichung schreibt sich daher als
V ü + AV u = 0 ,
¢
¡
und durch Multiplikation von links mit V −1 , und wegen V −1 AV = Λ = diag λ1 , λ2 , . . . , λn , als:
ü + Λu = 0 ,
üi + λi ui = 0 ,
d.h.
1 ≤ i ≤ n.
Dies sind ungekoppelte Differentialgleichungen, die daher separat (für jedes einzelne i = 1, 2, . . . , n)
gel;öst werden können:
p
ui (t) = ci cos(ωi t + αi ) , mit ωi = λi , 1 ≤ i ≤ n ,
mit Konstanten ci und αi , die sich aus den Anfangsbedingungen ui (0) und u̇i (0) (bzw. si (0) und ṡi (0))
ergeben (1 ≤ i ≤ n). Wir haben also erhalten:
s(t) = c1 cos(ω1 t + α1 ) v 1 + c2 cos(ω2 t + α2 ) v 2 + . . . + cn cos(ωn t + αn ) v n ,
also
√ eine Überlagerung von n harmonischen Schwingungen mit den jeweiligen Eigenfrequenzen ωi =
λi , (1 ≤ i ≤ n). Nur zu speziellen Anfangsbedingungen (wenn sowohl s(0) als auch ṡ(0) skalare
Vielfache eines der Basisvektoren v i sind), erhält man eine reine harmonische Schwingung mit einer
der Eigenfrequenzen.
Wir geben noch eine Charakterisierung der positiven Definitheit einer (symmetrischen) Matrix mit
Hilfe gewisser “Unterdeterminanten” (den sog. Hauptminoren) der Matrix. Für eine n×n Matrix A =
¢
¡
ai,j 1≤i,j≤n und ein gegebenes k ∈ {1, 2, . . . , n} bezeichne A1,...,k
1,...,k die k × k Matrix (“Teilmatrix”),
die nur die ersten k Zeilen und Spalten von A einbezieht:
¡
¢
A1,...,k
1,...,k = ai,j 1≤i,j≤k .
49
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Theorem 11.33 (Positive Definitheit und Hauptminoren)
Sei A eine symmetrische n × n Matrix. Dann:
A ist genau dann positiv definit, wenn
³
´
det A1,...,k
> 0
1,...,k
für alle k = 1, 2, . . . , n .
Die genannten (Unter-)Determinanten nennt man auch Hauptminoren der Matrix A.
Z.B. für eine symmetrische 2 × 2 Matrix
·
A =
a1,1 a1,2
a1,2 a2,2
¸
besagt das Theorem:
A ist genau dann positiv definit, wenn a1,1 > 0 und a1,1 a2,2 − a21,2 > 0 .
11.5
Orthogonale Matrizen
Wir haben schon wiederholt den Begriff einer orthogonalen Matrix verwendet. Hier nochmals die
Definition:
Definition 11.34 (Orthogonale Matrix)
Eine (reelle) n × n Matrix U heißt orthogonal, wenn U t U = I n , bzw. damit äquivalent:
U ist regulär und U −1 = U t ,
was auch äquivalent zu U U t = I n ist.
Da die Einträge des Matrixprodukts U t U die paarweisen Skalarprodukte der Spalten von U sind,
bedeutet die Orthogonalität der Matrix U :
Die Spalten von U bilden eine Orthonormalbasis von Rn×1 .
Ebenso, da die Bedingung U U t = I n ebenfalls äquivalent zur Orthogonalität der Matrix U ist und
die Einträge des Produkts U U t die paarweisen Skalarprodukte der Zeilen von U sind, lässt sich die
Othogonalität der Matrix U auch so beschreiben:
Die Zeilen von U bilden eine Orthonormalbasis von R1×n .
Eine orthogonale Matrix U hat – als (lineare) Transformation x 7−→ U x in Rn×1 gesehen – die
Eigenschaft, dass sie das Skalarprodukt je zweier Vektoren und damit auch den Betrag eines Vektors
sowie den Abstand zweier Vektoren invariant lässt:
(U x)t (U y) = xt y
für alle x, y ∈ Rn×1 ,
da ja (U x)t (U y) = xt U t U y und U t U = I n ;
|U x| = |x| für alle x ∈ Rn×1 ;
¯
¯
¯ U x − U y ¯ = |x − y| für alle x, y ∈ Rn×1 .
Man spricht auch von der Winkeltreue und der Längentreue der orthogonalen Transformation x 7−→
U x . Hinsichtlich der oben genannten Eigenschaft der Invarianz von Abstánden (Isometrie lässt sich
zeigen, dass jede isometrische Transformation in Rn×1 notwendig eine orthogonale Transformation im
Verein mit einer Translation (Verschiebung) ist:
50
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Theorem 11.35 (Isometrien im n-dimensionalen Raum)
Sei T : Rn×1 −→ Rn×1 eine Isometrie, d.h.
¯
¯
¯ T (x) − T (y) ¯ = |x − y| für alle x, y ∈ Rn×1 .
Dann gibt es eine orthogonale n × n Matrix U und einen Vektor c ∈ Rn×1 , so dass
T (x) = U x + c für alle x ∈ Rn×1 .
Theorem 11.36 (Orthogonale Gruppe)
Die Menge aller orthogonalen n × n Matrizen bildet eine Gruppe bezüglich der Matrixmultiplikation,
d.h es gilt:
Wenn U und V zwei orthogonale n × n Matrizen sind, dann ist auch U V eine orthogonale n × n
Matrix;
¡
wenn U eine orthogonale n × n Matrix ist, dann ist auch U −1 = U t ) eine orthogonale n × n Matrix.
Das ist leicht zu sehen:
t
t
(U V )t (U V ) = V t U
| {zU} V = V V = I n .
= In
Die zweite Eigenschaft ist direkt aus Definition 11.34 ersichtlich.
Theorem 11.37 (Eigenwerte und Determinante einer orthogonalen Matrix)
Wenn U eine orthogonale Matrix ist, dann haben alle Eigenwerte von U den Betrag 1, und insbesondere
gilt: det(U ) = ±1 .
Das sieht man wie folgt. Sei λ ∈ C ein Eigenwert der orthogonalen Matrix U . Nach Theorem 11.4 ¡gibt ¢es einen
komplexen Eigenvektor, d.h. ein z ∈ Cn×1 , z 6= 0, so dass U z = λz . Mit den Einträgen U = ui,j 1≤i,j≤n
und z = (z1 , z2 , . . . , zn )t schreibt sich das so:
n
X
ui,j zj = λ zi
für alle i = 1, 2, . . . , n .
j=1
Durch Konjugation beider Seiten der Gleichungen:
n
X
ui,j z j = λ z i
für alle i = 1, 2, . . . , n ,
j=1
und durch Multiplikation:
n
³X
ui,j zj
j=1
n X
n
X
n
´ ³X
´
ui,j z j
= λλ zi z i
für alle i = 1, 2, . . . , n , d.h.
j=1
ui,j ui,k zj z k = |λ|2 |zi |2
für alle i = 1, 2, . . . , n .
j=1 k=1
Summation aller n zuletzt erhaltenen Gleichungen ergibt:
n X
n X
n
X
ui,j ui,k zj z k = |λ|2
n
X
|zi |2 .
i=1
i=1 j=1 k=1
Nun ist die dreifache Summe auf der linken Seite gleich
n X
n ³X
n
X
n
n
´
X
X
ui,j ui,k zj z k =
zj z j =
|zj |2 ,
j=1 k=1 i=1
j=1
51
j=1
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Pn
denn i=1 ui,j ui,k ist das Skalarprodukt der j-ten und der k-ten Spalte von U und daher gleich 1, falls j = k,
und gleich Null, falls j 6= k. Also haben wir:
n
X
|zj |2 = |λ|2
j=1
n
X
|zi |2 ,
i=1
und wegen z 6= 0 ist die Summe positiv, folglich |λ| = 1 .
Die Determinante von U ist gleich dem Produkt der Eigenwerte λ1 , λ2 , . . . , λn von U , (s. Abschnitt 11.3, Formel
(11.6), folglich | det(U )| = 1 und damit det(U ) = ±1 .
Spezielle orthogonale n × n Matrizen sind die Spiegelungsmatrizen :
U = I n − 2 aat
mit einem a ∈ Rn×1 , |a| = 1 .
(11.9)
Man beachte dabei , dass das Produkt aat eine n × n Matrix ist, nämlich:
¡
¢
aat = ai aj 1≤i,j≤n , wobei a = (a1 , a2 , . . . , an )t .
In der Tat ist U von (11.9) eine orthogonale Matrix, die überdies offensichtlich symmetrisch ist:
¡
¢¡
¢
U t U = I n − 2aat I n − 2aat = I n − 2aat − 2aat + 4a |{z}
at a at = I n .
=1
Geometrisch handelt es sich bei der orthogonalen Matrix (11.9) um eine Spiegelung an der folgenden
Hyperebene, (die den Nullpunkt enthält, also ein (n − 1)-dimensionaler linearer Teilraum von Rn×1
ist):
©
ª
Ha = x ∈ Rn×1 : at x = 0 .
Denn zerlegen wir einen (beliebig gegebenen) Vektor x ∈ Rn in eine Komponente x1 ∈ Ha und eine
Komponente x2 orthogonal zu Ha ,
x = x1 + x2
mit
t
x1 = x − (a x) a und x2 = (at x) a ,
so sehen wir:
U x1 = x1 − 2a at x1 = x1 ,
| {z }
und
=0
¡
¢
¡
¢
U x2 = (at x) I n − 2aat a = (at x) a − 2a |{z}
at a = −(at x) a = −x2 ,
=1
und folglich:
¡
¢
U x = U x1 + x2 = U x1 + U x2 = x1 − x2 .
Die Ha -Komponente (x1 )von x bleibt also erhalten, während die Komponente x2 orthogonal zu Ha zu
−x2 transformiert wird. Das bedeutet: Der Punkt U x ergibt sich aus dem Punkt x durch Spiegelung
an der Hyperebene Ha , (wobei “Spiegelung” natürlich nur für Dimensionen n = 2 und n = 3 direkte
anschauliche Bedeutung hat).
Eine Spiegelungsmatrix U aus (11.9) hat als symmetrische Matrix nur reelle Eigenwerte, die nach
Theorem 11.37 gleich ±1 sind. Genauer ergeben die zuletzt angestellten Betrachtungen:
Die Spiegelungsmatrix U von (11.9) hat den Eigenwert 1 mit der Vielfachheit n−1 und dem Eigenraum
Ha , und den einfachen Eigenwert −1 mit dem Eigenraum span{a} .
52
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Bemerkung 11.38 (Householder-Matrizen und QR-Zerlegung)
(Spezielle) Spiegelungsmatrizen sind die Housholder-Matrizen, die in mehreren numerischen Verfahren zur Matrizenrechnung nutzbringend eingesetzt werden, z.B. zur Berechnung einer sog. QR-Zerlegung einer regulären
Matrix (s. unten).
Eine n × n Householder-Matrix H k
Seien k ∈ {1, . . . , n − 1} und ein Vektor c = (c1 , c2 , . . . , cn )t ∈ Rn×1 gegeben mit γ = c2k + c2k+1 + . . . + c2n > 0 .
Bezeichne:
½
√
+1 , falls ck ≥ 0
sgn(ck ) =
, σ = sgn(ck ) γ ,
−1 , falls ck < 0
¡
¢t
u = 0 , . . . , 0 , ck + σ , ck+1 , . . . , cn
und h = u/|u| ,
und schließlich: H k = I n − 2 hht ,
Householder-Matrix zu k und x .
Dann gilt, wie man unschwer nachrechnet:
Hkc =
¡
c1 , . . . , ck−1 , σ , 0 , . . . , 0
Hky = y
¢t
,
für jeden Vektor y der Form y =
¡
y1 , . . . , yk−1 , 0 , . . . , 0
¢t
.
Mit Hilfe von Householder-Matrizen lässt sich die QR-Zerlegung einer gegebenen regulären n × n Matrix A
berechnen, d.h. eine orthogonale n × n Matrix Q und eine obere Dreiecksmatrix R (n × n), so dass A = QR.
Diese Zerlegung ist z.B. zur Lösung des linearen Gleichungssystems Ax = b von Nutzen (und ist in der Tat eine
oft verwendete Alternative zum Gauß-Algorithmus). Denn mit der QR-Zerlegung von A ist das LGS äquivalent
zu Rx = b̃ mit b̃ = Qt b. Die Lösung des LGS Rx = b̃ ist aber relativ einfach, da R eine obere Dreiecksmatrix
ist. Ebenfalls relativ einfach ist die Berechnung der Inversen R−1 der oberen Dreiecksmatrix R. Dann erhält
man die Inverse von A gemäß A = R−1 Qt .
Wie berechnet man nun (nach Householder)
£ die QR-Zerlegung
¤ einer gegebenen regulären n × n Matrix A ? Wir
blicken auf die Spalten der Matrix, A = a1 , a2 , . . . , an . Im ersten Schritt berechne man die HouseholderMatrix H1 zu k = 1 und c = a1 . Betrachte jetzt die Matrix


σ1
 0



A(1) = H 1 A =  .
ã2 . . . ãn  .
.
 .

0
Im zweiten Schritt berechne man die Householder-Matrix H2 zu k = 2 und c = ã2 (die zweite Spalte der
aktuellen Matrix A(1) ), und betrachte die Matrix


σ1 r1,2

 0
σ2



 0
(2)
(1)
0
â3 . . . ân  .
A
= H 2A
= 

 ..
..

 .
.
0
0
Im dritten Schritt berechne man die Housholder-Matrix H 3 zu k = 3 und c = â3 (der dritten Spalte der
aktuellen Matrix A(2) , usf.
Nach n − 1 Schritten erhält man als aktuelle Matrix eine obere Dreiecksmatrix R. Desweiteren gilt, mit den
berechneten Householder-Matrizen H 1 , H 2 , . . . , H n−1 :
H n−1 H n−2 . . . H 1 A = R ,
A = H 1 H 2 . . . H n−1 R ,
folglich
und Q = H 1 H 2 . . . H n−1 ist eine orthogonale Matrix (Theorem 11.36) mit A = QR .
Sehen wir uns noch orthogonale Matrizen speziell für die Dimensionen n = 2 und n = 3 an.
53
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Beispiel 11.39
(Die
£
¤ orthogonalen 2 × 2 Matrizen)
Sei U = u1 , u2 eine orthogonale 2 × 2 Matrix mit den Spalten u1 , u2 ∈ R2×1 . Da die Spalten
jeweils den Betrag 1 haben, können wir schreiben:
µ
¶
µ
¶
cos(ϕ)
cos(ϕ̃)
u1 =
und u2 =
,
sin(ϕ)
sin(ϕ̃)
wobei ϕ ∈ [ 0 , 2π [ wählbar ist. Da v 1 und v 2 zueinander orthogonal sind, ist ϕ̃ wie folgt wählbar:
Entweder als ϕ̃ = ϕ +
π
2
oder als ϕ̃ = ϕ −
π
2
.
Wegen
¡
¢
¡
¢
cos ϕ + π2 = − sin(ϕ) und sin ϕ + π2 = cos(ϕ) ,
¡
¢
¡
¢
cos ϕ − π2 = sin(ϕ) und sin ϕ − π2 = − cos(ϕ) ,
haben wir:
·
Entweder U =
¸
cos(ϕ) − sin(ϕ)
sin(ϕ)
cos(ϕ)
·
oder U =
cos(ϕ)
sin(ϕ)
sin(ϕ) − cos(ϕ)
¸
,
und dies sind die beiden alternativen Fälle det(U ) = 1 und det(U ) = −1 , (s. Theorem 11.37).
Fall 1: det(U ) = 1 .
Die orthogonale Matrix
·
U =
cos(ϕ) − sin(ϕ)
sin(ϕ)
cos(ϕ)
¸
,
mit gegebenem ϕ ∈ [ 0 , 2π [ ,
beschreibt (als lineare Transformation in der Ebene) eine Drehung um den Winkel ϕ (im mathematisch
positiven Drehsinn) um den Nullpunkt, denn:
Schreibe einen beliebigen Vektor x = (x1 , x2 )t ∈ R2×1 in Polarkoordinaten: x1 = r cos(α) und
x2 = r sin(α) ; dann
µ
¶
µ
¶
cos(ϕ) cos(α) − sin(ϕ) sin(α)
cos(ϕ + α)
Ux = r
= r
,
sin(ϕ) cos(α) + cos(ϕ) sin(α)
sin(ϕ + α)
d.h. der Vektor U x ergibt sich durch Drehung des Vektors x um den Winkel ϕ.
Fall 2: det(U ) = −1 .
Die orthogonale Matrix
·
U =
cos(ϕ)
sin(ϕ)
sin(ϕ) − cos(ϕ)
¸
,
mit gegebenem ϕ ∈ [ 0 , 2π [ ,
beschreibt (als lineare Transformation in der Ebene) eine Spiegelung an der Geraden, (die durch 0
verläuft),
Ã
¡
¢ !
©
ª
cos ϕ2 − π2
2×1
t
¡
¢
Ha = x ∈ R
: a x = 0 , wobei a =
,
sin ϕ2 − π2
denn man rechnet unschwer nach, dass U = I 2 − 2aat .
Beispiel 11.40 (Drehungen im drei-dimensionalen Raum)
Wir betrachten hier nur die orthogonalen 3 × 3 Matrizen U mit det(U ) = 1 . Diese stellen sich als
Drehungen um eine gewisse Drehachse (die durch den Nullpunkt verläuft) heraus. Das wollen wir
herleiten.
Sei also U eine orthogonale 3 × 3 Matrix mit Determinante gleich 1. Zunächst blicken wir auf die
54
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Eigenwerte λ1 , λ2 , λ3 ∈ C von U . Nach Theorem 11.37 gilt |λi | = 1 (i = 1, 2, 3). Da mit jedem
Eigenwert von U auch der konjugierte Wert Eigenwert ist, folgt (unter Beachtung von 1 = det(U ) =
λ1 λ2 λ3 ) :
Nicht alle drei Eigenwerte können echt komplex sein; mindestens ein Eigenwert muss also reell sein,
sagen wir λ1 ∈ R, d.h. λ1 = ±1 . Wenn einer der übrigen Eigenwerte echt komplex ist, sagen wir λ2 ,
dann λ3 = λ2 , und es folgt λ1 = 1 . Wenn λ2 und λ3 beide reell sind, also λ2 = ±1 und λ3 = ±1, dann
muss (wegen λ1 λ2 λ3 = 1) gelten: Entweder sind alle drei Eigenwerte gleich 1, oder ein Eigenwert ist
gleich 1 und die anderen zwei sind gleich −1. In jedem Fall muss also (mindestens) einer der Eigenwerte
λ1 , λ2 , λ3 gleich 1 sein. Daher gibt es einen normierten Eigenvektor d ∈ R3×1 (mit |d| = 1 ) von U
zum Eigenwert 1 :
Ud = d ,
und dieser Vektor d spannt die Drehachse D = span{d} auf, wie sich gleich heraustellen wird. Ergänze
d zu einer Orthonormalbasis w1 , w2 , d von R3×1 . Es gilt w1 ×w2 = ±d, und wir können voraussetzen,
dass w1 ×w2 = d , (im Fall, dass das Vektorprodukt gleich −d ist, ersetze man etwa w1 durch −w1 ).
Nun gilt:
©
ª
©
ª
Wenn x ∈ span w1 , w2 , dann U x ∈ span w1 , w2 .
(11.10)
Denn: Der von w1 und w2 aufgespannte lineare Teilraum ist die Ebene durch den Nullpunkt, die
orthogonal zu d ist; wenn xt d = 0 , dann auch (U x)t (U d) = 0 (Invarianz des Skalarproduktes unter
der orthogonalen Transformation), und wegen U d = d also (U x)t d = 0 .
Die Wirkung der orthogonalen Transformation U ist daher so: Zerlegen wir einen gegebenen Vektor
x in
x = x1 + x2 mit x1 ∈ span{w1 , w2 } und x ∈ span{d} ,
so ist
U x = U x1 + x2
und U x1 ∈ span{w1 , w2 } .
Wir haben daher nur noch die Wirkung der Transformation U in der Ebene span{w1 , w2 } zu untersuchen. Die beiden (orthonormalen) Vektoren w1 und w2 geben uns ein Koordinatensystem für diese
Ebene, wir schreiben also jeden Vektor x1 der Ebene als
x1 = αw1 + βw2 ,
(11.11)
(α und β also die Koordinaten von x1 bezüglich der Basis w1 , w2 der Ebene). Nach (11.10) gilt
insbesondere U w1 , U w2 ∈ span{w1 , ws }, folglich
U w1
=
c1,1 w1 + c2,1 w2 ,
U w2
=
c1,2 w1 + c2,2 w2 ,
wobei die Koeffizienten ci.j gegeben sind durch
ci,j = wti U wj
für i, j = 1, 2 .
Für einen beliebigen Vektor x1 ∈ span{w1 , w2 } erhalten wir daher, mit den Koordinaten von x1 aus
(11.11) :
U x1
=
=
αU w1 + βU w2
¡
¢
¡
¢
α c1,1 w1 + c2,1 w2 + β c1,2 w1 + c2,2 w2
=
(c1,1 α + c1,2 β) w1 + (c2,1 α + c2,2 β) w2 .
Die Wirkung von x1 7−→ U x1 lässt sich daher in den Koordinaten bezüglich der Basis w1 , w2 so
beschreiben:
µ
¶
·
¸µ
¶
α
c1,1 c1,2
α
−→
.
β
c2,1 c2,2
β
55
N. Gaffke (OvG.-Univ. Magdeburg): Vorlesungsskript “Mathematik III für Ingenieure”
KAPITEL 11: LINEARE ALGEBRA III
Nun ist die Koeffizientenmatrix dieser Transformation,
·
¸
c1,1 c1,2
C =
,
c2,1 c2,2
eine orthogonale 2 × 2 Matrix mit Determinante£ gleich 1.¤
Das sieht man so: Definiere die 3 × 3 Matrix W = w1 , w2 , d , und diese ist eine orthogonale Matrix. Es gilt:

wt1 U w1

W t U W =  wt2 U w1
dt U w1
wt1 U w2
wt2 U w2
t
d U w2
wt1 U d


C

wt2 U d  = 
0 0
dt U d
0
0
1

 .
Nach Theorem 11.36 ist dies ebenfalls eine orthogonale 3 × 3 Matrix, woraus man unschwer folgert, dass C eine
orthogonale 2 × 2 Matrix sein muss. Desweiteren:
det(W t U W ) = [det(W )]2 det(U ) = 1 ,
und det(W t U W ) = det(C) , folglich det(C) = 1 .
Nach Beispiel 11.39 beschreibt daher C eine Drehung um den Nullpunkt in der Ebene.
Insgesamt ist klar geworden: Die orthogonale 3 × 3 Matrix U beschreibt (als Tranformation im dreidimensionalen Raum) eine Drehung um die Drehachse span{d} , wobei d ein normierter Eigenvektor
von U zum Eigenwert 1 ist. Wir verzichten hier allerdings darauf, eine explizite Formel für d (mittels
der Einträge von U ) bereitzustellen; auch verzichten wir auf eine Formel für den Drehwinkel.
56
Herunterladen