122 KAPITEL 4 Lineare Algebra 1. Der Vektorraum Rn Definition der Form Basis n 4.1 . Der Vektorraum R besteht aus allen Spaltenvektoren a1 a2 ~a = . . . an und wird von der kanonischen oder naturlichen 0 1 1 0 ~e1 = . , ~e2 = . .. .. 0 0 , 0 0 . . . , ~en = . . .. 1 Das Skalarprodukt zweier Vektoren ~a und ~b ist deniert als ~a · ~b = a1 b1 + a2 b2 + . . . + an bn Der Vektorraum Rn versehen mit diesem Skalarprodukt heit Euklidischer Raum. Der Vektor ~a besitzt die L ange (den Betrag, die Norm) v uX √ u n 2 |~a| := ~a · ~a = t aj j=1 und der Winkel zwischen den Vektoren ~a und ~b wird deniert als cos ^(~a, ~b) := Beispiel Satz ~a · ~b |~a| · |~b| 4.1. Gram-Schmidtsches Orthonormierungsverfahren. Es gilt n 4.1. Sind die ( Vektoren ~v1 , ~v2 , . . . , ~vn des R paarweise orthogonal, d.h. gilt ~vi · ~vj = 1, 0, i = j, i 6= j, so sind die Vektoren linear unabhangig. 123 124 4. LINEARE ALGEBRA Beweis: Es sei α1~v1 + . . . + αn~vn = ~0 ⇒ (α1~v1 + . . . + αn~vn ) · ~vj = αj ~vj · ~vj = αj |~vj2 | = 0. # 4.2. (Gram-Schmidtsches Orthonormierungsverfahren) Es sei~ en b1 , . . . , ~bk ∈ Rn (k ≤ n) linear unabhangige Vektoren des Rn . Hieraus wird nun eine Orthonormalbasis ~c1 , . . . , ~ck ∈ Rn (k ≤ n) der linearen Hulle Lin (~b1 , . . . , ~bk ) konstruiert: Satz (1) Man setzt 1 ~ b1 . ~ |b1 | (2) Der zweite Vektor soll nun zu ~c1 bzw. ~b1 orthogonal sein. Deshalb zerlegt man den Vektor ~b2 in die zu ~c1 parallele Komponente = Projektion von ~b2 auf ~c1 und den dazu orthogonalen Vektor: ~c1 = ~c20 = ~b2 − (~b2 · ~c1 )~c1 und normiert ~c2 = ~c20 . |~c20 | (3) Nun wird der Vektor ~c3 aus ~b3 so konstruiert, dass ~c3 orthogonal zu ~c1 und ~c2 ist, d.h. wir bilden zunachst die Projektionen von auf ~c1 und ~c2 und berechnen dann ~b3 ~c30 = ~b3 − (~b3 · ~c1 )~c1 − (~b3 · ~c2 )~c2 und normieren ~c3 = (4) Man fahrt so fort bis ~ck0 und normiert = ~bk − ~c30 . |~c30 | k−1 X (~bk · ~ci )~ci i=1 ~ck = ~ck0 . |~ck0 | 4.1. In jedem Schritt ist ein Element ~ci konstruierbar. Ware dem nicht so, so ware der Vektor ~bi linear abhangig von ~c1 , . . . , ~ci−1 und damit Bemerkung ~b1 , . . . , ~bi−1 . Das ist aber nach Voraussetzung ausgeschlossen! 1. DER VEKTORRAUM v Rn 125 vu┴ vu u Sind nur 2 linear unabhangige Vektoren ~u, ~v zu orthogonalisieren, so entsteht das orthogaonale System durch ~u1 = ~u und ~u2 = ~v~u⊥ der orthogonale Vektor zur Projektion von ~v auf ~u. Durch Normieren der Vektoren erhalt man orthonor- w w┴ u3 u2 wu2 E wu1 u1 male Vektoren. Im Fall von 3 Vektoren ~u, ~v, w~ gewinnt man zunachst 2 orthogonale bzw. orthonormale Vektoren von ~u, ~v wie bereits beschrieben. Der dritte Vektor w~ lasst sich in einen Anteil, der in der von ~u und ~v aufgespannten Ebene liegt, und einen dazu orthogonalen Anteil aufspalten. Dieser orthogonale Anteil ist die gesuchte dritte Richtung, durch Normieren erhalt man den 3. normierten Vektor. Es seien die folgenden 3 Vektoren gegeben: ~v1 = 1 2 0 3 , ~ v = 2 4 0 5 8 , ~ v = 3 8 1 5 6 . Man benutze das Gram-Schmidtsche-Orthonormierungsverfahren, um eine Basis fur Lin (~v1 , ~v2 , ~v3 ) zu konstruieren. 126 4. LINEARE ALGEBRA (1) ~u1 := 1 ~v |~v1 | 1 = √1 14 1 2 0 3 . (2) ~u02 := ~v2 − (~v2 )~u1 = ~v2 − (~v2 · ~u1 )~u1 = ~v2 − 2 −4 5 2 1 √ 2 14 und wir erhalten ~u2 = |~u1 | ~u02 = 17 0 2 · 28 2 −4 5 2 1 2 0 3 = 2 −4 1 28 − 72 · 49 = 5 2 4 1 ~u3 = |~u10 | ~u03 = √121 . 3 0 −2 8−2−2 1−4+4 5+0−5 6−6−2 = . (3) ~u03 := ~v3 − (~v3 )~u1 − (~v3 )~u2 = ~v3 − (~v3 · ~u1 )~u1 − (~v3 · ~u2 )~u2 = 1 2 0 3 4−2 0−4 5−0 8−6 = 4 1 0 −2 8 1 5 6 − √ 1 2 14 · und wir erhalten 2. LINEARE ABBILDUNGEN UND KOORDINATENDARSTELLUNGEN 127 2. Lineare Abbildungen und Koordinatendarstellungen 2.1. Lineare Abbildungen und ihre Basisdarstellung. Seien V, W Vektorraume uber R. Mit einer Abbildung f : V → W ( von V in W \) wird jedem Vektor ~v ∈ V " ein eindeutig bestimmter Vektor w~ = f (~v ) ∈ W, das sogenannte Bild von ~v unter f zugeordnet. Definition 4.2. Eine Abbildung heit linear, wenn gilt ist homogen; d.h. f (α~v) = α f (~v) fur alle α ∈ R, ~v ∈ V, ist additiv; d.h. f (~u + ~v) = f (~u) + f (~v) fur alle ~u, ~v ∈ V. Man nennt lineare Abbildungen auch lineare Transformationen oder auch lineare Operatoren. L.1: f L.2: f Beispiele fur lineare Abbildungen: Beispiel 4.2. Die Multipliaktion mit einer festen m × n-Matrix A l : Rn → Rm , Beispiel l(~x) := A~x. 4.3. Der Dierentialoperator d : C 1 (I) → C 0 (I), dx d f (x) := f 0 (x). dx Mit C 0 (I) bzw. C 1 (I) bezeichnet man den Vektorraum aller I ⊆ R stetigen bzw. stetig dierenzierbaren Funktionen. Beispiel auf dem Intervall 4.4. Das Integral Z f→ b f (x) dx, f ∈ C 0 (I). a 4.5. Die Werkstobeanspruchung eines elastischen Korpers, auf den von auen Krafte wirken, wird in der linearen Elastostatik durch den Spannungstensor S (3 × 3- Matrix) beschrieben. Beispiel Bemerkung Summe 4.2. Da zu linearen Abbildungen f, g : V → W und α ∈ R, die f + g : V → W, (f + g)(~v ) := f (~v ) + g(~v ) und das α-fache αf : V → W, (αf )(~v ) := αf (~v ) wieder lineare Abbildungen sind, bilden die linearen Abbildungen selbst wieder einen Vektorraum L(V, W ) := {f ; f : V → W ist linear.} 128 4. LINEARE ALGEBRA Im folgenden sei V = W = Rn . Wir betrachten also nur noch lineare Abbildungen des Rn in sich. Satz 4.3. Gegeben sei eine lineare Abbildung f : Rn → Rn . Mit der Matrix F = (f (~e1 , f (~e2 ), . . . , f (~en )), deren Spalten aus den Bildern der naturlichen Basisvektoren bestehen, gilt f (~x) = F ~x. Man nennt F die Abbildungsmatrix von f bezuglich der naturlichen Basis. Beweis: F ur ~x = x1~e1 + . . . + xn~en folgt ! n n X X f (~x) = f xi~ei = xi f (~ei ) = F ~x. i=1 Bemerkung # i=1 4.3. Man beachte, dass die Matrix F die Abbildungsmatrix der linearen Abbildung bzgl. der naturlichen Basis ist. In einer anderen Basis sieht die Matrix anders aus! Beispiel 4.6. Die Abbildung f : R3 → R3 , f ((x, y, z)T ) = (x, y + 2z, z)T ist linear, da x2 x1 x2 x1 αf y1 + βf y2 = α y1 + 2z1 + β y2 + 2z2 z2 z1 z2 z1 αx1 + βx2 αx1 + βx2 = αy1 + βy2 + 2(αz1 + βz2 ) = f αy1 + βy2 . αz1 + βz2 αz1 + βz2 Die Abbildung besitzt bezuglich der Basis 1 ~e1 = 0 , 0 0 ~e2 = 1 , 0 0 ~e3 = 0 1 die Abbildungsmatrix 1 0 0 F = (f (~e1 ) f (~e2 ) f (~e3 )) = 0 1 2 0 0 1 2. LINEARE ABBILDUNGEN UND KOORDINATENDARSTELLUNGEN 129 und damit ist 1 0 0 1 0 0 x x f (~x) = f ((x, y, z)T ) = 0 1 2 ~x = 0 1 2 y = y + 2z . 0 0 1 0 0 1 z z 4.3. Eine Basis B = {~b1 , ~b2 , . . . , ~bn } heit orthogonal, wenn die Vektoren ~bi , i = 1, 2, . . . , n, paarweise orthogonal sind, d.h. Definition ~bi · ~bj = 0 fur i 6= j. Die Basis B = {~b1 , ~b2 , . . . , ~bn } heit orthonormal, wenn sie orthogonal ist und alle Basisvektoren normiert sind. Beispiel 4.7. Die naturliche Basis ist orthonormal. Definition 4.4. Eine n × n-Matrix heit orthogonal, wenn gilt: AT A = E, (also AT = A−1 ). 4.4. Fur eine n × n-Matrix A sind aquivalent (1) A ist orthogonal. (2) Die Abbildung T (~x) = A~x ist isometrisch (langentreu), d.h. Satz fur alle ~x ∈ Rn . (3) Die Abbildung T (~x) = A~x ist kongruent (langen- und winkeltreu), d.h., T erhalt das Skalarprodukt (A~x) · (A~y ) = ~xT AT A~y = ~xT ~y = ~x · ~y , f ur alle ~x, ~y ∈ Rn . (4) Die Spalten (Zeilen) von A bilden eine orthonormale Basis des |A~x| = |~x|, Rn . Beweis: Wir beweisen nur (1) ⇐⇒ (4) : T ~a1 ( ~aT 0, 2 T T A A = E ⇔ . ~a1 ~a2 . . . ~an = E ⇐⇒ ~ai ~aj = ~ai ·~aj = . 1, . T ~an i 6= j, i = j. # 130 4. LINEARE ALGEBRA Beispiel 4.8. Drehungen in der Ebene um den Nullpunkt lauten in kartesi- schen Koordinaten: d : R2 → R2 , ! x y d x cos ϕ − y sin ϕ x sin ϕ + y cos ϕ = ! , mit dem Drehwinkel ϕ, wie man sich leicht uberzeugt, ist wegen |d(~x)| = |~x| : ~x = 0 d(~x) = x y0 ! x y ! |~x| cos ψ |~x| sin ψ = ! und ! ! |~x| cos(ϕ + ψ) |~x|(cos ϕ · cos ψ − sin ϕ · sin ψ) = |~x| sin(ϕ + ψ) |~x|(sin ϕ · cos ψ + cos ϕ · sin ψ) ! ! x cos ϕ − y sin ϕ −y ⊥ ⊥ = (cos ϕ) ~x + (sin ϕ) ~x , ~x = x sin ϕ + y cos ϕ x = = y' d x sinφ x ┴ y cos φ x φ ψ x' x x Die Abbildung d ist linear mit der orthogonalen Abbildungsmatrix D= cos ϕ − sin ϕ sin ϕ cos ϕ ! , det D = 1. 3. EIGENWERTE UND EIGENVEKTOREN 3. Eigenwerte und Eigenvektoren Wozu benotigt man Eigenwerte und Eigenvektoren? • Diagonalmatrizen sind leicht zu handhaben. Eigenvektoren werden zur Diagonalisierung von Matrizen verwendet. (siehe spater) • Zur Analyse von Quadriken bzw. quadratischen Formen. Darauf gehen wir nicht ein. • F ur die Langzeitvorhersage von Wetter oder auch der Entwicklung einer Population basierend auf Wahrscheinlichkeitsmatrizen bzw. sogenannten Markovschen Ketten. Sollte in der Statistik/Stochastik behandelt werden. • F ur stochastische Modelle. • Matrizen reprasentieren lineare Abbildung (Drehung, Scherung, Spiegelung). Eigenvektoren geben die Geraden an, die dabei erhalten bleiben. Und Strecken auf diesen Geraden werden um die Eigenwerte gestreckt bzw. gestaucht. • Invarianten physikalischer Systeme: Eigenfrequenzen, Eigenformen und gegebenenfalls auch Dampfungscharakteristik eines schwingfahigen Systems, Knicklast eines Knickstabs (siehe Balkentheorie), Hauptspannungen in der Festigkeitslehre: Umrechnung der Spannungen in ein Koordinatensystem, in dem es keine Schubspannungen gibt. Eigenwerte spielen in der Quantenmechanik eine besondere Rolle. • Anwendung in der Bildverarbeitung: In der Bildverarbeitung werden Eigenvektoren gerne benutzt, um Objekte auszurichten. Wenn man beispielsweise Mikroskopbilder von ellipsenformigen Bakterien hat, gibt der grote Eigenvektor die Lage der Hauptachse an (daher auch Hauptachsentransformation). Mit dieser Hauptachse konnen alle Bilder gleich ausgerichtet (gedreht) werden. Die Eigenwerte geben die Verteilung entlang der Achsen an. Sie sind unabhanging von der Ausrichtung, so da man sie zum Vermessen oder Klassizieren benutzten kann, ohne das Bild vorher zu drehen. • Systeme gewohnlicher Dierentialgleichungen 1. Ordnung. 131 132 4. LINEARE ALGEBRA Definition 4.5. Eine Zahl λ ∈ C heit Eigenwert der Matrix einer reellen oder komplexen n×n-Matrix A, wenn es mindestens einen Spaltenvektor ~b ∈ Cn , ~b 6= ~0, gibt mit A~b = λ~b. Jeder Vektor ~b 6= ~0, der diese Gleichung erfullt, heit Eigenvektor von A zum Eigenwert λ. 3.1. Bestimmung von Eigenwerten. Wenn λ ein Eigenwert der Matrix A ist, dann gibt es einen Spaltenvektor ~b 6= ~0 mit A~b = λ~b ⇔ (A − λE)~b = ~0. Folglich besitzt das Gleichungssystem (16) nichttriviale Losungen und damit ist die Determinante der Koezientenmatrix gleich Null, also det (A − λE) = 0. Umgekehrt, ist diese Determinate gleich Null, dann hat das Gleichungssystem nichttriviale Losungen (vgl. Rechenregeln fur Determinanten (2.7) bzw. Cramersche Regel 2.9). Insgesamt haben wir damit, λ ist ein Eigenwert der Matrix A genau dann wenn gilt: det (A − λE) = 0. Deshalb Zur Berechnung der Eigenwerte einer n×n-Matrix betrachtet man (mit einer Variablen λ) das charakteristische Polynom von A χA (λ) := det (A − λE). Die Nullstellen des charakteristischen Polynoms sind die Eigenwerte der Matrix A. Beispiel 4.9. Wir betrachten die Matrix 0 −1 0 A = −1 −1 1 , 0 1 0 es ist −λ −1 0 A − λE = −1 −1 − λ 1 0 1 −λ und damit det (A − λE) = (−λ)(−1 − λ)(−λ) + 0 + 0 − 0 − (−λ) − (−λ) = −λ2 − λ3 + 2λ = 0 ⇔ λ2 + λ3 − 2λ = λ(λ2 + λ − 2) = 0 3. EIGENWERTE UND EIGENVEKTOREN 133 und ergibt die Nullstellen λ1 = 0 sowie 2 λ + λ − 2 = 0 ⇐⇒ λ2,3 1 =− ± 2 r 1 +2 4 und die Nullstellen λ2 = 1 und λ3 = −2. Wenn man die Determinante det (A − λE) = χA (λ) berechnet und nach Potenzen von λ ordnet, so erhalt man χA (λ) = (−λ)n + (spur A)(−λ)n−1 + . . . + det A, wobei spur A = a11 + a22 + . . . + ann die Summe der Elemente der Hauptdiagonale ist. Beispiel 4.10. Fur obige Matrix 0 −1 0 A = −1 −1 1 0 1 0 ist spur A = 0 − 1 + 0 = −1 und Polynom det A = 0, was auch aus dem charakteristischen χA (λ) = (−λ)3 + (−1)λ2 + 2λ + 0 ablesbar ist. 3.2. Algebraische Vielfachheit. Das charakteristische Polynom χA (λ) = (−λ)n + (spur A)(−λ)n−1 + . . . + det A ist folglich ein Polynom n-ten Grades (fur eine n × n-Matrix) und hat deshalb n nicht notwendigerweise voneinander verschiedene komplexe Nullstellen λ1 , λ2 , . . . λn . D.h. wir haben die Nullstelle λ1 mit der Vielfachheit k1 , die Nullstelle λ2 mit der Vielfachheit k2 , . . . , die Nullstelle λr mit der Vielfachheit kr . Dabei kann man die Eigenwerte der Groe nach ordnen λ1 ≤ λ2 ≤ . . . λr und es ist k1 + k2 + . . . + kr = n. 4.6. Man bezeichnet die Vielfachheit ki der Nullstelle λi als die algebraische Vielfachheit des Eigenwertes λi . Definition 3.3. Eigenvektoren, Eigenräume und geometrische Vielfachheit. Hat man nun alle Eigenwerte der Matrix A bestimmt, so werden dann die Eigenvektoren be- rechnet, d.h. man lost das Gleichungssystem (A − λi E)~b = ~0, i = 1, 2, . . . , r. Da die Determinate der Koezientenmatrix gleich Null ist, besitzt das Gleichungssystem nichttriviale Losungen mit n − Rang (A − λi E) freien Parametern. 134 4. LINEARE ALGEBRA Definition 4.7. Jede Losung ~b 6= ~0 von (A−λi E)~b = ~0 ist ein Eigenvektor zum Eigenwert λi . V (λi ) = {~b ∈ Cn : (A − λi E)~b = ~0} = Kern (A − λi E) heit Eigenraum zum Eigenwert λi , (1 ≤ i ≤ r). Man nennt die Dimension des Eigenraumes Dim V (λi ) die geometrische Vielfachheit des Eigenwertes λi . Die algebraische und die geometrische Vielfachheit stimmen i. Allg. nicht uberein! Wie man leicht sieht ist: Dim V (λi ) = n − Rang (A − λi E). Bemerkung 4.4. Da die Eigenwerte die Nullstellen des charakteristischen Polynoms sind, gilt χA (λ) = (−λ)n + (spur A)(−λ)n−1 + . . . + det A = (λ − λ1 )k1 (λ − λ2 )k2 · · · (λ − λr )kr = (−λ)n + (k1 λ1 + k2 λ2 + . . . + kr λr ) + . . . + λk11 λk22 · · · λkr r mit den algebraischen Vielfachheiten ki , i = 1, 2, . . . , r. Hieraus liest man ab, spur A = k1 λ1 + k2 λ2 + . . . + kr λr det A = λk11 λk22 · · · λkr r Diese Formeln sind nutzlich fur Rechenkontrollen, auerdem gestattet insbesondere die 2. Formel Eigenwerte zu erraten, da die Eigenwerte Teiler des Absolutgliedes des charakteristischen Polynoms sind. Beispiel 4.11. Es sei 5 4 2 A = 4 5 2 . 2 2 2 3. EIGENWERTE UND EIGENVEKTOREN 135 Wir bestimmen die Eigenwerte als Nullstellen des charakteristischen Polynoms: 5−λ 1 − λ −1 + λ 4 2 0 = det (A − λE) = 4 5−λ 2 5−λ 2 4 ~z1 − ~z2 2 2 2 2−λ 2 2−λ 1−λ 0 0 = 9−λ 2 = (1 − λ)[(9 − λ)(2 − λ) − 8] 4 ~s2 − ~s1 2 4 2−λ = (1 − λ)[18 − 11λ + λ2 − 8] = (1 − λ)(λ − 10)(λ − 1) = −(λ − 10)(λ − 1)2 . Folglich hat die 3 × 3-Matrix A den Eigenwert λ1 = 1 mit der algebraischen Vielfachheit k1 = 2 und den Eigenwert λ2 = 10 mit der algebraischen Vielfachheit k2 = 1. Wir bestimmen nun die Eigenvektoren, zunachst fur λ1 = 1. Dazu losen wir das Gleichungssystem 0 b1 4 4 2 (A − λ1 E)~b = ~0 ⇔ 4 4 2 b2 = 0 , 0 b3 2 2 1 das die Losung b1 = s, b2 = t, b3 = −2s − 2t mit Eigenraum zum Eigenvektor λ1 = 1 : t, s ∈ R besitzt. Folglich ist der 0 1 s V (λ1 ) = V (1) = t = s 0 + t 1 , −2s − 2t −2 −2 Die Vektoren 1 0 −2 s, t ∈ R . 0 und 1 bilden eine Basis von V (1). Deshalb hat −2 Dimension 2 und der Eigenwert λ1 = 1 die geometrische der Eigenraum die Vielfachheit 2. Nun zum Eigenwert λ2 = 10. b1 0 −5 4 2 ~ ~ (A − λ2 E)b = 0 ⇔ 4 −5 2 b2 = 0 2 2 −8 0 b3 136 4. LINEARE ALGEBRA und wird mittels Gau-Algorithmus umgeformt zu −5 4 2 4 −5 2 2 2 −8 ≈ 0 ~z1 + 5~z3 0 1 ~z2 − 4~z3 0 0 0 −5 4 2 ≈ 4 −5 2 1 ~z 2 3 1 1 −4 9 18 0 0 1 −2 −9 −18 0 ≈ 0 1 −2 1 −4 0 1 1 −4 0 0 0 0 0 0 und hat die Losung b3 = r, b2 = 2r und b1 = −b2 + 4b3 = −2r + 4r = 2r mit r ∈ R Folglich ist der Eigenraum zum Eigenvektor λ2 = 10 : 2 2r V (λ2 ) = V (10) = 2r = r 2 , r ∈ R . r 1 2 Eine Basis fur den Eigenraum V (10) ist der Vektor 2 und die Dimension 1 des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ2 = 10 die geometrische Vielfachheit 1. In diesem Beispiel stimmen die algebraische und die geometrische Vielfachheit der Eigenwerte uberein, dass ist i.Allg. aber nicht so. In diesem Beispiel stimmen die algebraische und die geometrische Vielfachheit der Eigenwerte uberein, dass ist i.Allg. aber nicht so. Beispiel 4.12. Gegeben sei A= a b c d ! ∈ R2×2 . Es werden zunachst die Eigenwerte als Nullstellen des charakteristischen Polynoms bestimmt: a−λ b χA (λ) = c d−λ = (a − λ)(d − λ) − cb = λ2 − (a + d)λ + (ad − bc) = λ2 − (spur A)λ + det A = (λ − λ1 )(λ − λ2 ) = 0 Anschlieend wird fur jeden Eigenwert λi , i = 1, 2, der Eigenraum und eine Basis des Eigenraums bestimmt. Dazu lost man das Gleichungssystem a − λi b c d − λi ! b1 b2 ! = Im Fall n = 2 gibt es somit 4 verschiedene Falle: (1) λ1 , λ2 ∈ R, λ1 6= λ2 , 0 0 ! . 3. EIGENWERTE UND EIGENVEKTOREN 137 (2) λ1 = λ2 ∈ R algebraische = geometrische Vielfachheit = 2, (3) λ1 = λ2 ∈ R algebraische Vielfach. = 2 6= geometrische Vielfachheit = 1, (4) λ2 = λ1 ∈ C, λ1 6∈ R. Es seien konkrete Zahlenbeispiele fur alle 4 Falle angegeben: Es sei ! 1 2 2 1 A= . Wir bestimmen die Eigenwerte χA (λ) = det (A−λE) = 1−λ 2 2 1−λ hat die Nullstellen: λ1,2 = 1 ± ! = (1−λ)2 −4 = 1−2λ+λ2 −4 = λ2 −2λ−3 = 0 p 1 − (−3) = 1 ± 2. Folglich hat A die beiden Eigenwerte λ1 = −1 und λ2 = 3. Die algebraische Vielfachheit von λ1 = −1 und λ2 = 3 ist 1. Wir bestimmen nun die Eigenraume: Fur λ1 = −1 : ! x y (A − λ1 E) 2 2 2 2 = ! x y ! −1 1 ! ! 0 0 = ergibt die Losung y = t und x = −t, d.h. ( V (λ1 ) = V (−1) = −t t ! =t ) t∈R . , −1 1 Eine Basis fur den Eigenraum V (−1) ist der Vektor ! und die Dimension des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ1 = −1 die geometrische Vielfachheit 1. Nun fur λ2 = 3 : (A − λ2 E) x y ! = −2 2 2 −2 ! x y ! = 0 0 ! ergibt die Losung y = t und x = t, d.h. ( V (λ2 ) = V (3) = t t ! 1 1 =t ! ) , t∈R . ! 1 Eine Basis fur den Eigenraum V (3) ist der Vektor und die Dimension 1 des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ2 = 3 die geometrische Vielfachheit 1. Es sei A= 3 0 0 3 ! . 138 4. LINEARE ALGEBRA Wir bestimmen die Eigenwerte 3−λ 0 0 3−λ χA (λ) = det (A − λE) = ! = (3 − λ)2 = 0 hat die Nullstelle: λ1,2 = 3. Folglich hat A die beiden Eigenwerte λ = λ1 = λ2 = 3. Die algebraische Vielfachheit von λ = 3 ist 2. Wir bestimmen nun den Eigenraum: Fur λ = 3 : ! ! ! ! (A − λE) x y 0 0 0 0 = x y 0 0 = ist erfullt fur alle (x, y)T ∈ R2 , d.h. V (3) = R2 und der Eigenraum hat die Dimension 2. D.h. der Eigenwert λ = 3 hat die algebraische und geometrische Vielfachheit 2. Es sei ! 2 1 0 2 A= . Wir bestimmen die Eigenwerte 2−λ 1 0 2−λ χA (λ) = det (A − λE) = ! = (2 − λ)2 = 0 hat die Nullstelle: λ1,2 = 2. Folglich hat A die beiden Eigenwerte λ = λ1 = λ2 = 2. Die algebraische Vielfachheit von λ = 2 ist 2. Wir bestimmen nun den Eigenraum: Fur λ = 2 : ! ! ! ! (A − λE) x y = 0 1 0 0 x y ! ! 0 0 = und der Eigenraum ist ( V (λ) = V (2) = Eine Basis fur den Eigenraum t 0 V (2) =t 1 0 ) , ist der Vektor t∈R . 1 0 ! und die Dimension des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ = 2 die geometrische Vielfachheit 1. Es sei ! A= cos ϕ − sin ϕ sin ϕ cos ϕ 3. EIGENWERTE UND EIGENVEKTOREN 139 Bestimmung der Eigenwerte: χA (λ) = det (A − λE) = det cos ϕ − λ − sin ϕ sin ϕ cos ϕ − λ ! = (cos ϕ − λ)2 + sin2 ϕ = 1 − 2λ cos ϕ + λ2 = 0 fur λ1,2 = cos ϕ ± p cos2 ϕ − 1 = cos ϕ ± i sin ϕ. Falls ϕ 6= kπ, k ∈ Z gibt es keine reellen Eigenwerte und damit auch keine reellen Eigenvektoren. Die komplexen Eigenraume sind: Fur λ1 = cos ϕ + i sin ϕ : x y (A − λ1 E) ! = ! cos ϕ − cos ϕ − i sin ϕ − sin ϕ sin ϕ cos ϕ − cos ϕ − i sin ϕ ! ! −i −1 x = sin ϕ = 1 −i y x y ! 0 0 ! und hat die Losung y = t und x = it, und der Eigenraum ist ( V (λ1 ) = V (cos ϕ + i sin ϕ) = Eine Basis fur den Eigenraum it t ! =t V (cos ϕ + i sin ϕ) i 1 ! ) t∈C . , ist der Vektor erhalt man fur λ2 = cos ϕ − i sin ϕ : (A − λ2 E) x y ! = i 1 ! . ! cos ϕ − cos ϕ + i sin ϕ − sin ϕ sin ϕ cos ϕ − cos ϕ + i sin ϕ ! ! i −1 x = sin ϕ = 1 i y x y ! 0 0 ! und hat die Losung y = t und x = −it, und der Eigenraum ist ( V (λ) = V (cos ϕ + i sin ϕ) = −it t ! =t −i 1 ! ) , t∈C . Eine Basis fur den Eigenraum V (cos ϕ − i sin ϕ) ist der Vektor Beispiel 4.13. Es sei 5 −7 7 A = 4 −3 4 4 −1 2 −i 1 Analog ! . 140 4. LINEARE ALGEBRA Bestimmung der Eigenwerte 5−λ −7 7 det (A − λE) = 4 −3 − λ 4 4 −1 2−λ = (5 − λ)(−3 − λ)(2 − λ) − 16 · 7 − 28 + 28(3 + λ) + 4(5 − λ) + 28(2 − λ) = (−15 − 2λ + λ2 )(2 − λ) − 112 − 28 + 28 · 5 + 20 − 4λ = −30 − 4λ + 2λ2 + 15λ + 2λ2 − λ3 − 140 + 140 + 20 − 4λ = −λ3 + 4λ2 + 7λ − 10 = 0. Wir mussen den ersten Eigenwert "erraten\. Man ndet schnell, dass λ1 ein Eigenwert ist, die ubrigen Eigenwerte ndet man durch abdividieren: (−λ3 + 4λ2 + 7λ− 10) : (λ − 1) = −λ2 + 3λ + 10 =1 −λ3 + λ2 3λ2 + 7λ 3λ2 − 3λ 10λ − 10 10λ − 10 0 Folglich ergeben sich die beiden anderen Eigenwerte aus zu λ2,3 also λ2 = 5 und sind fur λ1 = 1 : λ3 = −2. λ2 − 3λ + 10 = 0 r 3 3 7 9 = ± + 10 = ± , 2 4 2 2 Die dazugehorigen Eigenvektoren und Eigenraume (A − λ1 E)~x = ~0 ≈ 0 −6 6 0 ~z1 − ~z3 0 −3 3 0 ~z2 − ~z3 4 −1 1 0 Damit ist λ1 = 1 ist x3 = x2 = t und 4 −7 7 0 ⇐⇒ 4 −4 4 0 4 −1 1 0 0 −1 1 0 ≈ 0 −1 1 0 . 4 −1 1 0 x1 = 14 (t − t) = 0. Der Eigenraum zum Eigenvektor 0 0 V (λ1 ) = V (1) = t = t 1 , t 1 t∈R . 3. EIGENWERTE UND EIGENVEKTOREN 141 Fur λ2 = 5 : 0 −7 7 0 (A − λ2 E)~x = ~0 ⇐⇒ 4 −8 4 0 4 −1 −3 0 Damit ist λ2 = 5 ist x3 = x2 = t und x1 = 14 (t + 3t) = t. 0 −7 7 0 ≈ 0 −7 7 0 ~z2 − ~z4 4 −1 −3 0 Der Eigenraum zum Eigenvektor 1 t V (λ2 ) = V (5) = t = t 1 , t 1 t∈R . Fur λ3 = −2 : (A − λ3 E)~x = ~0 ≈ ~z2 − ~z3 Damit ist ist 1 −1 1 0 0 0 4 −1 4 x2 = 0, x1 = t und −1 1 0 −1 4 0 −1 4 0 0 1 0 0 0 0 . 1 0 0 x3 = −t. Der Eigenraum zum Eigenvektor 1 7 −7 7 0 ⇐⇒ 4 −1 4 0 ≈ 4 4 −1 4 0 4 1 −1 1 0 1 0 0 ≈ 0 0 0 0 ≈ 0 0 0 3 0 0 0 1 t V (λ3 ) = V (−2) = 0 = t 0 , −t −1 λ3 = −2 t∈R . Alle Eigenwerte λ1 , λ2 , λ3 haben die algebraische und die geometrische Vielfachheit 1. 3.4. Invarianten. 4.5. Es sei A eine reelle oder komplexe n × n-Matrix. Dann gilt: (1) A und die transponierte Matrix AT haben dasselbe charakteristische Polynom, deshalb besitzen sie dieselben Eigenwerte ( aber im Allg. andere Eigenraume). (2) Die ahnlichen Matrizen A und B −1 AB haben dasselbe charakte- Satz ristische Polynom und deshalb auch dieselben Eigenwerte; ~b ist ein Eigenvektor zu A genau dann wenn B −1~b Eigenvektor von B −1 AB ist. (3) Die Matrix A ist genau dann invertierbar, wenn alle Eigenwerte 6= 0 sind. Ist λ ein Eigenwert von A mit dem Eigenvektor ~b, dann ist λ−1 Eigenwert von A−1 mit demselben Eigenvektor ~b. 142 4. LINEARE ALGEBRA Beweis: zu (1): Es gilt (A − λE)T = AT − λE T = AT − λE und det (A − λE) = det (A − λE)T = det (AT − λE). Beide Polynome sind also identisch und haben damit dieselben Nullstellen = Eigenwerte. zu (2): Es gilt det (A−λE) = det B −1 ·det (A−λE)·det B = det (B −1 (A−λE)B) = det (B −1 AB−λE). Damit sind beide charakteristische Polynome identisch und haben dieselben Nullstelle = Eigenwerte. Weiterhin gilt A~b = λ~b ⇐⇒ ABB −1~b = λBB −1~b = B(λB −1~b) ⇐⇒ (B −1 AB)(B −1~b) = λ(B −1~b). zu (3): det A = λk11 λk22 · · · λkr r 6= 0 ⇐⇒ λi 6= 0 fur alle i = 1, 2, . . . , r. Auerdem ist 1 A~b = λ~b ⇐⇒ ~b = λA−1~b ⇐⇒ A−1~b = ~b. λ # 4.5. Die Koezienten des charakteristischen Polynoms χA (λ) sind Invarianten der n × n-Matrix A, bzw. Invarianten der zugehorigen linearen Bemerkung Abbildung ~x → A~x, da sie sich bei einem Basiswechsel nicht andern. Satz 4.6. Eigenvektoren ~b1 , ~b2 , . . . , ~br zu paarweise verschiedenen Eigen- werten sind linear unabhangig. Beweis: Aus α1~b1 + α2~b2 + . . . + αr~br = ~0 folgt nach Anwendung von A : α1 A~b1 + α2 A~b2 + . . . + αr A~br = α1 λ1~b1 + α2 λ~b2 + . . . + αr λr~br = ~0 und nach Subtraktion von λ1 (α1~b1 + α2~b2 + . . . + αr~br ) = ~0 erhalt man (λ1 − λ2 )α2~b2 + (λ1 − λr ) . . . + αr~br = ~0. Wendet man auf diese Gleichung wiederum A an und subtrahiert das λ2 -fache dieser Gleichung, so folgt: (λ1 − λ3 )(λ2 − λ) α3~b3 + . . . + (λ1 − λr )(λ2 − λr )αr~br = ~0. Sukzessive Fortsetzung ergibt (λ1 − λr )(λ2 − λr ) · · · (λr−1 − λr )αr~br = ~0 3. EIGENWERTE UND EIGENVEKTOREN 143 woraus αr = 0 folgt. Dies ergibt ruckwarts eingesetzt αr−1 = . . . = α2 = α1 = 0. # 3.5. Diagonalisierung. Besonders g unstig ist der Fall, wenn man eine Basis aus Eigenvektoren bilden kann: Satz 4.7. Besitzt eine reelle oder komplexe n × n-Matrix n linear un- abhangige Eigenvektoren ~b1 , ~b2 , . . . , ~bn mit A~bi = λi~bi , und den nicht notwendiger Weise verschiedenen Eigenwerten λi , dann bringt die Transformationsmatrix B = (~b1 ~b2 . . . ~bn ) (mit den Eigenvektoren als Spalten) die Matrix A auf Diagonalform, d.h., es gilt, wenn die Reihenfolge der λi mit den der ~bi ubereinstimmt, B −1 AB = Beweis: AB = (A~b1 Beispiel A~b2 . . . λ1 0 0 . . . 0 λ2 0 . . . 0 0 λ3 . . . 0 0 0 .. . .. . .. . . . .. . . 0 0 0 A~bn ) = (λ1~b1 =: D. . . . λn λ2~b2 . . . λn~bn ) = BD. # 4.14. Es sei −2 −8 −12 A= 1 4 4 . 0 0 1 Man berechne A100 . Es ist von sehr groem Nutzen, wenn es gelingt A durch eine entsprechende Transformation auf Diagonalgestalt zu bringen, denn dann gilt: Ak = (BDB −1 )k = (BDB −1 )(BDB −1 )(BDB −1 ) · · · (BDB −1 ) k λ1 0 . . . 0 0 λk . . . 0 2 −1 k −1 = BD B = B . B . . . . . . . . . . . . 0 0 . . . λkn 144 4. LINEARE ALGEBRA 1. Wir bestimmen die Eigenwerte von A : −2 − λ −8 −12 det (A − λE) = 1 4−λ 4 0 0 1−λ = (−2 − λ)(4 − λ)(1 − λ) + 8(1 − λ) = (−2λ + λ2 )(1 − λ) = λ(λ − 2)(1 − λ) = 0 und wir erhalten die Eigenwerte λ1 = 0, λ2 = 1, λ3 = 2. 2. Wir bestimmen die Eigenvektoren: zu losen ist des GS (A − λi E)~b = ~0 : fur λ1 = 0 : −2 −8 −12 0 −2 −8 0 0 0 0 0 0 4 4 0 ≈ 1 4 0 0 ≈ 1 4 0 0 1 0 0 1 0 0 0 1 0 0 0 1 0 4 4 4t V (λ1 ) = V (0) = −t = t −1 , t ∈ R , ~b1 = −1 . 0 0 0 fur −3 −8 −12 0 0 1 3 4 0 ≈ 1 3 1 0 0 0 0 0 0 4 4t V (λ2 ) = V (1) = 0 = t 0 , −t −1 λ2 = 1 : 0 0 0 1 0 0 4 0 ≈ 1 0 4 0 0 0 0 0 0 0 4 t ∈ R , ~b2 = 0 . −1 fur λ3 = 2 : −4 −8 −12 0 −4 −8 0 0 0 0 0 0 2 4 0 ≈ 1 2 0 0 ≈ 1 2 0 0 1 0 0 −1 0 0 0 1 0 0 0 1 0 2t 2 2 V (λ1 ) = V (0) = −t = t −1 , t ∈ R , ~b1 = −1 . 0 0 0 3. Diagonalisierung: 4 4 2 B = −1 0 −1 0 −1 0 3. EIGENWERTE UND EIGENVEKTOREN 145 Wir bestimmen B −1 : 4 4 2 1 0 0 4 4 2 1 0 0 2 4 0 1 2 0 −1 0 −1 0 1 0 ≈ 1 0 1 0 −1 0 ≈ 1 0 1 0 −1 0 0 −1 0 0 0 1 0 1 0 0 0 −1 0 1 0 0 0 −1 4 1 2 2 0 0 1 2 1 0 0 12 ≈ 1 0 1 0 −1 0 ≈ 0 0 1 − 12 −2 2 0 1 0 0 0 1 0 0 0 −1 0 −1 Damit ist 1 2 B −1 = 0 − 21 und 1 2 0 −1 −2 2 4 4 2 0 0 0 100 100 −1 A = BD B = −1 0 −1 0 1 0 0 −1 0 0 0 2100 1 0 4 2101 1 2 −2100 2 0 −1 = 299 0 0 −2100 0 0 0 −1 0 − 21 −2 2 Satz 1 2 0 −1 0 − 21 −2 2 −2102 −4 − 2102 2101 2101 . 0 1 1 2 4.8. (Eigenwertproblem für symmetrische Matrizen) Fur jede reelle symmetrische n × n-Matrix gilt: (1) Alle Eigenwerte von A sind reell. (2) Eigenvektoren zu verschiedenen Eigenwerten von A sind orthogonal. (3) Algebraische und geometrische Vielfachheit jedes Eigenwertes sind gleich. Beweis: Wir beweisen nur die erste Eigenschaft. Ist λ ∈ C ein Eigenwert und ~b ∈ Cn ein Eigenvektor von A, so folgt A~b = λ ~b und durch komplexe Konjugation A~b = λ ~b ⇐⇒ A~b = λ~b ⇐⇒ A~b = λ~b, da A reell ist. Damit erhalt man λ~bT~b = (A~b)T~bT = ~bT AT~b = ~bT λ~b = λ~bT~b und wegen ~bT~b = n X i=1 bi bi = n X i=1 |bi |2 > 0 146 4. LINEARE ALGEBRA ergibt sich λ = λ und folglich ist λ eine reelle Zahl. # 4. Positiv definite Matrizen Die Bestimmung der Extremwerte einer reellen Funktion in n Veranderlichen ist eng verbunden mit der Frage, wann eine quadratische Form q(~x) = ~xT A~x fur ~x 6= ~0 nur positive oder nur negative Werte annimmt. Definition 4.8. Eine quadratische Form q(~x) = ~xT A~x bzw. die zugehori- ge symmetrische Matrix A, heit positiv definit (negativ definit), wenn aus ~x 6= ~0 stets q(~x) = ~xT A~x > 0 (q(~x) = ~xT A~x < 0) folgt. Die quadratische Form heit indefinit, wenn sie sowohl positive als auch negative Werte annimmt. Sie heit positiv (negativ) semidenit, wenn stets q(~x) = ~xT A~x ≥ 0 (q(~x) = ~xT A~x ≤ 0) gilt. Bemerkung 4.6. In der speziellen Relativitatstheorie spielen die nach H.A.Lorentz benannten Transformationen x0 y0 z0 t0 =W x y z t , mit einer 4 × 4 Matrix W des Raum-Zeit-Kontinuums, so dass die quadratische Form q(x, y, z, t) = x2 + y 2 + z 2 − c2 t2 invariant bleibt, eine wichtige Rolle. Diese quadratische Form ist indenit; es gibt "raumartige\ Vektoren ~u ∈ R4 mit q(~u) > 0 und "zeitartige\ Vektoren ~v ∈ R4 mit q(~v) < 0. 4.9. Notwendige Bedinung: Wenn die symmetrische Matrix A positiv denit ist, so mussen alle Hauptdiagonalelemente positiv sein. Satz Beweis: Ist die Matrix A positiv denit, so muss insbesondere f ur die EinheitsvekT toren e~i gelten ~ei A~ei = aii > 0. # 4. POSITIV DEFINITE MATRIZEN Beispiel 147 4.15. Die Matrix 1 2 −2 A = 2 −5 −4 −2 −4 5 ist nicht positiv denit. 4.10. Positivitat reeller symmetrischer Matrizen: (1) D = diag (α1 , α2 , . . . , αn ) ist genau dann positiv denit, wenn Satz positiv sind. (2) Die reelle symmetrische Matrix A (also A = AT ) ist genau dann positiv denit, wenn W T AW fur irgend eine invertierbare n × n Matrix W positiv denit ist. (3) Die relle symmetrische Matrix A ist genau dann positiv denit, wenn samtliche Eigenwerte von A positiv sind. alle αi P ur alle ~x 6= ~0 ⇐⇒ alle αi > 0. Beweis: zu 1) q(~x) = ~xT D~x = ni=1 αi x2i > 0 f zu 2) A positiv denit, dann gilt ~xT (W T AW )~x = (~xW )T A(W ~x) > 0 fur alle ~x 6= ~0, ist dagegen W T AW positiv denit, so folgt (W −1 )T (W T AW )W −1 = A ist positiv denit. 3) folgt aus 1) und 2) mit einem Hauptachsensystem W. Beispiel # 4.16. Die Matrix 1 2 −2 A= 2 5 −4 −2 −4 5 ist positiv denit mit den Eigenwerten λ1 = 1, λ2 = 5 + √ 24 und λ3 = 5 − √ 24.