Determinanten Motivation: Man betrachte das lineare Gleichungssystem u a b x . = v c d y (1) Sei o.B.d.A a 6= 0 und c 6= 0. Dann ist (1) äquivalent zu cu ca cb x = av ac ad y und ferner zu cu x ca cb . = av − cu 0 ad − cb y Falls ad − cb 6= 0, so erhalten wir y= av − cu ad − cb und x = ud − vb . ad − cb Daher spielt die Ungleichung ad − cb 6= 0 eine entscheidende Rolle für die eindeutigen Lösbarkeit von (1). Die Verallgemeinerung der obigen Rechnung auf größere quadratische lineare Gleichungssysteme führt nun zur Theorie der Determinanten. Definition 23: Sei K ein Körper, dessen Charakteristik ungleich 2 ist (d.h. 1 + 1 6= 0), und sei V ein K-Vektorraum mit dim V = n. Eine Determinantenform ist eine nicht-triviale, alternierende, multilineare Abbildung ∆ : V × · · · × V → K, {z } | n−mal d.h. ∆ erfüllt die folgenden Eigenschaften: (D0) ∆ 6≡ 0. (D1) Für alle i = 1, . . . , n und v1 , . . . , vn ∈ V ist die Abbildung ∆(v1 , . . . , vi−1 , · , vi+1 , . . . , vn ) : V → K linear, d.h. ∆(v1 , . . . , vi−1 , αx + βy, vi+1 , . . . , vn ) = α∆(v1 , . . . , vi−1 , x, vi+1 , . . . , vn ) + β∆(v1 , . . . , vi−1 , y, vi+1 , . . . , vn ) für alle x, y ∈ V und alle α, β ∈ K. (D2) Für alle i, j = 1, . . . , n mit i 6= j und für alle v1 , . . . , vn ∈ V gilt ∆(v1 , . . . , vi , . . . , vj , . . . , vn ) = −∆(v1 , . . . , vj , . . . , vi , . . . , vn ). Falls V = Kn , so können wir auf natürliche Weise jede Determinantenform ∆ : V × · · · × V → K mittels der Definition ∆(A) := ∆(a1 , . . . , an ), A = a1 | . . . |an ∈ Kn×n auch als Abbildung vom Kn×n ∼ = K × · · · × K nach K interpretieren. Folgerung 12: Sei ∆ : V × · · · × V → K eine Determinantenform. Dann gilt: (a) ∆(v1 , . . . , vi−1 , vi + λvj , vi+1 , . . . , vn ) = ∆(v1 , . . . , vi−1 , vi , vi+1 , . . . , vn ) für alle v1 , . . . , vn ∈ V , λ ∈ K und i 6= j. 1 (b) ∆(v1 , . . . , vn ) = 0, falls v1 , . . . , vn linear abhängig sind. Bemerkung: Wir werden später sehen, dass auch die Umkehrung von Folgerung 12(b) gilt. Beweis: (a) Sei o.B.d.A. i < j. Es gilt ∆(v1 , . . . , vi + αvj , . . . , vj , . . . , vn ) = ∆(v1 , . . . , vi , . . . , vj , . . . , vn ) + α ∆(v1 , . . . , vj , . . . , vj , . . . , vn ) | {z } =0 = ∆(v1 , . . . , vi , . . . , vj , . . . , vn ), wobei der zweite Summand in der ersten Zeile verschwindet, da ∆ alternierend ist. Pn (b) Sei o.B.d.A. v1 = i=2 λi vi . Dann gilt ! n n X X λi ∆(vi , v2 , . . . , vn ) = 0. ∆(v1 , . . . , vn ) = ∆ λi vi , v2 , . . . , vn = i=2 i=2 Satz 15 / Definition 24: (a) Zwei Determinantenformen ∆1 und ∆2 auf V unterscheiden sich höchstens durch einen nichttrivialen skalaren Faktor, d.h. es existiert ein λ = 6 0 mit ∆2 = λ∆1 . (b) Es gibt genau eine Determinantenform auf dem Kn (bzw. dem Kn×n ) mit ∆(e1 , . . . , en ) = 1 (bzw. ∆(In ) = 1). Diese Determinantenform bezeichnen wir im Weiteren als die Determinante auf dem Kn (bzw. dem Kn×n ) und schreiben det statt ∆. Insbesondere gilt folgende Darstellung det(A) = X sign(π) π∈Sn n Y aiπ(i) . (2) i=1 Dabei bezeichnet Sn die Menge aller Permutationen der Menge {1, . . . , n} und sign(π) das Vorzeichen der Permutation π. Dieses ist definiert durch sign(π) := (−1)T (π) , wobei T (π) die Anzahl der Transpositionen ist, die man braucht um π zu darzustellen. Bemerkung: Alternativ kann man das Vorzeichen einer Permutation auch wie folgt berechnen sign(π) = Y 1≤i<j≤n π(i) − π(j) . i−j Beweis: Zum Beweis sei auf die Literatur zur Linearen Algebra verwiesen; wir betrachten im Weiteren nur zwei Beispiele. Beispiele: Die Elemente von Sn sind per definitionem alle Permutationen, d.h. alle bijektiven Abbildungen der Menge {1, 2, . . . , n} in sich. Da eine Permutation π eindeutig durch die Angabe ihrer Bil der als n-Tupel π(1), π(2), . . . , π(n) festgelegt ist, können wir im Weiteren jedes n-Tupel (x1 , . . . , xn ), xi ∈ {1, 2, . . . , n} und xi 6= xj , i 6= j eindeutig mit einer Permutation identifizieren. Man unterscheidet sogenannte gerade und ungerade Permutationen. Gerade Permutationen bestehen aus einer geraden Anzahl von Transpositionen (Transposition = Vertauschung von genau zwei Elementen), ungerade dementprechend aus einer ungeraden Anzahl von Transpositionen. 1. Sei n = 2. Dann gilt S2 = {(1, 2), (2, 1)} und sign(1.2) = 1 sowie sign(2, 1) = −1. Damit erhalten 11 a12 wir aus (2) für die Determinante von A := [ aa21 a22 ] die Darstellung 11 det [ aa21 a12 a22 ] = a11 a22 − a12 a21 . 2 2. Sei n = 3. Dann gilt S3 = {(1, 2, 3), (2, 3, 1), (3, 1, 2), (2, 1, 3), (3, 2, 1), (1, 3, 2)}. Nun zeigt man leicht sign(1, 2, 3) = sign(2, 3, 1) = sign(3, 1, 2) = 1 und sign(2, 1, 3) = sign(3, 2, 1) = sign(1, 3, 2) = −1. h a11 a12 a13 i Daraus folgt nun für A := aa21 aa22 aa23 die Identität 31 det A = X π∈S3 sign π 3 Y 32 33 aiπ(i) i=1 = sign(1, 2, 3)a11 a22 a33 + sign(2, 3, 1)a12 a23 a31 + sign(3, 1, 2)a13 a21 a32 + sign(2, 1, 3)a12 a21 a33 + sign(3, 2, 1)a13 a22 a31 + sign(1, 3, 2)a11 a23 a32 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32 . Damit haben wir die sogenannte Regel von Sarrus gezeigt. Diese stellt eine und anschauliche einfache Merkhilfe zur Berechnung der Determinante einer (3 × 3)-Matrix A = a b c d e f g h i dar. Abbildung 1: Regel von Sarrus (Quelle: Wikipedia) Regel von Sarrus: Erst schreibt man die ersten beiden Spalten der Matrix rechts neben die Matrix und bildet die Produkte der sechs Diagonalen, d.h. die Produkte der Einträge, die auf den oben skizzierten Diagonalen stehen. Dann addiert bzw. subtrahiert man die sechs Terme gemäß des angegeben Vorzeichenschemas und erhält auf diese Weise die Determinante von A als det A = aei + bf g + cdh − gec − hf a − idb. Satz 16: Die Abbildung det : Kn×n → K besitzt folgende Eigenschaften: (a) det In = 1. (b) det(AB) = det A · det B für alle A, B ∈ Kn×n . (c) det A 6= 0 genau dann, wenn A invertierbar ist. (d) det A−1 = (det A)−1 für alle A ∈ GLn (K). (e) det A⊤ = det A für alle A ∈ Kn×n . 3 (f) a11 a det 21 .. . an1 0 ... .. . .. . ... a22 .. . ... 0 .. . 0 ann a11 a12 0 = det . . a22 .. . ... . 0 ... .. . .. . 0 a1n .. Y n . aii . = .. i=1 . ann Beweis: Siehe angegebene Literatur zur Linearen Albgebra. Folgerung 12’: Die Spalten (bzw. Zeilen) von A ∈ Kn×n sind genau dann linear unabhängig, wenn det A 6= 0 gilt. Beweis: Man benutze Folgerung 12(b) und Satz 16(c) und (d). bij diejenige Satz 17 (Entwicklung von Determinanten): Sei A ∈ Kn×n , n ≥ 2 und bezeichne A (n − 1) × (n − 1)-Matrix, die durch Streichen der i-ten Zeile sowie der j-ten Spalte entsteht. Dann gilt: (a) Entwicklung nach der j-ten Spalte von A: det A = n X i=1 bij , (−1)i+j aij det A wobei j ∈ {1, ..., n} beliebig, aber fest gewählt ist. (b) Entwicklung nach der i-ten Zeile von A: det A = n X j=1 bij , (−1)i+j aij det A wobei i ∈ {1, ..., n} beliebig, aber fest gewählt ist. Beweis: Siehe angegebene Literatur zur Linearen Albgebra. Beispiele: 1. Sei A = 2. Sei A = h " 1 3 −2 0 2 1 −1 3 2 i . Dann gilt mittels Entwicklung nach der ersten Spalte det A = 1 · det [ 23 12 ] − 0 · λ1 1 0 0 0 ∗ λ2 0 0 ∗ ∗ λ3 0 ∗ ∗ ∗ λ4 # 3 −2 3 2 + (−1) · 3 −2 2 1 = (4 − 3) − (3 + 4) = −6. , wobei ein Stern für einen beliebiges Element aus K steht. Dann gilt mittels wiederholter Entwicklung nach der ersten Spalte λ2 ∗ ∗ det A = λ1 · det 0 λ3 ∗ − 0 + 0 − 0 = λ1 λ2 det λ03 0 0 λ4 Vergleiche auch Satz 16(f). 4 ∗ λ4 = λ1 λ2 λ3 λ4 . Eigenwerte, Eigenvektoren und das Spektrum einer Matrix Motivation: Wir wollen für A ∈ Rn×n das Verhalten von Ak für k → ∞ bzw. das Verhalten von e tA := ∞ k k X t A k=0 k! für t → ∞ untersuchen. [Beachte: Die Kurve t → etA x0 ist die formale Lösung der gewöhnlichen Differentialgleichung ẋ = Ax mit x(0) = x0 .] λ1 Falls A diagonal ist, d.h. A = 0 k λ1 k A = 0 also 0 .. . λn , so gilt offensichtlich 0 .. . λkn und etA tλ e 1 = 0 0 .. . etλn , Ak → 0 für |λi | < 1, i = 1, . . . , n und etA → 0 für |λi | < 0, i = 1, . . . , n Problem: Wie kann man vorgeht, falls A nicht diagonal ist? Angenommen, wir könnten eine invertierbare Matrix T finden, so dass T −1 AT diagonal ist, also λ1 −1 T AT = 0 0 .. . λn =: Λ A = T ΛT −1 . bzw. Dann wäre Ak = T ΛT und somit −1 k = T ΛT | −1 −1 T ΛT {z · · · T ΛT k−mal etA = T etΛ T −1 tλ e 1 =T 0 −1 } = T Λk T −1 0 .. . etλn k λ1 =T 0 0 .. . λkn −1 T −1 T . Folglich hätte man das Problem auf den Fall, dass A diagonal ist, zurückgeführt. Daher ist es im Weiteren unser Ziel zu verstehen, wann eine derartige, “diagonalisierende” Matrix T ∈ GLn (R) existiert. Definition 25: (a) Sei A ∈ Kn×n . Ein Skalar λ ∈ K heißt Eigenwert von A, falls es ein v ∈ Kn , v 6= 0 gibt mit Av = λv. (3) Umgekehrt bezeichnen wir v 6= 0 als Eigenvektor von A zum Eigenwert λ, falls Gleichung (3) gilt. Die Menge aller Eigenwerte einer Matrix A bezeichnen wir als ihr Spektrum σ(A), d.h. σ(A) := {λ ∈ K | ∃v ∈ Kn \ {0} : Av = λv}. 5 (b) Eine Matrix A ∈ Kn×n heißt diagonalisierbar (über K), falls es eine invertierbare Matrix T ∈ Kn×n gibt, so dass T −1 AT diagonal ist. Bemerkung: 1. Die Diagonalisierbarkeit einer Matrix kann vom Körper K abhängen, so ist z.B. A := R2×2 ⊂ C2×2 über C, aber nicht über R diagonalisierbar. 0 1 −1 0 ∈ 2. Es gibt jedoch auch n × n Matrix (n ≥ 2), die über keinem Körper diagonalisierbar sind, z.B. ist A := [ 00 10 ] niemals diagonalisierbar. Satz 18: Eine Matrix A ∈ Kn×n ist genau dann diagonalisierbar, wenn es eine Basis aus Eigenvekn toren, also n linear unabhängige Eigenvektoren v1 , . . . , vn ∈ K von A gibt. Insbesondere ist dann T := v1 |v2 | . . . |vn ∈ GLn (K) eine diagonalisierende Transformation, d.h. es gilt λ1 0 λ2 T −1 AT = . . .. 0 λn Dabei bezeichne λi den Eigenwert zum Eigenvektor vi . Beweis. ”⇒:” Sei A diagonalisierbar, d.h. es existiert eine invertierbare Matrix T ∈ GLn (K) mit λ1 0 .. T −1 AT = . 0 λn und somit gilt λ1 AT = T 0 0 .. . λn . (4) Bezeichnen wir nun mit ti ∈ Kn die i-te Spalte von T , d.h. T = t1 | t2 | . . . | tn , so ist (4) äquivalent zu At1 = λ1 t1 , At2 = λ2 t2 , ..., Atn = λn tn , d.h. die Spalten von T bilden eine Basis aus Eigenvektoren von A. ”⇐:” Seien v1 , . . . , vn linear unabhängige Eigenvektoren von A. Setze T := v1 | v2 | . . . | vn . Dann gilt λ1 0 .. AT = T , . 0 λn wobei λi den Eigenwert zu vi bezeichne. Somit ist T ∈ GLn (K) eine diagonalisierende Transformation von A. Satz 19: Sei A ∈ Kn×n . Ein Skalar λ ∈ K ist genau dann ein Eigenwert von A, wenn det(A − λIn ) = 0 gilt. Beweis. Es gelten folgende Äquivalenzen: λ ∈ σ(A) ⇐⇒ ⇐⇒ ∃ v 6= 0 : Av = λv ⇐⇒ ∃ v 6= 0 : (A − λIn )v = 0 Ker(A − λIn ) 6= {0} ⇐⇒ A − λIn ist nicht invertierbar ⇐⇒ det(A − λIn ) = 0 6 Definition 26: (a) Sei A ∈ Kn×n . Wir bezeichnen das Polynom χA (x) := det(A − xIn ) ∈ Pn (K) als das charakteristische Polynom von A. (b) Für jedes λ ∈ σ(A) definieren wir EA (λ) := ker(A − λIn ) ⊂ Kn als den Eigenraum von A zum Eigenwert λ. Folgerung 13: Sei A ∈ Kn×n . Dann gilt: (a) v ∈ EA (λ) \ {0} ⇐⇒ v ist Eigenvektor von A zum Eigenwert λ (b) σ(A) = N S(χA ) := {λ ∈ K | χA (λ) = 0}. Beweis. Die Behauptungen folgen unmittelbar aus Satz 19 und dessen Beweis. Folgerung 14: Sei A ∈ Kn×n und sei T ∈ GLn (K). Dann gilt χA = χT −1 AT . Beweis. Nach Satz 16 gilt χT −1 AT (x) = det(T −1 AT − xIn ) = det T −1 (A − xIn )T = det T −1 det(A − xIn ) det T = det(A − xIn ) = χA (x) n×n −1 Bemerkung: Matrizen A, B ∈ K , für die ein T ∈ GLn (K) existiert mit B = T AT heißen ähnlich zueinander. Folgerung 14 besagt also, dass ähnliche Matritzen dasselbe charakteristische Polynom besitzen. Definitio 27: Sei A ∈ Kn×n und sei λ ∈ K ein Eigenwert von A. Somit ist λ nach Folgerung 13 auch eine Nullstelle des charakteristischen Polynoms χA . Wir schreiben a(λ) für die Vielfachheit der Nullstelle λ im charakteristischen Polynom und bezeichnen diese als die algebraische Vielfachheit des Eigenwerts λ, d.h. χA (x) = (x − λ)a(λ) p(x) mit p(λ) 6= 0. Ferner heißt die Dimension des Eigenraum EA (λ) die geometrische Vielfachheit des Eigenwerts λ. Wir schreiben hierfür g(λ) := dim EA (λ). Bemerkung: Man kann nun leicht mit Hilfe von Folgerung 14 zeigen, dass die Ungleichung g(λ) ≤ a(λ) immer erfüllt ist. Gleichheit gilt im Allgemeinen jedoch nicht (siehe auf Folgerung 16). Satz 20: Sei A ∈ Kn×n und seien v1 , . . . , vk Eigenvektoren von A zu paarweise verschiedenen Eigenwerten λ1 , . . . , λk . Dann sind v1 , . . . , vk linear unabhängig. Beweis. Wir betrachten das lineare Gleichungssystem µ1 v1 + µ2 v2 + . . . + µk vk = 0 (5) und multiplizieren (5) von links mit der Matrix B := (A − λ2 In )(A − λ3 In ) · · · (A − λk In ). Damit erhalten wir B(µ1 v1 + µ2 v2 + . . . + µk vk ) = µ1 (λ1 − λ2 )(λ1 − λ3 ) · · · (λ1 − λk )v1 = 0, also µ1 = 0. Analog zeigt man µi = 0 für i = 2, . . . , k und somit sind die Vektoren v1 , . . . , vk linear unabhängig. 7 Folgerung 15: (a) Sei A ∈ Kn×n . Wenn das charakteristische Polynom χA in n paarweise verschiedene Nullstellen (über K) zerfällt, so ist A (über K) diagonalisierbar. Allgemeiner gilt: (b) Die Matrix A ist genau dann diagonalisierbar, wenn EA (λ1 ) ⊕ EA (λ2 ) ⊕ · · · ⊕ EA (λk ) = Kn , wobei λ1 , . . . , λk die paarweise verschiedene Nullstellen von χA bezeichne. Beweis. (a) Dies folgt unmittelbar aus den Sätzen 18 und 20 sowie aus Folgerung 13. (b) “=⇒:” Sei A diagonalisierbar. Dann folgt aus Satz 18 und Folgerung 13, dass EA (λ1 ) ⊕ EA (λ2 ) ⊕ · · · ⊕ EA (λk ) = Kn . “⇐=:” Sei nun EA (λ1 ) ⊕ EA (λ2 ) ⊕ · · · ⊕ EA (λk ) = Kn . Aus Satz 20 folgt, dass die Summe EA (λ1 ) ⊕ Pk Pk EA (λ2 ) ⊕ · · · ⊕ EA (λk ) direkt ist, d.h. aus i=1 v1 = i=1 ṽi mit vi , ṽi ∈ EA (λi ) folgt vi = ṽi für alle i = 1, . . . , k. Somit zeigt man leicht, dass B := B1 ∪ · · · ∪ Bk eine Basis aus Eigenvektoren liefert, falls Bi jeweils eine Basis von EA (λi ) ist. Folgerung 16: Sei A ∈ Kn×n und seien λ1 , . . . , λk die paarweise verschiedenen Nullstellen Pk des charakteristischen Polynoms χA . Die Matrix A ∈ Kn×n ist genau dann diagonalisierbar, wenn i=1 g(λi ) = n. Beweis. Die Behauptung folgt unmittelbar aus Satz 20 und Folgerung 15(b). Abschließend zitieren wir einen tiefliegenden Satz der Linerane Algebra, der eine erstaunliche Eigenschaft des charakteristischen Polynoms zeigt. Zum Beweis verweisen wir auf die angegebene Literatur. Satz 21 (Satz von Cayley/Hamilton) Sei A ∈ Kn×n und sei χA (x) = xn + an−1 xn−1 + ...a1 x + a0 . Dann gilt An + an−1 An−1 + ...a1 A + a0 In = 0 ∈ Kn×n , oder kurz χA (A) = 0. Beispiel zur Diagonalisierbarkeit: Sei A= h 1 20 2 10 −1 1 3 i ∈ R3×3 . 1. Schritt (Bestimmung der Eigenwerte): Wir berechnen zuerst die Nullstellen des charakteristische Polynom χA (x) := det(A − xI3 ). Dazu entwickeln wir die folgende Determinante nach der letzten Spalte. h 1−x 2 0 i 2 det(A − xI3 ) = det 2 1−x 0 = (3 − x) det 1−x 2 1−x −1 = 1 3−x (3 − x)(x2 − 2x − 3) = −(x − 3)2 (x + 1), also σ(A) = {−1, 3}. 2. Schritt (Bestimmung der Eigenräume): (1) Für λ = 3 erhalten wir EA (3) := ker(A − 3I3 ) als Lösung des linearen Gleichungssystems h −2 2 0 i h x1 i h0i x2 2 −2 0 0 = x3 0 −1 1 0 | {z } A−3I3 Mittels elementarer Zeilenumformungen erhält man das äquivalente System h0i h −1 1 0 i h x1 i x2 0 = 0 00 x 0 00 3 8 0 und somit Ker(A − 3I3 ) = n x2 h1i 1 0 + x3 o Dh 1 i h 0 iE h 0 i 1 , 0 0 x2 , x3 ∈ R = . 0 1 1 (2) Für λ = −1 ergibt sich EA (−1) := ker(A + I3 ) als Lösung von h0i h 2 2 0 i h x1 i x2 2 20 0 = x −1 1 4 (6) 0 3 Wiederum durch elementare Zeilenumformungen bringt (6) in die äquivalent From h0i h 1 0 −2 i h x1 i x2 0 . = 00 0 x 01 2 Also gilt Ker(A − 3I3 ) = n 0 3 x3 h 2 −2 1 i o Dh 2 iE −2 . x3 ∈ R = 1 Folglich finden wir eine Basis des R3 bestehend aus Eigenvektoren von A, z.B. somit ist A diagonalisierbar (vgl. Satz 18 und Folgerung 16). 9 nh 1 i h 0 i h 2 io 1 , 0 , −2 und 0 1 1