12 Lineare Algebra - Übersicht Themen: ◮ Unterräume ◮ Lineare Abbbildungen ◮ Gauß-Algorithmus ◮ Eigenwerte und Normalformen Unterräume K Sei X ein Vektorraum über . Eine Teilmenge M ⊂ X heißt Unterraum von X , wenn sie bezüglich der algebraischen Operationen Addition und Skalarmultiplikation abgeschlossen ist, wenn also x, y ∈ M ⇒ αx + βy ∈ M ∀α, β ∈ K. Unterräume K Sei X ein Vektorraum über . Eine Teilmenge M ⊂ X heißt Unterraum von X , wenn sie bezüglich der algebraischen Operationen Addition und Skalarmultiplikation abgeschlossen ist, wenn also x, y ∈ M ⇒ αx + βy ∈ M ∀α, β ∈ K. Ein Unterraum ist damit selber ein Vektorraum, weil er die Rechenregeln vom zu Grunde liegenden Vektorraum erbt. Beispiele für Unterräume Sind x1 , . . . , xk ∈ X , so heißt © U = span {x1 , . . . , xk } = z = α1 x1 +. . .+αk xk : α1 , . . . , αk ∈ der von x1 , . . . , xk aufgespannte Unterraum. Kª Beispiele für Unterräume Sind x1 , . . . , xk ∈ X , so heißt © U = span {x1 , . . . , xk } = z = α1 x1 +. . .+αk xk : α1 , . . . , αk ∈ der von x1 , . . . , xk aufgespannte Unterraum. Aufgabe: Man zeige, dass U tatsächlich ein Unterraum ist. Kª Beispiele für Unterräume Sind x1 , . . . , xk ∈ X , so heißt © U = span {x1 , . . . , xk } = z = α1 x1 +. . .+αk xk : α1 , . . . , αk ∈ der von x1 , . . . , xk aufgespannte Unterraum. Kª Aufgabe: Man zeige, dass U tatsächlich ein Unterraum ist. Für k = 1 und x1 6= 0 ist U die Gerade durch den Nullpunkt mit Richtung x1 . Linare Abbildungen Seien X , Y Vektorräume über dem Körper f : X → Y heißt linear, wenn K. Eine Abbildung f (αx + βy ) = αf (x) + βf (y ) ∀α, β ∈ K ∀x, y ∈ X . Linare Abbildungen Seien X , Y Vektorräume über dem Körper f : X → Y heißt linear, wenn K. Eine Abbildung f (αx + βy ) = αf (x) + βf (y ) ∀α, β ∈ K ∀x, y ∈ X . Sind x1 , . . . , xk Vektoren in X , so ist f durch die Werte f (x1 ), . . . , f (xk ) eindeutig auf dem von x1 , . . . , xk aufgespannten Unterraum festgelegt. Beweis Mit einem Induktionsschluss folgt nämlich aus der Bedingung der Linearität, dass f (α1 x1 + . . . + αk xk ) = α1 f (x1 ) + . . . + αk f (xk ). Beweis Mit einem Induktionsschluss folgt nämlich aus der Bedingung der Linearität, dass f (α1 x1 + . . . + αk xk ) = α1 f (x1 ) + . . . + αk f (xk ). Insbesondere: Ist x1 , . . . , xn eine Basis des Vektorraums, so ist die lineare Abbildung f auf ganz X durch die Werte f (x1 ), . . . , f (xn ) festgelegt. Matrixdarstellung einer linearen Abbildung K K K Sei f : n → m linear. Wir nehmen die kanonische Basis e1 , . . . , en von n und entwickeln die Werte f (ei ) nach der ′ von m kanonischen Basis e1′ , . . . , em K f (ej ) = m X i=1 aij ei′ . Matrixdarstellung einer linearen Abbildung K K K Sei f : n → m linear. Wir nehmen die kanonische Basis e1 , . . . , en von n und entwickeln die Werte f (ei ) nach der ′ von m kanonischen Basis e1′ , . . . , em K f (ej ) = m X aij ei′ . i=1 Die aij stellen wir als Matrix zusammen a11 . . . a1n .. = (a ) A = ... ij i=1,...,m, . am1 . . . amn j=1,...,n ∈ Km×n . Matrixdarstellung einer linearen Abbildung Für x = (x1 , . . . , xn )T = n X xj ej j=1 folgt f (x) = f n ³X xj ej = j=1 = m n X X j=1 ´ n X xj f (ej ) j=1 aij xj ei = Ax. |{z} i=1 Zeile×Spalte Matrix-Multiplikation Um f (x) = Ax zu bekommen, wird die Multiplikation Matrix × Vektor so definiert, wie sie definiert ist. Matrix-Multiplikation Um f (x) = Ax zu bekommen, wird die Multiplikation Matrix × Vektor so definiert, wie sie definiert ist. Gleiches gilt für die Multiplikation zweier Matrizen: Sie soll die Komposition zweier linearer Abbildungen darstellen. Matrix-Multiplikation Um f (x) = Ax zu bekommen, wird die Multiplikation Matrix × Vektor so definiert, wie sie definiert ist. Gleiches gilt für die Multiplikation zweier Matrizen: Sie soll die Komposition zweier linearer Abbildungen darstellen. K K K K K Seien f : m → l und g : n → m mit Matrixdarstellungen A ∈ l×m von f und B ∈ m×n von g , also X X f (y ) = aij yj ei′′ , g (x) = bkl xl ek′ , K ij mit {ei′′ }=Basis von kl Kl , {ei′}=Basis von Km . Matrix-Multiplikation Damit gilt f (g (x)) = f ³X kl = X kli ´ X X bkl xl ek′ = bkl xl f (ek′ ) = bkl xl aik ei′′ kl xl ei′′ = ABx. a b |ik{z kl} Zeile×Spalte kli Folgerungen Das Hintereinanderschalten von allgemeinen Abbildungen ist assoziativ. Insbesondere gilt das für lineare Abbildungen. Daher ist auch das Matrizenprodukt assoziativ (AB)C = A(BC ). Folgerungen Das Hintereinanderschalten von allgemeinen Abbildungen ist assoziativ. Insbesondere gilt das für lineare Abbildungen. Daher ist auch das Matrizenprodukt assoziativ (AB)C = A(BC ). K Jede lineare Abbildung f : n → ihre Matrix A ∈ m×n . Daher K dim{f : Km ist eindeutig bestimmt durch Kn → Km linear} = dim Km×n = mn. Kern und Bildraum einer linearen Abbildung Seien X , Y Vektorräume über dem Körper f : X → Y sei linear. K und die Abbildung Der Kern oder Nullraum von f ist Kern f = {x ∈ X : f (x) = 0} ⊂ X . Wegen f (0) = 0 ist der Kern nichtleer. Kern und Bildraum einer linearen Abbildung Seien X , Y Vektorräume über dem Körper f : X → Y sei linear. K und die Abbildung Der Kern oder Nullraum von f ist Kern f = {x ∈ X : f (x) = 0} ⊂ X . Wegen f (0) = 0 ist der Kern nichtleer. Der Bildraum von f ist f (X ) = {y = f (x) : x ∈ X } ⊂ Y . Kern und Bildraum einer linearen Abbildung Seien X , Y Vektorräume über dem Körper f : X → Y sei linear. K und die Abbildung Der Kern oder Nullraum von f ist Kern f = {x ∈ X : f (x) = 0} ⊂ X . Wegen f (0) = 0 ist der Kern nichtleer. Der Bildraum von f ist f (X ) = {y = f (x) : x ∈ X } ⊂ Y . Satz Kern f ist Unterraum von X und f (X ) ist Unterraum von Y . Beweis Sind x, x ′ ∈ Kern f , so f (αx + βx ′ ) = αf (x) + βf (x ′ ) = 0, also αx + βx ′ ∈ Kern f . Beweis Sind x, x ′ ∈ Kern f , so f (αx + βx ′ ) = αf (x) + βf (x ′ ) = 0, also αx + βx ′ ∈ Kern f . Sind y , y ′ ∈ f (X ), so gibt es x, x ′ ∈ X mit f (x) = y und f (x ′ ) = y ′ . Daher αy + βy ′ = αf (x) + βf (x ′ ) = f (αx + βx ′ ) ∈ f (X ). Die Rangformel Ist X endlich dimensional und f : X → Y linear, so definieren wir den Rang rang (f ) und den Defekt defekt f von f durch rang f = dim f (X ), defekt f = dim Kern f . Die Rangformel Ist X endlich dimensional und f : X → Y linear, so definieren wir den Rang rang (f ) und den Defekt defekt f von f durch rang f = dim f (X ), defekt f = dim Kern f . Klar, rang f , defekt f ≤ dim X . Satz (Rangformel) Es gilt defekt f + rang f = dim X . Beweis der Rangformel Sei dim X = n. Sei x1 , . . . , xk eine Basis von Kern f . Diese können wir dann durch xk+1 , . . . , xn zu einer Basis von X ergänzen. Es gilt f (X ) = span {f (x1 ), . . . , f (xn )} = span {f (xk+1 ), . . . , f (xn )} Beweis der Rangformel Sei dim X = n. Sei x1 , . . . , xk eine Basis von Kern f . Diese können wir dann durch xk+1 , . . . , xn zu einer Basis von X ergänzen. Es gilt f (X ) = span {f (x1 ), . . . , f (xn )} = span {f (xk+1 ), . . . , f (xn )} Wären die Vektoren f (xk+1 ), . . . , f (xn ) linear abhängig, so αk+1 f (xk+1 ) + . . . + αn f (xn ) = 0, und damit αk+1 xk+1 + . . . + αn xn ∈ Kern f . Beweis der Rangformel Sei dim X = n. Sei x1 , . . . , xk eine Basis von Kern f . Diese können wir dann durch xk+1 , . . . , xn zu einer Basis von X ergänzen. Es gilt f (X ) = span {f (x1 ), . . . , f (xn )} = span {f (xk+1 ), . . . , f (xn )} Wären die Vektoren f (xk+1 ), . . . , f (xn ) linear abhängig, so αk+1 f (xk+1 ) + . . . + αn f (xn ) = 0, und damit αk+1 xk+1 + . . . + αn xn ∈ Kern f . Dies widerspricht der Konstruktion der xi , denn ein nichttriviales Element des Kerns darf sich nicht als Linearkombination der xk+1 , . . . , xn darstellen lassen. Daher rang f = dim f (X ) = n − k. Lineare Gleichungssystem und Abbildungen Sei A ∈ Km×n und b ∈ Km . Das lineare Gleichungssystem Ax = b können wir auch mit der zugehörigen linearen Abbildung f : n → m , f (x) = Ax deuten. K K Lineare Gleichungssystem und Abbildungen Sei A ∈ Km×n und b ∈ Km . Das lineare Gleichungssystem Ax = b können wir auch mit der zugehörigen linearen Abbildung f : n → m , f (x) = Ax deuten. K K Seien a1 , . . . , an die Spaltenvektoren von A, A = (a1 | . . . |an ). Dann Ax = b ⇔ n X j=1 mit x = (x1 , . . . , xn )T . xj aj = b ⇔ f (x) = b Lineare Gleichungssystem und Abbildungen Das Gleichungssystem Ax = b ist daher genau dann lösbar, wenn b ∈ f ( n ). K Lineare Gleichungssystem und Abbildungen Das Gleichungssystem Ax = b ist daher genau dann lösbar, wenn b ∈ f ( n ). K Wir definieren den Spaltenrang rang A als die Anzahl der linear unabhängigen Spaltenvektoren von A. Dieser stimmt mit dem Rang der zugehörigen Abbildung f (x) = Ax überein. Lineare Gleichungssystem und Abbildungen Das lineare Gleichungssystem Ax = b ist daher genau dann für jede rechte Seite b lösbar, wenn rang A = m. Lineare Gleichungssystem und Abbildungen Das lineare Gleichungssystem Ax = b ist daher genau dann für jede rechte Seite b lösbar, wenn rang A = m. Dazu ist natürlich n ≥ m erforderlich. Lineare Gleichungssystem und Abbildungen Das lineare Gleichungssystem Ax = b ist daher genau dann für jede rechte Seite b lösbar, wenn rang A = m. Dazu ist natürlich n ≥ m erforderlich. Ist x eine Lösung von Ax = b so ist die Lösungsmenge der affine Raum x + Kern f . In Matrixschreibweise ist Kern f = {y : Ay = 0}. Lineare Gleichungssystem und Abbildungen Das lineare Gleichungssystem Ax = b ist daher genau dann für jede rechte Seite b lösbar, wenn rang A = m. Dazu ist natürlich n ≥ m erforderlich. Ist x eine Lösung von Ax = b so ist die Lösungsmenge der affine Raum x + Kern f . In Matrixschreibweise ist Kern f = {y : Ay = 0}. Nach der Rangformel ist defekt f = dim Kern f = n − rang A. Der Spezialfall m = n Bei m = n gibt es folgende Möglichkeiten: rang A = n : Das lineare Gleichungssystem Ax = b ist für alle b eindeutig lösbar. rang A < n : Das lineare Gleichungssystem Ax = b ist nicht für alle b lösbar. Gibt es eine Lösung x, so ist die Lösungsmenge der affine Raum x + Kern f mit dim Kern f = n − rang A. Der Spezialfall m = n Liegt der Fall rang A = n vor, so heißt die Matrix A regulär. Der Spezialfall m = n Liegt der Fall rang A = n vor, so heißt die Matrix A regulär. Meine Lieblingsfrage in einer Prüfung: Nennen sie die 1000 äquivalenten Bedingungen zur Regularität von A. Äquivalente Bedingungen für reguläres A im Fall m = n ◮ rang A = n Äquivalente Bedingungen für reguläres A im Fall m = n ◮ rang A = n ◮ Das Gleichungssystem Ax = b ist für alle b eindeutig lösbar. Äquivalente Bedingungen für reguläres A im Fall m = n ◮ rang A = n ◮ Das Gleichungssystem Ax = b ist für alle b eindeutig lösbar. ◮ Das Gleichungssystem Ax = b ist für alle b lösbar. Äquivalente Bedingungen für reguläres A im Fall m = n ◮ rang A = n ◮ Das Gleichungssystem Ax = b ist für alle b eindeutig lösbar. ◮ Das Gleichungssystem Ax = b ist für alle b lösbar. ◮ Das homogene Gleichungssystem Ax = 0 ist eindeutig lösbar (durch x = 0). Äquivalente Bedingungen für reguläres A im Fall m = n ◮ rang A = n ◮ Das Gleichungssystem Ax = b ist für alle b eindeutig lösbar. ◮ Das Gleichungssystem Ax = b ist für alle b lösbar. ◮ Das homogene Gleichungssystem Ax = 0 ist eindeutig lösbar (durch x = 0). ◮ det A 6= 0 Die Inverse von regulären Matrizen Ist die n × n-Matrix regulär, so können wir für jedes b das Gleichungssystem Ax = b lösen. Die Inverse von regulären Matrizen Ist die n × n-Matrix regulär, so können wir für jedes b das Gleichungssystem Ax = b lösen. Insbesondere sind Axi = ei eindeutig lösbar, e1 , . . . , en sind die kanonischen Einheitsvektoren. Die Inverse von regulären Matrizen Wir stellen die Lösungen von Axi = ei als Spaltenvektoren einer Matrix zusammen: A−1 = (x1 | . . . |xn ) ⇒ AA−1 = (Ax1 | . . . |Axn ) = (e1 | . . . |en ) = E Die Inverse von regulären Matrizen Wir stellen die Lösungen von Axi = ei als Spaltenvektoren einer Matrix zusammen: A−1 = (x1 | . . . |xn ) ⇒ AA−1 = (Ax1 | . . . |Axn ) = (e1 | . . . |en ) = E mit der Einheitsmatrix E = 1 0 .. . 0 . .. . 1 Die Inverse von regulären Matrizen Wir stellen die Lösungen von Axi = ei als Spaltenvektoren einer Matrix zusammen: A−1 = (x1 | . . . |xn ) ⇒ AA−1 = (Ax1 | . . . |Axn ) = (e1 | . . . |en ) = E mit der Einheitsmatrix E = 1 0 .. . 0 . .. . 1 Es gilt also AA−1 = A−1 A = E . Die regulären n × n-Matrizen bilden eine Gruppe mit neutralem Element E . Gauß-Algorithmus Wenn in der Klausur keine Aufgabe vorkommt, in der der Gauß-Algorithmus an einem konkreten Beispiel vorgeführt werden muss, gebe ich einen aus. Gauß-Algorithmus Wenn in der Klausur keine Aufgabe vorkommt, in der der Gauß-Algorithmus an einem konkreten Beispiel vorgeführt werden muss, gebe ich einen aus. K K Sei A ∈ m×n und b ∈ m . Zu lösen ist Ax = b mit Hilfe des Gauß-Algorithmus, dem Standard-Verfahren für dieses Problem. Gauß-Algorithmus Wenn in der Klausur keine Aufgabe vorkommt, in der der Gauß-Algorithmus an einem konkreten Beispiel vorgeführt werden muss, gebe ich einen aus. K K Sei A ∈ m×n und b ∈ m . Zu lösen ist Ax = b mit Hilfe des Gauß-Algorithmus, dem Standard-Verfahren für dieses Problem. Wir betrachten immer das erweiterte System (A|b) ∈ Km×(n+1), wobei b (wie immer bei uns) als Spaltenvektor aufgefasst wird. Gauß-Algorithmus Die Lösungsmenge von Ax = b wird nicht verändert, wenn ◮ eine Zeile von (A|b) auf eine andere addiert wird, Gauß-Algorithmus Die Lösungsmenge von Ax = b wird nicht verändert, wenn ◮ eine Zeile von (A|b) auf eine andere addiert wird, ◮ eine Zeile mit einem α ∈ K \ {0} multipliziert wird, Gauß-Algorithmus Die Lösungsmenge von Ax = b wird nicht verändert, wenn ◮ eine Zeile von (A|b) auf eine andere addiert wird, ◮ eine Zeile mit einem α ∈ ◮ zwei Zeilen von (A|b) miteinander vertauscht werden. K \ {0} multipliziert wird, Gauß-Algorithmus im Fall m = n Sei A regulär. Mit Hilfe der angegebenen Operationen erreicht man in diesem Fall, dass A zu einer rechten oberen Dreiecksmatrix wird: ∗ ∗ ... ∗ ∗ ∗ 0 ∗ ... ∗ ∗ ∗ . . . . . . . . (Ã|b̃) = 0 0 . . . . 0 0 ... ∗ ∗ ∗ 0 0 ... 0 ∗ ∗ Gauß-Algorithmus im Fall m = n Sei A regulär. Mit Hilfe der angegebenen Operationen erreicht man in diesem Fall, dass A zu einer rechten oberen Dreiecksmatrix wird: ∗ ∗ ... ∗ ∗ ∗ 0 ∗ ... ∗ ∗ ∗ . . . . . . . . (Ã|b̃) = 0 0 . . . . 0 0 ... ∗ ∗ ∗ 0 0 ... 0 ∗ ∗ In diesem Fall sind die Elemente auf der Hauptdiagonalen 6= 0 und die eindeutige Lösung wird durch Elimination von unten nach oben bestimmt. Gauß-Algorithmus im Fall m = n Ist rang A < n, so wendet man am besten Spaltenvertauschung an, wenn man in einer Spalte kein Pivot-Element findet. Gauß-Algorithmus im Fall m = n Ist rang A < n, so wendet man am besten Spaltenvertauschung an, wenn man in einer Spalte kein Pivot-Element findet. Vertauscht man die Spalte i mit Spalte j, so werden auch die Unbekannten xi und xj miteinander vertauscht, was man sich merkt. Gauß-Algorithmus im Fall m = n Sei rang A = n − 1. Mit Hilfe erreicht man in diesem Fall: ∗ 0 (Ã|b̃) = 0 0 0 der angegebenen Operationen ∗ ··· ∗ ∗ ∗ ∗ ··· ∗ ∗ ∗ . . . . 0 . . .. .. .. 0 ··· ∗ ∗ ∗ 0 · · · 0 0 b̃n Gauß-Algorithmus im Fall m = n Ist b̃n = 6 0, so ist das lineare Gleichungssystem unlösbar, weil die letzte Gleichung nicht erfüllt werden kann. Gauß-Algorithmus im Fall m = n Ist b̃n = 6 0, so ist das lineare Gleichungssystem unlösbar, weil die letzte Gleichung nicht erfüllt werden kann. Ist b̃n = 0, so kann man für xn einen beliebigen Wert vorgeben und man erhält eine Lösung x. Gauß-Algorithmus im Fall m = n Ist b̃n = 6 0, so ist das lineare Gleichungssystem unlösbar, weil die letzte Gleichung nicht erfüllt werden kann. Ist b̃n = 0, so kann man für xn einen beliebigen Wert vorgeben und man erhält eine Lösung x. Um den Kern zu bestimmen, gibt man sich im homogenen System Ãx = 0 für xn die 1 ∈ vor und bestimmt wieder von unten nach oben einen Vektor y , der das homogene System löst. Die Lösungsmenge ist dann K x + {λy : λ ∈ K}. Gauß-Algorithmus - m < n K Ist A ∈ m×n mit m < n, so ist das Gleichungssystem unterbestimmt. Hat man Vollrang, also rang A = m, so erreicht man mit den angegebenen Operationen die Form ∗ ∗ ··· ∗ ∗ ··· ∗ ∗ 0 ∗ · · · ∗ ∗ · · · ∗ ... (Ã|b̃) = 0 0 . . . ... ... · · · ... ... , aii 6= 0 für i = 1, . . . , m. .. 0 0 ··· ∗ ∗ ··· ∗ . 0 0 ··· 0 ∗ ··· ∗ ∗ Gauß-Algorithmus - m < n Man setzt xm+1 , . . . , xn = 0 und erhält eine Lösung von Ax = b. Den Kern bestimmt man wieder, indem man b̃ = 0 und ein xj , j = m + 1, . . . , n zu 1 setzt. Die zugehörigen x (j) bilden dann eine Basis des Kerns. Gauß-Algorithmus - m < n Man setzt xm+1 , . . . , xn = 0 und erhält eine Lösung von Ax = b. Den Kern bestimmt man wieder, indem man b̃ = 0 und ein xj , j = m + 1, . . . , n zu 1 setzt. Die zugehörigen x (j) bilden dann eine Basis des Kerns. Spaltenvertauschungen rückgängig machen! Gauß-Algorithmus - m > n Bei einem überbestimmten Gleichungssystem m > n erhalten wir im Fall rang A = m nach Anwendung des Gauß-Algorithmus die Form ! à R b̃R . (Ã|b̃) = 0 b̃0 Gauß-Algorithmus - m > n Bei einem überbestimmten Gleichungssystem m > n erhalten wir im Fall rang A = m nach Anwendung des Gauß-Algorithmus die Form ! à R b̃R . (Ã|b̃) = 0 b̃0 R ist eine reguläre rechte obere Dreiecksmatrix. Das Gleichungssystem ist genau dann lösbar, wenn b̃0 = 0. Das Unterraum-Zugehörigkeitsproblem Sei X = Kn und Gehört x ∈ X zu U? U = span {x1 , . . . , xk }. Das Unterraum-Zugehörigkeitsproblem Sei X = Kn und U = span {x1 , . . . , xk }. Gehört x ∈ X zu U? Wir stellen die Spaltenvektoren xi zu einer Matrix zusammen: A = (x1 | . . . |xk ) ∈ Kn×k und wenden auf das Gleichungssystem Ay = x den Gauß-Algorithmus an. x ∈ U genau dann, wenn Ay = x lösbar ist. Testen auf lineare Abhängigkeit Sind die Vektoren x1 , . . . , xk ∈ unabhängig? Kn linear abhängig oder linear Testen auf lineare Abhängigkeit Sind die Vektoren x1 , . . . , xk ∈ unabhängig? Kn linear abhängig oder linear Auf A = (x1 | . . . |xk ) ∈ Kn×k wenden wir wieder den Gauß-Algorithmus an. Die Vektoren sind genau dann linear unabhängig, wenn Ay = 0 nur durch y = 0 gelöst wird. Ähnlichkeitstransformation C Zwei Matrizen A, B ∈ n×n heißen ähnlich, wenn es eine reguläre Matrix T gibt mit A = T −1 BT . Ähnlichkeitstransformation C Zwei Matrizen A, B ∈ n×n heißen ähnlich, wenn es eine reguläre Matrix T gibt mit A = T −1 BT . Ähnlichkeit ist eine Äquivalenzrelation. Ähnlichkeitstransformation C Zwei Matrizen A, B ∈ n×n heißen ähnlich, wenn es eine reguläre Matrix T gibt mit A = T −1 BT . Ähnlichkeit ist eine Äquivalenzrelation. Sei T = (t1 | . . .P |tn ). y = Tx lässt sich so interpretieren: Der Vektor y lässt sich als i ti xi darstellen. Also sind die xi die Koordinaten von y , wenn er durch die Basis {ti } dargestellt wird. Ähnlichkeitstransformation C Zwei Matrizen A, B ∈ n×n heißen ähnlich, wenn es eine reguläre Matrix T gibt mit A = T −1 BT . Ähnlichkeit ist eine Äquivalenzrelation. Sei T = (t1 | . . .P |tn ). y = Tx lässt sich so interpretieren: Der Vektor y lässt sich als i ti xi darstellen. Also sind die xi die Koordinaten von y , wenn er durch die Basis {ti } dargestellt wird. B ist daher die Darstellungsmatrix der Abbildung f (x) = Ax, wenn f bezüglich der Basis {ti } dargestellt wird. Eigenwerte und Eigenvektoren Von nun an X = x∈ A∈ Cn und K = C! Cn \ {0} heißt Eigenvektor zum Eigenwert λ ∈ C der Matrix Cn×n , wenn Ax = λx. Eigenwerte und Eigenvektoren Von nun an X = x∈ A∈ Cn und K = C! Cn \ {0} heißt Eigenvektor zum Eigenwert λ ∈ C der Matrix Cn×n , wenn Ax = λx. Interpretation: U = span {x} ist ein invarianter Raum der Matrix A, also A(U) ⊂ U. Eigenwerte und Eigenvektoren Von nun an X = x∈ A∈ Cn und K = C! Cn \ {0} heißt Eigenvektor zum Eigenwert λ ∈ C der Matrix Cn×n , wenn Ax = λx. Interpretation: U = span {x} ist ein invarianter Raum der Matrix A, also A(U) ⊂ U. Gibt es n linear unabhängige Eigenvektoren, wissen wir, wie die Matrix tickt. Eigenwerte und Eigenvektoren Sei Aλ = A − λE , E ist die Einheitsmatrix. Eigenwerte und Eigenvektoren Sei Aλ = A − λE , E ist die Einheitsmatrix. Es gilt λ ist Eigenwert ⇔ Aλ ist singulär ⇔ det Aλ = 0. Eigenwerte und Eigenvektoren Sei Aλ = A − λE , E ist die Einheitsmatrix. Es gilt λ ist Eigenwert ⇔ Aλ ist singulär ⇔ det Aλ = 0. p(λ) = det Aλ heißt charakteristisches Polynom. Es gilt grad p = n. charakteristisches Polynom p(λ) = det Aλ = det(A − λE ). Ähnliche Matrizen haben das gleiche charakteristische Polynom: det(TAT −1 − λE ) = det(T (A − λE )T −1 ) = det T · det Aλ · det T −1 = det Aλ = p(λ). charakteristisches Polynom p(λ) = det Aλ = det(A − λE ). Ähnliche Matrizen haben das gleiche charakteristische Polynom: det(TAT −1 − λE ) = det(T (A − λE )T −1 ) = det T · det Aλ · det T −1 = det Aλ = p(λ). Für p(λ) = bn λn + · · · + b1 λ + b0 gilt offenbar n bn = (−1) , n−1 b1 = (−1) n X i=1 aii = (−1)n−1 spur A, a0 = det A. charakteristisches Polynom p(λ) = det Aλ = det(A − λE ). Ähnliche Matrizen haben das gleiche charakteristische Polynom: det(TAT −1 − λE ) = det(T (A − λE )T −1 ) = det T · det Aλ · det T −1 = det Aλ = p(λ). Für p(λ) = bn λn + · · · + b1 λ + b0 gilt offenbar n bn = (−1) , n−1 b1 = (−1) n X aii = (−1)n−1 spur A, i=1 Diese Größen müssen bei ähnlichen Matrizen gleich sein! a0 = det A. Algebraische und geometrische Vielfachheit Nach dem Fundamentalsatz der Algebra hat p(λ) = det Aλ genau n Nullstellen, wenn man mehrfache Nullstellen auch mehrfach zählt, α1 p(λ) = (λ1 − λ) αk . . . (λk − λ) mit k X i=1 αi = n. Algebraische und geometrische Vielfachheit Nach dem Fundamentalsatz der Algebra hat p(λ) = det Aλ genau n Nullstellen, wenn man mehrfache Nullstellen auch mehrfach zählt, α1 p(λ) = (λ1 − λ) αk . . . (λk − λ) mit k X αi = n. i=1 λ1 , . . . , λk sind die Eigenwerte. αi heißt algebraische Vielfachheit des Eigenwerts λi . Algebraische und geometrische Vielfachheit Nach dem Fundamentalsatz der Algebra hat p(λ) = det Aλ genau n Nullstellen, wenn man mehrfache Nullstellen auch mehrfach zählt, α1 p(λ) = (λ1 − λ) αk . . . (λk − λ) mit k X αi = n. i=1 λ1 , . . . , λk sind die Eigenwerte. αi heißt algebraische Vielfachheit des Eigenwerts λi . γi = dim Kern Aλi heißt geometrische Vielfachheit des Eigenwerts λi . Algebraische und geometrische Vielfachheit Kern Aλi heißt Eigenraum zum Eigenwert λi . Algebraische und geometrische Vielfachheit Kern Aλi heißt Eigenraum zum Eigenwert λi . γi = dim Kern Aλi ist daher die Anzahl der linear unabhängigen Eigenvektoren zum Eigenwert λi . Algebraische und geometrische Vielfachheit Kern Aλi heißt Eigenraum zum Eigenwert λi . γi = dim Kern Aλi ist daher die Anzahl der linear unabhängigen Eigenvektoren zum Eigenwert λi . Lemma Es gilt γi ≤ αi . geometrische ≤ algebraische Vielfachheit - Beweis Sei x1 , . . . , xγi eine Basis des Eigenraums zum Eigenwert λi . Ergänze dies durch xγi +1 , . . . , xn zu einer Basis des n . C geometrische ≤ algebraische Vielfachheit - Beweis Sei x1 , . . . , xγi eine Basis des Eigenraums zum Eigenwert λi . Ergänze dies durch xγi +1 , . . . , xn zu einer Basis des n . C Setze T = (x1 | . . . |xn ). Dann −1 T AT = λi ∗ λi .. . λi 0 ∗ . geometrische ≤ algebraische Vielfachheit - Beweis Sei x1 , . . . , xγi eine Basis des Eigenraums zum Eigenwert λi . Ergänze dies durch xγi +1 , . . . , xn zu einer Basis des n . C Setze T = (x1 | . . . |xn ). Dann −1 T AT = λi Daher p(λ) = (λi − λ)γi p0 (λ). ∗ λi .. . λi 0 ∗ . Verschiedene Eigenwerte Lemma Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig. Verschiedene Eigenwerte Lemma Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig. Beweis: Durch Induktion über die Anzahl k der Eigenvektoren. Da ein Eigenvektor nicht verschwindet, ist k = 1 gezeigt. Verschiedene Eigenwerte Lemma Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig. Beweis: Durch Induktion über die Anzahl k der Eigenvektoren. Da ein Eigenvektor nicht verschwindet, ist k = 1 gezeigt. Seien λ1 , . . . , λk+1 paarweise verschiedene Eigenwerte der Matrix A. Die Induktionsvoraussetzung ist dann: Die zugehörigen Eigenvektoren x1 , . . . , xk sind linear unabhängig. Beweis Angenommen, xk+1 ließe sich nach den xi entwickeln, P xk+1 = ki=1 αi xi . Dann k X i=1 λk+1 αi xi = λk+1 xk+1 = Axk+1 Beweis Angenommen, xk+1 ließe sich nach den xi entwickeln, P xk+1 = ki=1 αi xi . Dann k X λk+1 αi xi = λk+1 xk+1 = Axk+1 i=1 =A k ³X i=1 k ´ X λi αi xi . αi xi = i=1 Beweis Angenommen, xk+1 ließe sich nach den xi entwickeln, P xk+1 = ki=1 αi xi . Dann k X λk+1 αi xi = λk+1 xk+1 = Axk+1 i=1 =A k ³X i=1 k ´ X λi αi xi . αi xi = i=1 Da die xi linear unabhängig sind, folgt λk+1 αi = λi αi , i = 1, . . . , k. Wegen xk+1 6= 0 muss αi0 6= 0 gelten für ein i0 . Beweis Angenommen, xk+1 ließe sich nach den xi entwickeln, P xk+1 = ki=1 αi xi . Dann k X λk+1 αi xi = λk+1 xk+1 = Axk+1 i=1 =A k ³X i=1 k ´ X λi αi xi . αi xi = i=1 Da die xi linear unabhängig sind, folgt λk+1 αi = λi αi , i = 1, . . . , k. Wegen xk+1 6= 0 muss αi0 6= 0 gelten für ein i0 . Das liefert jedoch λk+1 = λi0 und damit einen Widerspruch. Diagonalisierbare Matrizen Bilden die Eigenvektoren von A ∈ A diagonalisierbar. Cn×n eine Basis des Cn , so heißt Diagonalisierbare Matrizen Bilden die Eigenvektoren von A ∈ A diagonalisierbar. Cn×n eine Basis des Cn , so heißt A ist genau dann diagonalisierbar, wenn γi = αi für i = 1, . . . , k (vgl. letztes Lemma). Diagonalisierbare Matrizen Bilden die Eigenvektoren von A ∈ A diagonalisierbar. Cn×n eine Basis des Cn , so heißt A ist genau dann diagonalisierbar, wenn γi = αi für i = 1, . . . , k (vgl. letztes Lemma). In diesem Fall schreiben wir Axi = λi xi , i = 1, . . . , n. Wir können die Eigenvektoren zu einer Matrix zusammenstellen T = (x1 |x2 | . . . |xn ) ⇒ AT = DT ⇒ A = T −1 DT mit λ1 D= 0 0 .. . λn . Wichtige Klassen diagonalisierbarer Matrizen Reelle Matrizen (A ∈ ◮ Rn×n ) Symmetrische Matrizen, d.h. A = AT , Wichtige Klassen diagonalisierbarer Matrizen Reelle Matrizen (A ∈ Rn×n ) ◮ Symmetrische Matrizen, d.h. A = AT , ◮ oder allgemeiner: Normale Matrizen, d.h. AAT = AT A, Wichtige Klassen diagonalisierbarer Matrizen Reelle Matrizen (A ∈ Rn×n ) ◮ Symmetrische Matrizen, d.h. A = AT , ◮ oder allgemeiner: Normale Matrizen, d.h. AAT = AT A, ◮ insbesondere orthogonale Matrizen, d.h. UU T = E . Wichtige Klassen diagonalisierbarer Matrizen Reelle Matrizen (A ∈ Rn×n ) ◮ Symmetrische Matrizen, d.h. A = AT , ◮ oder allgemeiner: Normale Matrizen, d.h. AAT = AT A, ◮ insbesondere orthogonale Matrizen, d.h. UU T = E . Komplexe Matrizen (A ∈ ◮ Cn×n ) Hermitesche Matrizen, d.h. A = AH , Wichtige Klassen diagonalisierbarer Matrizen Reelle Matrizen (A ∈ Rn×n ) ◮ Symmetrische Matrizen, d.h. A = AT , ◮ oder allgemeiner: Normale Matrizen, d.h. AAT = AT A, ◮ insbesondere orthogonale Matrizen, d.h. UU T = E . Komplexe Matrizen (A ∈ Cn×n ) ◮ Hermitesche Matrizen, d.h. A = AH , ◮ oder allgemeiner: Normale Matrizen, d.h. AAH = AH A, Wichtige Klassen diagonalisierbarer Matrizen Reelle Matrizen (A ∈ Rn×n ) ◮ Symmetrische Matrizen, d.h. A = AT , ◮ oder allgemeiner: Normale Matrizen, d.h. AAT = AT A, ◮ insbesondere orthogonale Matrizen, d.h. UU T = E . Komplexe Matrizen (A ∈ Cn×n ) ◮ Hermitesche Matrizen, d.h. A = AH , ◮ oder allgemeiner: Normale Matrizen, d.h. AAH = AH A, ◮ insbesondere unitäre Matrizen, d.h. UU H = E . Beispiel 1 Man bringe die Matrix à 0 2 −1 3 auf Normalform. ! Beispiel 1 Man bringe die Matrix à 0 2 −1 3 ! auf Normalform. 1. Schritt: Eigenwerte bestimmen: p(λ) = det(A − λE ) = (−λ)((3 − λ) + 2 = 0 ⇒ λ1 = 1, λ2 = 2. Da die Eigenwerte verschieden sind, ist A diagonalisierbar. Beispiel 1 λ1 = 1, λ2 = 2. 2. Schritt: Eigenvektoren bestimmen: à ! à ! −1 2 2 Aλ1 = ⇒ x1 = , −1 2 1 Beispiel 1 λ1 = 1, λ2 = 2. 2. Schritt: Eigenvektoren bestimmen: à ! à ! −1 2 2 Aλ1 = ⇒ x1 = , −1 2 1 à ! à ! −2 2 1 Aλ2 = ⇒ x2 = −1 1 1 Beispiel 1 A= à ! 0 2 , −1 3 à ! à ! 1 2 x1 = , x2 = 1 1 3. Schritt: T und T −1 bestimmen. Beispiel 1 A= à ! 0 2 , −1 3 à ! à ! 1 2 x1 = , x2 = 1 1 3. Schritt: T und T −1 bestimmen. Im diagonalisierbaren Fall wird die Matrix T aus den Eigenvektoren gebildet: à ! à ! 2 1 1 −1 −1 T = ⇒ T = . 1 1 −1 2 Es gilt dann D = T −1 AT mit D = diag (1, 2). Beispiel 2 Man bringe die Matrix auf Normalform. à ! −2 4 −1 2 Beispiel 2 Man bringe die Matrix à ! −2 4 −1 2 auf Normalform. 1. Schritt: Eigenwerte bestimmen: p(λ) = det(A − λE ) = (−2 − λ)(2 − λ) + 4 = λ2 = 0 Die algebraische Vielfachheit von λ = 0 ist 2. Beispiel 2 2. Schritt: Eigenvektor(en) bestimmen: à ! à ! −2 4 2 A = A0 = ⇒ x= , −1 2 1 Beispiel 2 2. Schritt: Eigenvektor(en) bestimmen: à ! à ! −2 4 2 A = A0 = ⇒ x= , −1 2 1 Die geometrische Vielfachheit ist also nur 1. Beispiel 2 2. Schritt: Eigenvektor(en) bestimmen: à ! à ! −2 4 2 A = A0 = ⇒ x= , −1 2 1 Die geometrische Vielfachheit ist also nur 1. In dieser Konstallation (α1 = 2, γ1 = 1) ist nach der Theorie der Jordanschen Normalform das Gleichungssystem A0 x 2 = x 1 lösbar. Beispiel 2 2. Schritt: Eigenvektor(en) bestimmen: à ! à ! −2 4 2 A = A0 = ⇒ x= , −1 2 1 Die geometrische Vielfachheit ist also nur 1. In dieser Konstallation (α1 = 2, γ1 = 1) ist nach der Theorie der Jordanschen Normalform das Gleichungssystem A0 x 2 = x 1 lösbar. Klar, die Lösung ist nicht eindeutig wegen A0 x1 = 0. Beispiel 2 2. Schritt: Eigenvektor(en) bestimmen: à ! à ! −2 4 2 A = A0 = ⇒ x= , −1 2 1 Die geometrische Vielfachheit ist also nur 1. In dieser Konstallation (α1 = 2, γ1 = 1) ist nach der Theorie der Jordanschen Normalform das Gleichungssystem A0 x 2 = x 1 lösbar. Klar, die Lösung ist nicht eindeutig wegen A0 x1 = 0. Eine Lösung ist x2 = (1, 1)T . Beispiel 2 à ! à ! 2 1 x1 = , x2 = 1 1 3. Schritt: T und T −1 bestimmen. Beispiel 2 à ! à ! 2 1 x1 = , x2 = 1 1 3. Schritt: T und T −1 bestimmen. Die Vektoren x1 , x2 bilden eine Jordan-Kette, also A0 x1 = 0, A0 x 2 = x 1 . Beispiel 2 à ! à ! 2 1 x1 = , x2 = 1 1 3. Schritt: T und T −1 bestimmen. Die Vektoren x1 , x2 bilden eine Jordan-Kette, also A0 x1 = 0, A0 x 2 = x 1 . x1 ist der Eigenvektor, x2 heißt Hauptvektor. Beispiel 2 à ! à ! 2 1 x1 = , x2 = 1 1 Die Matrix T wird in diesem Fall aus der Jordankette gebildet: ! ! à à 2 1 1 −1 T = ⇒ T −1 = . 1 1 −1 2 Beispiel 2 à ! à ! 2 1 x1 = , x2 = 1 1 Die Matrix T wird in diesem Fall aus der Jordankette gebildet: ! ! à à 2 1 1 −1 T = ⇒ T −1 = . 1 1 −1 2 Es gilt J = T −1 AT mit ! à 0 1 . J= 0 0 Allgemeinere Fälle Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3. Allgemeinere Fälle Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3. 1. γ1 = 1: In diesem einfachen Fall bestimmt man den einzigen Eigenvektor x1 und löst sukzessive Aλ1 x2 = x1 und Aλ1 x3 = x2 . Allgemeinere Fälle Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3. 1. γ1 = 1: In diesem einfachen Fall bestimmt man den einzigen Eigenvektor x1 und löst sukzessive Aλ1 x2 = x1 und Aλ1 x3 = x2 . Beide Probleme sind nicht eindeutig lösbar, eine beliebige Lösung reicht. Mit dieser Jordan-Kette setzt man T = (x1 |x2 |x3 ) und es gilt λ1 1 0 J = T −1 AT mit J = 0 λ1 1 . 0 0 λ1 Allgemeinere Fälle Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3. Allgemeinere Fälle Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3. 2. γ1 = 2: Man bestimmt eine Basis des Eigenraums x1 , x2 . Allgemeinere Fälle Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3. 2. γ1 = 2: Man bestimmt eine Basis des Eigenraums x1 , x2 . Hier haben wir das Problem, dass beide Probleme Aλ1 x = x1 und Aλ1 x = x2 unlösbar sein können. Allgemeinere Fälle Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3. 2. γ1 = 2: Man bestimmt eine Basis des Eigenraums x1 , x2 . Hier haben wir das Problem, dass beide Probleme Aλ1 x = x1 und Aλ1 x = x2 unlösbar sein können. Man führt Gauß-Elimination mit dem erweiterten System (A|x1 |x2 ) → (Ã|x̃1 |x̃2 ) durch. Man bestimmt dann beliebige µ1 , µ2 (nicht beide = 0) mit µ1 x̃1,3 + µ2 x̃2,3 = 0 und dann den Hauptvektor x3 mit Aλ1 x3 = µ1 x1 + µ2 x2 . Allgemeinere Fälle Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3. 2. γ1 = 2: Man bestimmt eine Basis des Eigenraums x1 , x2 . Hier haben wir das Problem, dass beide Probleme Aλ1 x = x1 und Aλ1 x = x2 unlösbar sein können. Man führt Gauß-Elimination mit dem erweiterten System (A|x1 |x2 ) → (Ã|x̃1 |x̃2 ) durch. Man bestimmt dann beliebige µ1 , µ2 (nicht beide = 0) mit µ1 x̃1,3 + µ2 x̃2,3 = 0 und dann den Hauptvektor x3 mit Aλ1 x3 = µ1 x1 + µ2 x2 . Man setzt y2 = µ1 x1 + µ2 x2 und y1 = x1 oder y1 = x2 , so dass y1 , y2 eine Basis des Eigenraums bilden. Allgemeinere Fälle Aλ1 y1 = 0, Aλ1 y2 = 0, Aλ1 x3 = y2 . Allgemeinere Fälle Aλ1 y1 = 0, Aλ1 y2 = 0, Aλ1 x3 = y2 . Mit dem Eigenvektor y1 und der Jordan-Kette y2 , x3 setzt man T = (y1 |y2 |x3 ) und es gilt λ1 0 0 J = T −1 AT mit J = 0 λ1 1 . 0 0 λ1